JP2017531230A - Context-specific user interface - Google Patents

Context-specific user interface Download PDF

Info

Publication number
JP2017531230A
JP2017531230A JP2017505842A JP2017505842A JP2017531230A JP 2017531230 A JP2017531230 A JP 2017531230A JP 2017505842 A JP2017505842 A JP 2017505842A JP 2017505842 A JP2017505842 A JP 2017505842A JP 2017531230 A JP2017531230 A JP 2017531230A
Authority
JP
Japan
Prior art keywords
clock face
display
unit
user interface
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017505842A
Other languages
Japanese (ja)
Other versions
JP2017531230A5 (en
Inventor
クリストファー ウィルソン,
クリストファー ウィルソン,
ゲーリー, イアン ブッチャー,
ゲーリー, イアン ブッチャー,
ケヴィン, ウィル チェン,
ケヴィン, ウィル チェン,
イムラン チャウドリ,
イムラン チャウドリ,
アラン, シー. ダイ,
アラン, シー. ダイ,
アウレリオ グズマン,
アウレリオ グズマン,
ジョナサン, ピー. イヴ,
ジョナサン, ピー. イヴ,
チャナカ, ジー. カルナムニ,
チャナカ, ジー. カルナムニ,
ケニス コシエンダ,
ケニス コシエンダ,
ケヴィン リンチ,
ケヴィン リンチ,
ペドロ マリ,
ペドロ マリ,
アレサンドロ サバテリ,
アレサンドロ サバテリ,
シュミット, ブライアン
ブライアン シュミット,
エリック, ランス ウィルソン,
エリック, ランス ウィルソン,
ローレンス,ワイ. ヤン,
ローレンス,ワイ. ヤン,
ドス サントス, アンドレ ソウザ
ドス サントス, アンドレ ソウザ
Original Assignee
アップル インコーポレイテッド
アップル インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US201462032562P priority Critical
Priority to US62/032,562 priority
Priority to US201462044994P priority
Priority to US62/044,994 priority
Priority to US62/129,835 priority
Priority to US201562129835P priority
Application filed by アップル インコーポレイテッド, アップル インコーポレイテッド filed Critical アップル インコーポレイテッド
Priority to PCT/US2015/034607 priority patent/WO2016022205A1/en
Publication of JP2017531230A publication Critical patent/JP2017531230A/en
Publication of JP2017531230A5 publication Critical patent/JP2017531230A5/ja
Application status is Pending legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object or an image, setting a parameter value or selecting a range
    • G06F3/04842Selection of a displayed object
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

ポータブル多機能装置に使用するコンテキスト特化ユーザインターフェースを開示する。 It discloses a context specific user interface for use in a portable multifunction device. 本明細書に記載のコンテキスト特化ユーザインターフェースのための方法は、時刻の表示及び、任意選択的に様々な更なる情報を提供する。 Method for context specific user interface described herein, the time display and to provide optionally Various further information. 本明細書に記載の方法を実行するように構成されている非一時的コンピュータ可読記憶媒体、システム及び装置も開示する。 Non-transitory computer-readable storage medium that is configured to perform the methods described herein, also discloses a system and apparatus.
【選択図】図15 .The 15

Description

[関連出願の相互参照] CROSS-REFERENCE TO RELATED APPLICATIONS
本願は、2014年8月2日に提出された米国特許仮出願第62/032,562号、2014年9月2日に提出された米国特許仮出願第62/044,994号、2015年3月7日に提出された米国特許仮出願第62/129,835号に優先権を主張する。 This application was filed on August 2, 2014 U.S. Provisional Patent Application No. 62 / 032,562, U.S. Provisional Patent Application No. 62 / 044,994 filed on September 2, 2014, 2015 3 claims priority to the submitted to the month 7 days US provisional Patent application Serial No. 62 / 129,835. これらの出願はそれぞれ全体が本願に援用される。 Overall these applications each of which is incorporated herein.

本願は、2013年5月8日に提出された国際出願第PCT/US2013/040087号の「Device,Method,and Graphical User Interface for Moving a User Interface Object Based on an Intensity of a Press Input」、2013年5月8日に提出された国際出願第PCT/US2013/040072号の「Device,Method,and Graphical User Interface for Providing Feedback for Changing Activation States of a User Interface Object」、2013年5月8日に提出された国際出願第PCT/US2 The present application, the international application was filed on May 8, 2013 No. PCT / US2013 / 040087 issue of "Device, Method, and Graphical User Interface for Moving a User Interface Object Based on an Intensity of a Press Input", 2013 international application was filed on May 8, No. PCT / US2013 / 040072 issue of "Device, Method, and Graphical User Interface for Providing Feedback for Changing Activation States of a User Interface Object", submitted to the May 8, 2013 the International application No. PCT / US2 13/040070号の「Device,Method,and Graphical User Interface for Providing Tactile Feedback for Operations Performed in a User Interface」、2013年5月8日に提出された国際出願第PCT/US2013/040067号の「Device,Method,and Graphical User Interface for Facilitating Interaction with Controls in a User Interface」、2013年5月8日に提出された国際出願第PCT/US2013/040061号の「Device,Method,and Graphical User 13/040070 issue of "Device, Method, and Graphical User Interface for Providing Tactile Feedback for Operations Performed in a User Interface", the international application was filed on May 8, 2013 No. PCT / US2013 / 040067 issue of "Device, Method, and Graphical User Interface for Facilitating Interaction with Controls in a User Interface ", the international application was filed on May 8, 2013 No. PCT / US2013 / 040061 issue of" Device, Method, and Graphical User nterface for Displaying User Interface Objects Corresponding to an Application」、2013年5月8日に提出された国際出願第PCT/US2013/040058号の「Device,Method,and Graphical User Interface for Displaying Additional Information in Response to a User Contact」、2013年5月8日に提出された国際出願第PCT/US2013/040056号の「Device,Method,and Graphical User Interface for Scrolling Nested Regions」、2013年5月 nterface for Displaying User Interface Objects Corresponding to an Application ", the international application was filed on May 8, 2013 No. PCT / US2013 / 040058 issue of" Device, Method, and Graphical User Interface for Displaying Additional Information in Response to a User Contact ", the international application was filed on May 8, 2013 No. PCT / US2013 / 040056 issue of" Device, Method, and Graphical User Interface for Scrolling Nested Regions ", 5 May 2013 8日に提出された国際出願第PCT/US2013/040054号の「Device,Method,and Graphical User Interface for Manipulating Framed Graphical Object」、2013年11月11日に提出された国際出願第PCT/US2013/069489号の「Device,Method,and Graphical User Interface for Switching between User Interfaces」、2013年11月11日に提出された国際出願第PCT/US2013/069486号の「Device,Method,and Graphical User Interface for Determining Wheth International application has been submitted to the 8 days the PCT / US2013 / 040054 issue of "Device, Method, and Graphical User Interface for Manipulating Framed Graphical Object", international was filed on November 11, 2013 Application No. PCT / US2013 / 069489 of No. "Device, Method, and Graphical User Interface for Switching between User Interfaces", the international application was filed on November 11, 2013 No. PCT / US2013 / 069486 issue of "Device, Method, and Graphical User Interface for Determining Wheth er or Select Content」、2013年11月11日に提出された国際出願第PCT/US2013/069484号の「Device,Method,and Graphical User Interface for Moving Cursor According to a Change in an Appearance of a Control Icon with Simulated Three−Dimensional Characteristics」、2013年11月11日に提出された国際出願第PCT/US2013/069483号の「Device,Method,and Graphical User Interface for Transitioning Between Touch Input er or Select Content ", the international application was filed on November 11, 2013 No. PCT / US2013 / 069484 issue of" Device, Method, and Graphical User Interface for Moving Cursor According to a Change in an Appearance of a Control Icon with Simulated Three-Dimensional Characteristics ", the international application was filed on November 11, 2013 No. PCT / US2013 / 069483 issue of" Device, Method, and Graphical User Interface for Transitioning Between Touch Input o Display Output Relationships」、2013年11月11日に提出された国際出願第PCT/US2013/069479号の「Device,Method,and Graphical User Interface for Forgoing Generation of Tactile Output for a Multi−Contact Gesture」、2013年11月11日に提出された国際出願第PCT/US2013/069472号の「Device,Method,and Graphical User Interface for Navigating User Interface Hierarchies」、2013年5月8日に提出された国際出願第PCT/US2013/0 o Display Output Relationships ", the international application was filed on November 11, 2013 No. PCT / US2013 / 069479 issue of" Device, Method, and Graphical User Interface for Forgoing Generation of Tactile Output for a Multi-Contact Gesture ", 2013 of November International application No. PCT / US2013 / 069472, which was filed in 11 days "Device, Method, and Graphical User Interface for Navigating User Interface Hierarchies", international was filed on May 8, 2013 application No. PCT / US2013 / 0 0108号の「Device,Method,and Graphical User Interface for Moving and Dropping a User Interface Object」、2013年5月8日に提出された国際出願第PCT/US2013/040101号の「Device,Method,and Graphical User Interface for Selecting User Interface Objects」、2013年5月8日に提出された国際出願第PCT/US2013/040098号の「Device,Method,and Graphical User Interface for Displaying Content Associated with a Correspo 0108 issue of the "Device, Method, and Graphical User Interface for Moving and Dropping a User Interface Object", the international application was filed on May 8, 2013 No. PCT / US2013 / 040101 issue of "Device, Method, and Graphical User Interface for Selecting User Interface Objects ", the international application was filed on May 8, 2013 No. PCT / US2013 / 040098 issue of" Device, Method, and Graphical User Interface for Displaying Content Associated with a Correspo ding Affordance」、2013年5月8日に提出された国際出願第PCT/US2013/040093号の「Device,Method,and Graphical User Interface for Transitioning between Display States in Response to a Gesture」、2013年5月8日に提出された国際出願第PCT/US2013/040053号の「Device,Method,and Graphical User Interface for Selecting Object within a Group of Objects」、2013年3月12日に提出された米国特許出願第61/778,211号の「Device,Method,a ding Affordance ", the international application was filed on May 8, 2013 No. PCT / US2013 / 040093 issue of" Device, Method, and Graphical User Interface for Transitioning between Display States in Response to a Gesture ", May 2013 8 International application No. PCT / US2013 / 040053 issue of which has been submitted to the day "Device, Method, and Graphical User Interface for Selecting Object within a Group of Objects", submitted to the US patent on March 12, 2013 application No. 61 / of No. 778,211, "Device, Method, a d Graphical User Interface for Facilitating User Interaction with Controls in a User Interface」、2013年3月12日に提出された米国特許出願第61/778,191号の「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、2013年3月12日に提出された米国特許出願第61/778,171号の「Device,Method,and Graphical User Interface for Displaying Additional Inf d Graphical User Interface for Facilitating User Interaction with Controls in a User Interface ", submitted to the US patent on March 12, 2013 Application No. 61 / 778,191 issue of" Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an application ", US patent application Ser. No. 61 / 778,171, filed on March 12, 2013" Device, Method, and Graphical User Interface for Displaying Additional Inf ormation in Response to a User Contact」、2013年3月12日に提出された米国特許出願第61/778,179号の「Device,Method,and Graphical User Interface for Scrolling Nested Regions」、2013年3月12日に提出された米国特許出願第61/778,156号の「Device,Method,and Graphical User Interface for Manipulating Graphical Object」、2013年3月12日に提出された米国特許出願第61/778,125号の「Device,Method,and Graphical User Interface for Navi ormation in Response to a User Contact ", submitted to the US patent on March 12, 2013 Application No. 61 / 778,179 issue of" Device, Method, and Graphical User Interface for Scrolling Nested Regions ", March 2013 12 of was filed on the day US patent application Ser. No. 61 / 778,156, "Device, Method, and Graphical User Interface for Manipulating Graphical Object", submitted to the US patent on March 12, 2013 application No. 61 / 778,125 issue of "Device, Method, and Graphical User Interface for Navi gating User Interface Hierarchies」、2013年3月12日に提出された米国特許出願第61/778,092号の「Device,Method,and Graphical User Interface for Selecting Object Within a Group of Objects」、2013年3月13日に提出された米国特許出願第61/778,418号の「Device,Method,and Graphical User Interface for Switching between User Interfaces」、2013年3月13日に提出された米国特許出願第61/778,416号の「Device,Method,and Graphical User I gating User Interface Hierarchies ", US patent application Ser. No. 61 / 778,092, filed on March 12, 2013" Device, Method, and Graphical User Interface for Selecting Object Within a Group of Objects ", March 2013 of it was submitted to the 13th US patent application Ser. No. 61 / 778,418, "Device, Method, and Graphical User Interface for Switching between User Interfaces", was submitted on March 13, 2013 US Patent application No. 61/778 , of the 416 Patent "Device, Method, and Graphical User I nterface for Determining Whether or Select Content」、2012年12月29日に提出された米国特許出願第61/747,278号の「Device,Method,and Graphical User Interface for Manipulating User Interface Objects with Visual and/or Haptic Feedback」、2013年3月13日に提出された米国特許出願第61/778,414号の「Device,Method,and Graphical User Interface for Moving and Dropping a User Interface Object」、2013年3月13日に提出された米 nterface for Determining Whether or Select Content ", was filed on December 29, 2012 US Patent Application Serial No. 61 / 747,278 issue of" Device, Method, and Graphical User Interface for Manipulating User Interface Objects with Visual and / or Haptic Feedback "," Device of US patent application Ser. No. 61 / 778,414, filed on March 13, 2013, Method, and Graphical User Interface for Moving and Dropping a User Interface Object ", on March 13, 2013 submitted rice 特許出願第61/778,413号の「Device,Method,and Graphical User Interface for Selecting User Interface Objects」、2013年3月13日に提出された米国特許出願第61/778,412号の「Device,Method,and Graphical User Interface for Displaying Content Associated with a Corresponding Affordance」、2013年3月12日に提出された米国特許出願第61/778,373号の「Device,Method,and Graphical User Interface for Managing Activation of Of patent application Ser. No. 61 / 778,413, "Device, Method, and Graphical User Interface for Selecting User Interface Objects", US patent application Ser. No. 61 / 778,412, filed on March 13, 2013 "Device, Method, and Graphical User Interface for Displaying Content Associated with a Corresponding Affordance "," Device of US patent application Ser. No. 61 / 778,373, filed on March 12, 2013, Method, and Graphical User Interface for Managing Activation of a Control Based on Contact Intensity」、2013年3月12日に提出された米国特許出願第61/778,265号の「Device,Method,and Graphical User Interface for Transitioning between Display States in Response to a Gesture」、2013年3月12日に提出された米国特許出願第61/778,367号の「Device,Method,and Graphical User Interface for Moving a User Interface Object Based on Intensity of a Press Input」、2013年3月12日に提出された米国特許 a Control Based on Contact Intensity ", submitted to the US patent on March 12, 2013 Application No. 61 / 778,265 issue of" Device, Method, and Graphical User Interface for Transitioning between Display States in Response to a Gesture ", of was submitted on March 12, 2013 US Patent application Serial No. 61 / 778,367, "Device, Method, and Graphical User Interface for Moving a User Interface Object Based on Intensity of a Press Input", March 2013 12 submitted US patent on the day 願第61/778,363号の「Device,Method,and Graphical User Interface for Transitioning Between Touch Input and Display Output Relationships」、2013年3月12日に提出された米国特許出願第61/778,287号の「Device,Method,and Graph Of the gun. No. 61 / 778,363, "Device, Method, and Graphical User Interface for Transitioning Between Touch Input and Display Output Relationships", US patent application Ser. No. 61 / 778,287, filed on March 12, 2013 "Device, Method, and Graph
ical User Interface for Providing Feedback for Changing Activation States of a User Interface Object」、2013年3月12日に提出された米国特許出願第61/778,284号の「Device,Method,and Graphical User Interface for Providing Tactile Feedback for Operations Performed in a User Interface」、2013年3月12日に提出された米国特許出願第61/778,239号の「Device,Method,and Graphical User Interface for Forgoing Genera ical User Interface for Providing Feedback for Changing Activation States of a User Interface Object "," Device of US patent application Ser. No. 61 / 778,284, filed on March 12, 2013, Method, and Graphical User Interface for Providing Tactile Feedback for Operations Performed in a User Interface "," Device of US patent application Ser. No. 61 / 778,239, filed on March 12, 2013, Method, and Graphical User Interface for Forgoing Genera tion of Tactile Output for a Multi−Contact Gesture」、2012年5月9日に提出された米国特許出願第61/688,227号の「Device,Method,and Graphical User Interface for Manipulating User Interface Objects with Visual and/or Haptic Feedback」、2012年5月9日に提出された米国特許仮出願第61/645,033号の「Adaptive Haptic Feedback for Electronic Devices」、2012年6月28日に提出された米国特許仮出願第61/665,603号の「Adaptive Haptic Feedbac tion of Tactile Output for a Multi-Contact Gesture ", of was filed on May 9, 2012 US Patent Application Serial No. 61 / 688,227," Device, Method, and Graphical User Interface for Manipulating User Interface Objects with Visual and / or Haptic Feedback "," Adaptive Haptic Feedback for Electronic Devices of US provisional Patent application No. 61 / 645,033, filed on May 9, 2012 ", filed on June 28, 2012 was US provisional Patent application No. 61 / 665,603, "Adaptive Haptic Feedbac for Electronic Devices」、2012年8月8日に提出された米国特許仮出願第61/681,098号の「Adaptive Haptic Feedback for Electronic Devices」、2014年9月2日に提出された米国特許仮出願第62/044,894号の「Reduced−Size Interfaces for Managing Alerts」、2014年9月2日に提出された米国特許仮出願第62/044,979号の「Stopwatch and Timer User Interfaces」、2014年7月18日に提出された米国特許仮出願第62/026,532号の「Raise Gesture Detection in a Device」、及び2014年9 for Electronic Devices ", of was filed on August 8, 2012 the United States Provisional Patent Application Serial No. 61 / 681,098," Adaptive Haptic Feedback for Electronic Devices ", US Provisional Patent application was filed on September 2, 2014 No. 62 / 044,894 issue of "Reduced-Size Interfaces for Managing Alerts", "Stopwatch and Timer User Interfaces" of US provisional Patent application Serial No. 62 / 044,979, filed on September 2, 2014, 2014 "Raise Gesture Detection in a Device" of was filed on July 18, US provisional Patent application Serial No. 62 / 026,532, and 2014 9 3日に提出された米国特許出願第14/476,700号の「Crown Input for a Wearable Electronic Device」に関連する。 Of it was submitted to 3 days U.S. Patent Application Serial No. 14 / 476,700 related to "Crown Input for a Wearable Electronic Device". これらの出願の内容は全体が本願に援用される。 The contents of these applications entirety is incorporated herein.

本開示は、概してコンピュータユーザインターフェースに関し、より詳細には、時間を示すコンテキスト特化ユーザインターフェースに関する。 The present disclosure relates generally to computer user interface, and more particularly to context specialized user interface indicating the time.

ユーザは、ソフトウェアアプリケーションの実行を含む様々なその他の動作の中で特に、時間を記録するためにポータブル多機能装置に頼っている。 The user, especially in a variety of other operations including the execution of software applications rely on portable multifunction device to record the time. インターフェースの簡易さと直観的使用を保ちつつ、ユーザが単独のユーザインターフェースを介して情報にアクセスできることが望ましい。 While maintaining a simple and intuitive use of the interface, it is desirable to be able to access the information user through a single user interface. 更に、ユーザは、コンテキスト別に、時間を記録することに関連する各種様相又は異なるアプリケーションデータ点等の各種情報にアクセスしたいと考える場合もある。 Furthermore, the user, by context, you may wish to access various information of various aspects or different application data points like relating to record the time. したがって、ユーザが、ユーザインターフェースと、ユーザインターフェースを介して提供される情報の種類とをカスタマイズできることも望ましい。 Accordingly, the user, and the user interface, it is also desirable to be able to customize the type of information provided via the user interface.

ポータブル多機能装置は、多くの異なる種類の情報及びインターフェースをユーザに提供することができ、ユーザは異なるコンテキストによって、これらのユーザインターフェースと、該ユーザインターフェースが提供する情報とをカスタマイズしたいと思う場合がある。 Portable Multifunction device may provide many different types of information and the interface to the user, the user is different context, and these user interfaces, may wish to customize the information that the user interface is provided is there. したがって、時間を記録するコンテキスト特化ユーザインターフェースの需要が高まりつつある。 Therefore, there is a growing demand for context specific user interface to record the time.

しかしながら、大抵の場合、電子装置を用いて時間を示すためにコンテキスト特化ユーザインターフェースを管理(例えば、編集)する一部の手法は面倒で非効率である。 However, in most cases, it manages contexts specialized user interface to indicate time by using an electronic device (e.g., editing) some approaches that are cumbersome and inefficient. 例えば、既存の手法は複雑かつ時間のかかるユーザインターフェースを使用しており、複数回のキー押圧やキーストロークを含むことがある。 For example, existing approaches are using such user interface complexity and time, may contain multiple keys pressed and keystrokes. 既存技術は必要以上に時間を要し、ユーザの時間と装置のエネルギーを浪費させる。 Existing technology is time consuming than necessary, thereby wasting energy time and device of the user. 後者のエネルギーの問題点は、バッテリ駆動装置にとって特に重要である。 Problems of the latter energy is particularly important for battery powered devices.

したがって、本発明は、特に、コンテキスト特化ユーザインターフェースを管理する高速で効率的な方法を備えるポータブル電子装置の利点を提供する。 Accordingly, the present invention provides, among other things, the advantage of a portable electronic device comprising a efficient way fast to manage context specialized user interface. このような方法及びインターフェースは、コンテキスト特化ユーザインターフェースを管理するその他の方法を任意選択的に補完する、又は置き換わる。 Such methods and interfaces may complement other methods of managing context specialized user interface Optionally, or replaced. 上記方法及びインターフェースは、ユーザに加わる認識的負担を減らし、より効率的な人間・機械インターフェースを形成する。 The methods and interfaces reduce the cognitive burden imposed on the user, to form a more efficient human-machine interface. また、上記方法及びインターフェースは、不要な、余分な、反復的な及び/又は重複する入力の数を減らし、一層高速かつ効率的なユーザインターフェース構造を生成することで、所望の機能にアクセスし、該機能を実行させるため、必要な入力の数、処理電力及びユーザインターフェースを表示させるのに必要な時間を低減させることができる。 Furthermore, the methods and interfaces, unnecessary extra, reduce the number of repetitive and / or overlapping input and generating a more fast and efficient user interface structure to access the desired function, for executing the function, it is possible to reduce the time required to display the number of necessary inputs, processing power and user interface. バッテリ駆動コンピューティング装置の場合、上記方法及びインターフェースは節電するとともに、バッテリ充電間の時間を延長させる。 For battery-powered computing devices, the methods and interfaces as well as power saving, thereby extending the time between battery charging.

上記の欠点及びその他の問題は、開示される装置、方法及びコンピュータ可読媒体によって軽減又は排除される。 The above drawbacks and other problems, the apparatus disclosed, is reduced or eliminated by a method and computer-readable media. いくつかの実施形態では、装置はデスクトップコンピュータである。 In some embodiments, the apparatus is a desktop computer. いくつかの実施形態では、装置はポータブルである(例えば、ノートブックコンピュータ、タブレットコンピュータ又はハンドヘルド装置)。 In some embodiments, the device is portable (e.g., a notebook computer, a tablet computer, or handheld device). いくつかの実施形態では、装置はタッチパッドを有する。 In some embodiments, the device has a touchpad. いくつかの実施形態では、装置はタッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られる)を有する。 In some embodiments, the device has a touch-sensitive display (also known as "touch screen" or "touch screen display"). いくつかの実施形態では、装置は押圧可能ボタン及び/又は回転可能入力機構等のハードウェア入力機構を有する。 In some embodiments, the device has a hardware input mechanism such as a depressible button and / or rotatable input mechanism. いくつかの実施形態では、装置は、グラフィカルユーザインターフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためにメモリに記憶される1つ以上のモジュールプログラム又は命令セットを有する。 In some embodiments, apparatus, graphical user interface (GUI), having one or more processors, one or more modules program or a set of instructions stored in memory for execution memory, and a plurality of function . いくつかの実施形態では、ユーザは、タッチ感知面上の指接触及びジェスチャ及び/又は回転可能入力機構の回転及び/又はハードウェアボタンの押圧によってGUIと対話する。 In some embodiments, the user interacts with the GUI by the pressing of the rotational and / or hardware buttons on the finger touch and gestures and / or rotatable input mechanism on the touch sensitive surface. いくつかの実施形態では、機能は画像編集、描画、プレゼンティング、ワードプロセッシング、ウェブサイト作成、ディスクオーサリング、スプレッドシート作成、ゲームプレイ、電話、ビデオ会議、eメール、インスタントメッセージング、トレーニングサポート、デジタル写真撮影、デジタル映像撮影、ウェブブラウジング、デジタル音楽の再生及び/又はデジタル映像の再生を任意選択的に含む。 In some embodiments, it features image editing, drawing, Presenting, word processing, web site creation, disk authoring, creating spreadsheets, game play, telephone, video conferencing, e-mail, instant messaging, training support, digital photo imaging, digital video imaging, web browsing, including the reproduction of the reproduction and / or digital video digital music optionally. これらの機能を実行する実行可能命令は、1つ以上のプロセッサによる実行のために構成される非一時的コンピュータ可読記憶媒体又はその他のコンピュータプログラム製品に任意選択的に含まれる。 Run to perform these functions instructions is optionally included in the non-transitory computer readable storage medium or other computer program product configured for execution by one or more processors. これらの機能を実行する実行可能命令は、1つ以上のプロセッサによる実行のために構成される一時的コンピュータ可読記憶媒体又はその他のコンピュータプログラム製品に任意選択的に含まれる。 Executable instructions for performing these functions are optionally included in the transitory computer readable storage medium or other computer program product configured for execution by one or more processors.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、ディスプレイを有する電子装置において、ユーザ入力を表すデータを受信することと、データの受信に応答して、第1の時間を示す時計文字盤を含むユーザインターフェーススクリーンをディスプレイに表示することであって、第1の時間が現在の時間に先行することと、第1の時間表示から現在の時間表示まで遷移するように時計文字盤をアニメーション化することによってユーザインターフェーススクリーンを更新することであって、アニメーションが第1の時間から現在の時間までの時間の経過を表す、ことと、を備える。 In some embodiments, a method of providing a context specific user interface shows an electronic device having a display, the method comprising: receiving data representing user input, in response to receiving the data, the first time the method comprising: displaying a user interface screen comprising a clock face on the display, and the first time preceding the current time, a clock face to transition from the first time indication to the current time display the a to update the user interface screen by animating, animation representing the lapse of time until the current time from the first time, provided that a, a.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、タッチ感知ディスプレイを有する電子装置において、現在の時間を示す時計文字盤をタッチ感知ディスプレイに表示することであって、時計文字盤が、時針及び分針を備えるユーザインターフェースオブジェクトを備え、ユーザインターフェースオブジェクトが、現在の時間、時間スケールの1つ以上の表示及びストップウォッチ針を示すことと、ユーザ入力を表すデータを入手することと、データの受信に応答して、時間スケールの1つ以上の表示を、ストップウォッチ針に関する第1の時間スケールの表示と置き換えることと、ストップウォッチ針をアニメーション化して時間の経過を反映することと、を備える。 In some embodiments, a method of providing a context specific user interface is an electronic device having a touch-sensitive display, the method comprising: displaying a clock face showing the current time on the touch-sensitive display, a clock face but includes a user interface object with the hour and minute hands, the user interface object is the current time, and to show one or more display and stopwatch needle time scale, and to obtain data representing user input, in response to receiving the data, the one or more display time scale, and be replaced with a first time scale of the display about the stopwatch needle, and to reflect the passage of time to animate the stopwatch needle, equipped with a.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、タッチ感知ディスプレイを有する電子装置において、ユーザインターフェーススクリーンをタッチ感知ディスプレイに表示することであって、ユーザインターフェーススクリーンが、現在の時間に太陽によって照らされる地球の第1の領域のシミュレーションを表す第1のアフォーダンス及び現在の時間を示す第2のアフォーダンスを含むことと、ユーザ入力を受信することと、ユーザ入力の受信に応答して、現在の時間に太陽によって照らされる地球の第2の領域を表示するように地球のシミュレーションを回転させることと、を備える。 In some embodiments, a method of providing a context specific user interface is an electronic device having a touch-sensitive display, the method comprising: displaying a user interface screen on the touch-sensitive display, a user interface screen, the current time and include a first affordance and second affordance indicating the current time representing a simulation of the first region of the earth illuminated by the sun, receiving a user input, in response to receiving a user input comprises a rotating simulation of the earth so as to display the second region of the earth illuminated by the sun to the current time, the.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、タッチ感知ディスプレイを有する電子装置において、ユーザインターフェーススクリーンをタッチ感知ディスプレイに表示することを備え、ユーザインターフェーススクリーンが、日中を示すユーザインターフェーススクリーンの第1の部分と、夜間を示すユーザインターフェーススクリーンの第2の部分と、1日を表す期間を有する正弦波を表すユーザインターフェースオブジェクトであって、正弦波が1日全体の太陽の経過を示し、第1の部分及び第2の部分のうちの1つ以上で表示される、ユーザインターフェースオブジェクトと、太陽を表す第1のアフォーダンスであって、表示された正弦波上の第1の位置で表示され、第1の位置が1日のう In some embodiments, a method of providing a context specific user interface is an electronic device having a touch-sensitive display, comprising displaying a user interface screen on the touch-sensitive display, a user interface screen, showing the intraday a first portion of the user interface screen, and a second portion of the user interface screen showing a night, a user interface object that represents a sine wave having a period representing the day, a sine wave is the whole day sun It represents an elapsed are displayed in one or more of the first and second portions, and a user interface objects, a first affordance representing the sun, displayed on the sine wave first is displayed at the position, the first position is 1 day の現在の時間を示し、1日のうちの現在の時間が日中又は夜間である第1のアフォーダンスと、現在の時刻を示す第2のアフォーダンスと、を備える。 Of it shows the current time comprises a first affordance is the current time day or night of the day, a second affordance indicating the current time, the.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、タッチ感知ディスプレイを有する電子装置において、ユーザインターフェーススクリーンをディスプレイに表示することを備え、ユーザインターフェーススクリーンが、画像に基づき複数の画素を備える背景を含み、画素のサブセットは、日付を示す第1のユーザインターフェースオブジェクト及び時間帯を示す第2のユーザインターフェースオブジェクトのうちの1つ以上を表すように、画像に対して外観が変更される。 In some embodiments, a method of providing a context specific user interface is an electronic device having a touch-sensitive display, comprising displaying a user interface screen on the display, user interface screens, a plurality of pixels based on the image includes background comprising, a subset of pixels, to represent one or more of the second user interface object that indicates the first user interface object and time zone indicating the date, appearance to the image is changed that.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、ディスプレイを有する電子装置において、2つ以上の画像を含むフォルダにアクセスすることと、フォルダから第1の画像を選択することと、ユーザインターフェーススクリーンをディスプレイに表示することと、を備え、ユーザインターフェーススクリーンは第1の画像に基づき複数の画素を備える背景を備え、画素のサブセットは、日付を示す第1のユーザインターフェースオブジェクト及び時間帯を示す第2のユーザインターフェースオブジェクトのうちの1つ以上を表すように、画像に対して外観が変更される。 In some embodiments, a method of providing a context specific user interface is an electronic device having a display, and accessing the folder that contains the two or more images, and selecting the first image from the folder comprising and displaying a user interface screen on the display, the user interface screen includes a background comprising a plurality of pixels based on the first image, a subset of pixels, the first user interface object and time showing a date to represent one or more of the second user interface object that indicates the band, appearance to the image is changed.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、タッチ感知ディスプレイを有する電子装置において、ユーザ入力を検出することであって、ユーザ入力が第1の時間に検出されることと、ユーザ入力の検出に応答して、第1の時間を示す第1のユーザインターフェースオブジェクト及び第2のユーザインターフェースオブジェクトを含むユーザインターフェーススクリーンを表示することと、第2のユーザインターフェースオブジェクトをアニメーション化することであって、アニメーションが第1のアニメーション化されたシーケンス、第1のアニメーション化されたシーケンスの後の第2のアニメーション化されたシーケンス及び第2のアニメーション化されたシーケンスの後の第3のアニメーシ In some embodiments, a method of providing a context specific user interface is an electronic device having a touch-sensitive display, the method comprising: detecting a user input, the user input is detected at a first time and , in response to detecting the user input, to animate and displaying a user interface screen, the second user interface object comprising a first user interface object and a second user interface object that indicates the first time the method comprising, animation first animated sequence, third after the second animated sequence and a second animated sequence after the first animated sequence Animeshi ン化されたシーケンスの連続表示を備え、第1のアニメーション化されたシーケンス、第2のアニメーション化されたシーケンス及び第3のアニメーション化されたシーケンスが異なる、ことと、第2のユーザインターフェースオブジェクトのアニメーション化の後、第2のユーザ入力を検出することであって、第2のユーザ入力が第2の時間に検出され、第2の時間が第1の時間の後であることと、第2のユーザ入力の検出に応答して、前に表示された第2のアニメーション化されたシーケンスを表すデータにアクセスすることと、第1のアニメーション化されたシーケンス及び第2のアニメーション化されたシーケンスと異なる第4のアニメーション化されたシーケンスを選択することと、第1のユーザインターフェースオブジェクト Comprising a continuous display of the emissions of the sequence, the first animated sequence, the second animated sequence and the third animated sequences of different, possible and, in the second user interface object after animated, and detecting the second user input, the second user input is detected at a second time, and it is the second time is after the first time, the second in response to the detection of the user input, and to access data representing a second animated sequence previously displayed, the first animated sequence and a second animated sequence selecting a different fourth animated sequence, the first user interface object 含む第2のユーザインターフェーススクリーンを表示することであって、第1のユーザインターフェースオブジェクトを更新して第2の時間を示し、第3のユーザインターフェースオブジェクトが第2のユーザインターフェースオブジェクトに関連することと、第3のユーザインターフェースオブジェクトをアニメーション化することであって、アニメーションが第1のアニメーション化されたシーケンス、第1のアニメーション化されたシーケンスの後の第4のアニメーション化されたシーケンス及び第4のアニメーション化されたシーケンスの後の第3のアニメーション化されたシーケンスの連続表示であることと、を備える。 The method comprising: displaying a second user interface screen including, to update the first user interface object indicates the second time, and the third user interface object is associated with a second user interface object , the method comprising: animating a third user interface object, animation first animated sequence, the first animated fourth after sequence animated sequences and fourth comprising a be a continuous display of the third animated sequence after the animated sequence, the.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、タッチ感知ディスプレイを有する電子装置において、電子装置のユーザ移動を検出することと、ユーザ移動の検出に応答して時計文字盤のアニメーション表現を表示することであって、アニメーションが、時針及び分針の表示、第1の時間表示の表示及び第1の時間表示の表示後の第2の時間標示の表示を備えることと、第2の時間表示が時計回り方向で第1の時間表示の後ろの時計文字盤上の位置に表示されることと、を備える。 In some embodiments, a method of providing a context specific user interface is an electronic device having a touch-sensitive display, and detecting user movement of the electronic device, the clock face in response to detection of user movement the method comprising: displaying an animation expression, animation, and be provided with a display of the hour hand and minute hand of the display, the second time indication after the display of the display of the display first time and the first time indication, second time display of and a be displayed at the position of the watch on the dial behind the display first time clockwise.

いくつかの実施形態では、キャラクタベースのユーザインターフェースで時間を示す方法は、ディスプレイ及びタッチ感知面を有する電子装置において、キャラクタユーザインターフェースオブジェクトをディスプレイに表示することを含み、キャラクタユーザインターフェースオブジェクトが第1の肢体部及び第2の肢体部の表現を含み、キャラクタユーザインターフェースオブジェクトが、第1の肢体部で第1の時間を、第2の肢体部で第1の分を示し、第2の時間を示すようにキャラクタユーザインターフェースオブジェクトを更新することによって第1の時間を示し、キャラクタが、第2の肢体部で第2の時間を、第1の肢体部で第2の分を示すことによって第2の時間を示す。 In some embodiments, a method of indicating the time the character-based user interface is an electronic device having a display and a touch-sensitive surface includes displaying a character user interface object on the display, the character user interface object is first includes a limb portion and the representation of the second limb of the character user interface object, the first time the first limb portion, shows the first minute the second limb portion, a second time It indicates the first time by updating the character user interface objects as shown, character, the second time the second limb portion, by indicating a second frequency at a first limb portion second indicate the time.

いくつかの実施形態では、キャラクタベースのユーザインターフェースで時間を示す方法は、ディスプレイ及びタッチ感知面を有する電子装置において、キャラクタユーザインターフェースオブジェクトをディスプレイに表示することであって、キャラクタユーザインターフェースオブジェクトが肢体部の表現を備え、肢体部が第1の位置を有する肢体部の第1の終点を含み、肢体部の第1の終点が肢体部にとっての回転軸であり、肢体部の第2の終点が第2の位置を有し、肢体部の第2の終点の位置が第1の時間値を示すことと、第2の時間値を示すようにキャラクタユーザインターフェースオブジェクトを更新することと、を備え、キャラクタユーザインターフェースオブジェクトの更新が、第2の時間値を示すように肢体部の第1の終 In some embodiments, a method of indicating the time the character-based user interface is an electronic device having a display and a touch-sensitive surface, the method comprising: displaying a character user interface object on the display, the character user interface object limb comprising a part of the representation, it includes a first end point of the limb portions which limb portion has a first position, the rotation axis of the first end point of the limb portion to limb portion, a second end point of the limb portion a second position, comprising a the position of the second end point of the limb portion indicates a first time value, and updating the character user interface object to indicate second time value, and character user update interface object, the limb portions to indicate the second time value first end を第3の位置まで移動させることと、肢体部の第2の終点を第4の位置まで移動させることと、を備える。 The comprises a moving to the third position, and moving the second end point of the limb portion to the fourth position.

いくつかの実施形態では、キャラクタベースのユーザインターフェースで時間を示す方法は、ディスプレイ及びタッチ感知面を有する電子装置において、キャラクタユーザインターフェースオブジェクトをディスプレイに表示することであって、キャラクタユーザインターフェースオブジェクトが肢体部の表現を備え、肢体部が肢体部の第1のセグメント及び肢体部の第2のセグメントを含み、肢体部の第1のセグメントは肢体部の第1の終点を肢体部の接合点に接続し、肢体部の第1の終点が第1の位置を有し、肢体部の第2のセグメントが肢体部の第2の終点を肢体部の接合点に接続し、肢体部の第2の終点が第2の位置を有し、肢体部の接合点が肢体部の第2のセグメントにとっての回転軸であり、肢体部の第2の終点の位置が第1の In some embodiments, a method of indicating the time the character-based user interface is an electronic device having a display and a touch-sensitive surface, the method comprising: displaying a character user interface object on the display, the character user interface object limb comprising a part of the representation, limb portion comprises a second segment of the first segment and the limb portion of the limb portion, the first segment of the limb portion connecting the first end point of the limb portion to the junction of limb portion and, the first end point of the limb portion has a first position, the second segment of the limb portion connects the second end point of the limb portion to the junction of limb portion, a second end point of the limb portion There a second position, the junction of the limb portion is a rotation axis for the second segment of the limb portion, the position of the second end point of the limb portion is first 間値を示すことと、第2の時間値を示すようにキャラクタユーザインターフェースオブジェクトを更新することと、を備え、更新することが、第2の時間値を示すように、肢体部の第2のセグメントの回転軸に沿って肢体部の第2の終点を第3の位置まで移動させることを備える。 And to exhibit between values, and updating the character user interface object to indicate second time value comprises, updating, as shown the second time value, the second limb portion It comprises moving the second end point of the limb portion to the third position along the rotational axis of the segment.

いくつかの実施形態では、キャラクタベースのユーザインターフェースで時間を示す方法は、ディスプレイ及びタッチ感知面を有する電子装置において、キャラクタユーザインターフェースオブジェクトをディスプレイに表示することであって、キャラクタユーザインターフェースオブジェクトが時間を示すことと、イベントを示す第1のデータを受信することと、イベントが条件を満たすか否かを判定することと、イベントが条件を満たすという判定に応じて、キャラクタユーザインターフェースオブジェクの視覚的側面を変更することによって、表示されたキャラクタユーザインターフェースオブジェクトを更新することと、を備える。 In some embodiments, a method of indicating the time the character-based user interface is an electronic device having a display and a touch-sensitive surface, the method comprising: displaying a character user interface object on the display, the character user interface object time and to show, receiving a first data indicating an event, and that event to determine whether conditions are satisfied, in response to determining that the event satisfies the condition, the visual character user interface object by changing the aspect, and a updating the character user interface objects displayed.

いくつかの実施形態では、キャラクタベースのユーザインターフェースで時間を示す方法は、ディスプレイ及びタッチ感知面を有する電子装置において、ディスプレイを非アクティブ状態に設定することと、イベントを示す第1のデータを受信することと、第1のデータの受信に応答して、ディスプレイをアクティブ状態に設定することと、キャラクタユーザインターフェースオブジェクトをディスプレイの側面に表示することと、ディスプレイの中心に向かってキャラクタユーザインターフェースオブジェクトをアニメーション化することと、現在の時間を示す位置でディスプレイの中心にキャラクタユーザインターフェースを表示することと、を備える。 In some embodiments, a method of indicating the time character-based user interface, receiving an electronic apparatus having a display and a touch-sensitive surface, and setting the display into an inactive state, the first data indicating the event the method comprising, in response to receiving the first data, and setting the display to an active state, and displaying a character user interface objects on the side of the display, the character user interface object toward the center of the display comprising a to animate, and displaying a character user interface on a display center at the position indicating the current time, the.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、タッチ感知ディスプレイを有する電子装置であって、時計文字盤と、アプリケーションを表すアフォーダンスと、を備え、アフォーダンスがアプリケーションから得られる1組の情報を備え、1組の情報がアプリケーションからのデータに応じて更新され、アフォーダンスが計文字盤にコンプリケーションとして表示される電子装置において、表示されたアフォーダンスへの接触を検出することと、接触の検出に応答して、アフォーダンスによって表されるアプリケーションを起動することと、を備える。 In some embodiments, a method of providing a context specific user interface is an electronic device having a touch-sensitive display, comprising: a clock face, and affordance representing the application, the, affordance is obtained from the application 1 comprising a set of information, a set of information is updated according to the data from the application, in an electronic device to be displayed as a Complication in affordance total of dial, and detecting the contact of the displayed affordance, in response to detection of contact, comprising a to start the application represented by affordance, the.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、接触強度を検出するように構成されるタッチ感知ディスプレイを有する電子装置において、時計文字盤を含むユーザインターフェーススクリーンをタッチ感知ディスプレイに表示することと、タッチ感知ディスプレイへの接触を検出することであって、接触が特性強度を有することと、接触の検出に応答して、特性強度が強度閾値を超えているか否かを判定することと、特性強度が強度閾値を超えるという判定に応じて、電子装置の時計文字盤編集モードを入力することと、表示された時計文字盤を視覚的に目立たせて、時計文字盤選択モードを示すことと、タッチ感知ディスプレイへの第2の接触を検出することであって、第2の接触が視覚的に目立 In some embodiments, a method of providing a context specific user interface is an electronic device having a touch-sensitive display configured to detect the contact strength, the touch-sensitive display the user interface screen comprising a clock face determining and displaying, and detecting the contact with the touch-sensitive display, and that the contact has a characteristic strength, in response to detection of contact, whether characteristic intensity exceeds the intensity threshold it and, in response to determining that the characteristics intensity exceeds the intensity threshold, and inputting a clock face edit mode of the electronic device, by visually inconspicuous clock face displayed, the clock face selection mode and to exhibit, and detecting a second contact on the touch-sensitive display, the second contact visually Meritsu せられて表示された時計文字盤への接触であることと、第2の接触の検出に応答して、編集のために時計文字盤の要素を視覚的に示すことと、を備える。 Comprising a be a canceller is in contact with the displayed clock face, in response to the detection of the second contact, and a to indicate visually the elements of clock face for editing.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、接触強度を検出するように構成されるタッチ感知ディスプレイを有する電子装置において、時計文字盤を含むユーザインターフェーススクリーンをタッチ感知ディスプレイに表示することと、タッチ感知ディスプレイへの接触を検出することであって、接触が特性強度を有することと、接触の検出に応答して、特性強度が強度閾値を超えているか否かを判定することと、特性強度が強度閾値を超えるという判定に応じて、電子装置の時計文字盤選択モードを入力することと、表示された時計文字盤を視覚的に目立たせて、時計文字盤選択モードを示すことであって、表示された時計文字盤がディスプレイの中心に置かれることと、タッチ感知ディスプレ In some embodiments, a method of providing a context specific user interface is an electronic device having a touch-sensitive display configured to detect the contact strength, the touch-sensitive display the user interface screen comprising a clock face determining and displaying, and detecting the contact with the touch-sensitive display, and that the contact has a characteristic strength, in response to detection of contact, whether characteristic intensity exceeds the intensity threshold it and, in response to determining that the characteristics intensity exceeds the intensity threshold, and inputting a clock face selection mode of the electronic device, by visually inconspicuous clock face displayed, the clock face selection mode the method comprising indicating a possible clock face that is displayed is placed in the center of the display, touch-sensitive display 上のスワイプを検出することと、スワイプの検出に応答して、ディスプレイで第2の時計文字盤を中心に置くことと、を備える。 Comprising a detecting swipe above, in response to detecting the swipe, and to center the second clock face on the display, the.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、タッチ感知ディスプレイ及び回転可能入力機構を有する電子装置において、時計文字盤を含むユーザインターフェーススクリーンをタッチ感知ディスプレイに表示することであって、時計文字盤上のアフォーダンスが第1の時間帯を示すことと、タッチ感知ディスプレイ上の接触を検出することと、接触の検出に応答して、電子装置のユーザ対話モードを入力することと、電子装置がユーザ対話モードにある間、回転可能入力機構の移動を検出することと、移動の検出に応答して、第2の時間帯を示すアフォーダンスを更新することと、第2の時間を示すアフォーダンスでタッチ感知ディスプレイ上の第2の接触を検出することと、第2の接触の検出に In some embodiments, a method of providing a context specific user interface is an electronic device having a touch-sensitive display and a rotatable input mechanism, was to display the user interface screen comprising a clock face on the touch-sensitive display Te, and the affordance watch the dial indicates the first time period, and that the detecting contact on the touch-sensitive display, in response to detection of contact, inputs the user interaction mode of the electronic device , while the electronic device is in the user interaction mode, and detecting the movement of the rotatable input mechanism, in response to the detection of movement, and updating the affordances showing a second time period, the second time and detecting a second contact on the touch-sensitive display in affordance shown, the detection of the second contact 答して、第2の時間帯に対してユーザ助言を設定することと、を備える。 And answers provided to setting user advice to the second time period, the.

いくつかの実施形態では、コンテキスト特化ユーザインターフェースを提供する方法は、タッチ感知ディスプレイを有する電子装置において、ディスプレイにユーザインターフェーススクリーンを表示することであって、ユーザインターフェーススクリーンが複数のアフォーダンスを含み、複数のアフォーダンスが第1のアフォーダンスを含み、第1のアフォーダンスが、時間表示及びアウトラインを含む時計文字盤を示すことと、表示された第1のアフォーダンスへの接触を検出することと、接触の検出に応答して、ユーザインターフェーススクリーンのディスプレイを第2のユーザインターフェーススクリーンで置き換えることと、を備え、置き換えることが、時間表示及び1つ以上のアウトラインのうちの1つを維持することを備え、 In some embodiments, a method of providing a context specific user interface is an electronic device having a touch-sensitive display, the method comprising: displaying a user interface screen on the display, the user interface screen comprises a plurality of affordance, multiple affordance comprises a first affordance, first affordance is a to exhibit clock face including time display and outline, and detecting the contact to the first affordance displayed, detection of a contact in response to, comprising a replacing the display of the user interface screen at a second user interface screen, and to replace it comprises maintaining the one of the time display and the one or more outlines, 持された時間表示又はアウトラインは、第1のユーザインターフェーススクリーン上よりも大きなサイズで第2のユーザインターフェーススクリーン上に表示される。 Time display or outline, which is lifting, is displayed on the second user interface screen in a size larger than the first on the user interface screen.

いくつかの実施形態では、装置は、ユーザ入力を表すデータを受信する手段と、データの受信に応じて、第1の時間を示す時計文字盤を含むユーザインターフェーススクリーンをディスプレイに表示する手段であって、第1の時間が現在の時間に先行する手段と、第1の時間表示から現在の時間表示まで遷移するように時計文字盤をアニメーション化することによってユーザインターフェーススクリーンを更新する手段であって、アニメーションが第1の時間から現在の時間までの時間の経過を表す手段と、を備える。 In some embodiments, apparatus, there a means for receiving data representative of user input, in response to receiving the data, a means of displaying a user interface screen on the display including a clock face showing the first time Te, it means for first time preceding the current time, and means for updating the user interface screen by animating the clock face to transition from the first time indication to the current time display , animations and means for indicating the passage of time until the current time from the first time, the.

いくつかの実施形態では、装置は、現在の時間を示すタッチ感知ディスプレイに時計文字盤を表示する手段であって、時計文字盤が時針及び分針を備えるユーザインターフェースオブジェクトを含み、ユーザインターフェースオブジェクトが現在の時間、時間スケールの1つ以上の表示及びストップウォッチ針を示す手段と、ユーザ入力を表すデータを受信する手段と、データの受信に応答して、時間スケールの1つ以上の表示をストップウォッチ針での第1の時間スケールの表示と置き換える手段と、ストップウォッチ針をアニメーション化して時間の経過を反映する手段と、を備える。 In some embodiments, the apparatus comprising: means for displaying a clock face on the touch-sensitive display that indicates the current time, wherein the user interface object that clock face is provided with the hour hand and minute hand, the user interface object is currently time, means for indicating the one or more display and stopwatch needle time scale, and means for receiving data representative of user input, in response to receiving the data, stopwatch one or more display time scale of and means for replacing the first time scale display with a needle, means for reflecting the passage of time to animate the stopwatch needle, a.

いくつかの実施形態では、装置は、ユーザインターフェーススクリーンをタッチ感知ディスプレイに表示する手段であって、ユーザインターフェーススクリーンが現在の時間に太陽によって照らされる地球の第1の領域のシミュレーションを表す第1のアフォーダンス及び現在の時間を表す第2のアフォーダンスを含む手段と、ユーザ入力を受信する手段と、ユーザ入力の受信に応答して、現在の時間に太陽によって照らされる地球の第2の領域を表示するシミュレーションを回転させる手段と、を備える。 In some embodiments, the apparatus comprising: means for displaying a user interface screen on the touch-sensitive display, a first representing a simulation of the first region of the Earth user interface screen is illuminated by the sun at the current time and affordance and means including a second affordance representing the current time, means for receiving user input, in response to receiving a user input, displaying a second area of ​​the earth illuminated by the sun at the current time and means for rotating the simulation, the.

いくつかの実施形態では、装置は、ユーザインターフェーススクリーンをタッチ感知ディスプレイに表示する手段を備え、ユーザインターフェーススクリーンが、日中を示すユーザインターフェーススクリーンの第1の部分と、夜間を示すユーザインターフェーススクリーンの第2の部分と、1日を表す期間を有する正弦波を表すユーザインターフェースオブジェクトであって、正弦波が1日全体の太陽の経過を示し、第1の部分及び第2の部分のうちの1つ以上で表示されるユーザインターフェースオブジェクトと、太陽を表す第1のアフォーダンスであって、表示された正弦波上の第1の位置で表示され、第1の位置が1日のうちの現在の時間を示し、1日のうちの現在の時間が日中又は夜間である第1のアフォーダンスと、現在の時間 In some embodiments, the device comprises means for displaying a user interface screen on the touch-sensitive display, a user interface screen, a first portion of the user interface screen shown during the day, the user interface screen showing a nighttime and a second portion, a user interface object that represents a sine wave having a period representing the day, sine wave indicates the course of the entire day sun, one of the first and second portions and a user interface objects displayed in one or more, a first affordance representing the sun, is displayed at a first position on the sine wave appears, the current time of the first position is 1 day it is shown, the current and first affordance a time during the day or night, the current time of day を示す第2のアフォーダンスと、を備える。 And a second affordance showing the.

いくつかの実施形態では、装置は、ユーザインターフェーススクリーンをディスプレイに表示する手段を備え、ユーザインターフェーススクリーンが、画像に基づき複数の画素を備える背景を含み、画素のサブセットは、日付を示す第1のユーザインターフェースオブジェクト及び時間帯を示す第2のユーザインターフェースオブジェクトのうちの1つ以上を表すように、画像に対して外観が変更される。 In some embodiments, the device comprises means for displaying a user interface screen on the display, the user interface screen comprises a background with a plurality of pixels based on the image, a subset of pixels, the first indicating the date to represent the one or more of the second user interface object representing the user interface object and a time zone, the appearance to the image is changed.

いくつかの実施形態では、装置は、2つ以上の画像を含むフォルダにアクセスする手段と、フォルダから第1の画像を選択することと、ユーザインターフェーススクリーンをディスプレイに表示する手段と、を備え、ユーザインターフェーススクリーンは第1の画像に基づき複数の画素を備える背景を備え、画素のサブセットは、日付を示す第1のユーザインターフェースオブジェクト及び時間帯を示す第2のユーザインターフェースオブジェクトのうちの1つ以上を表すように、画像に対して外観が変更される。 In some embodiments, the apparatus includes means for accessing a folder that contains two or more images, and selecting the first image from the folder, and means for displaying a user interface screen on the display, and the user interface screen includes a background comprising a plurality of pixels based on the first image, a subset of pixels, one or more of the second user interface object that indicates the first user interface object and time zone indicating the date to represent the appearance to the image is changed.

いくつかの実施形態では、装置は、第1の時間に検出されるユーザ入力を検出する手段と、ユーザ入力の検出に応答して、ユーザインターフェーススクリーンを表示する手段であって、ユーザインターフェーススクリーンが第1の時間を示す第1のユーザインターフェースオブジェクトと第2のユーザインターフェースオブジェクトとを含む手段と、第2のユーザインターフェースオブジェクトをアニメーション化する手段であって、アニメーションが第1のアニメーション化されたシーケンス、第1のアニメーション化されたシーケンスの後の第2のアニメーション化されたシーケンス及び第2のアニメーション化されたシーケンスの後の第3のアニメーション化されたシーケンスの連続表示を備え、第1のアニメーション化されたシーケ In some embodiments, the apparatus includes means for detecting a user input that is detected at a first time, in response to detecting the user input, and means for displaying a user interface screen, a user interface screen and means including a first user interface object and a second user interface object that indicates the first time, and means for animating the second user interface object, the sequence animation is first animated comprises a continuous display of the third animated sequence after the second animated sequence and a second animated sequence after the first animated sequence, the first animation reduction has been Sequence ス、第2のアニメーション化されたシーケンス及び第3のアニメーション化されたシーケンスが相互に異なる手段と、第1の時間の後の第2の時間に検出される第2のユーザ入力を検出する手段と、第2のユーザ入力の検出に応答して、前に表示された第2のアニメーション化されたシーケンスを表すデータにアクセスする手段と、第1のアニメーション化されたシーケンス及び第2のアニメーション化されたシーケンスと異なる第4のアニメーション化されたシーケンスを選択する手段と、第2のユーザインターフェーススクリーンを表示する手段であって、第2のユーザインターフェーススクリーンが、第2の時間を示すように更新される第1のユーザインターフェースオブジェクトと第2のユーザインターフェースオブジェクトに関 Scan, means for second animated sequence and the third animated sequences are different from each other, means for detecting the second user input is detected at a second time after the first time If, in response to the detection of the second user input, the second animated means for accessing the data representing the sequence was a sequence and a second animated, which is the first animated displayed previously It means for selecting a fourth animated sequences different from the sequence, and means for displaying the second user interface screen, the second user interface screens, updated to indicate second time regarding the first user interface object and a second user interface object to be する第3のユーザインターフェースオブジェクトとを含む手段と、第3のユーザインターフェースオブジェクトをアニメーション化する手段であって、アニメーションが第1のアニメーション化されたシーケンス、第1のアニメーション化されたシーケンスの後の第4のアニメーション化されたシーケンス及び第4のアニメーション化されたシーケンスの後の第3のアニメーション化されたシーケンスの連続表示である手段と、を備える。 And means including a third user interface object which, the third user interface object and means for animating, animation first animated sequence, after the first animated sequence and it means is a continuous display of the third animated sequence after the fourth animated sequences and fourth animated sequence, the.

いくつかの実施形態では、装置は、該装置のユーザの動きを検出する手段と、ユーザ移動の検出に応答して時計文字盤のアニメーション表現を表示する手段であって、アニメーションが時針及び分針の表示及び第1の時間表示の表示を備える手段と、第2の時間表示を表示する手段であって、第2の時間表示が時計回り方向で第1の時間表示の後の時計文字盤上の位置に表示される手段と、を備える。 In some embodiments, the apparatus includes means for detecting a movement of a user of the apparatus, and means for displaying the animated representation of a clock face in response to the detection of user movement, animation hour and minute hands of and means comprising a display of the display and the first time display means for displaying the display second time, displaying a second time watch the dial after the display first time clockwise and it means to be displayed on the position.

いくつかの実施形態では、装置は、ユーザインターフェーススクリーンをディスプレイに表示する手段であって、ユーザインターフェーススクリーンが時計文字盤とアフォーダンスを含み、アフォーダンスがアプリケーションを表し、アフォーダンスがアプリケーションから得られる情報セットを備え、情報セットがアプリケーションからのデータに応じて更新され、アフォーダンスが時計文字盤上のコンプリケーションとして表示される手段と、表示されるアフォーダンスへの接触を検出する手段と、接触の検出に応答して、アフォーダンスによって表されるアプリケーションを起動する手段と、を備える。 In some embodiments, the apparatus comprising: means for displaying a user interface screen on a display, comprising a user interface screen is a clock face and Affordance, affordance represents an application, the information set obtained Affordance from application provided, information set is updated according to the data from the application, and means affordance is displayed as Complication watches the dial, and means for detecting a contact to affordances displayed, in response to detection of contact Te, and means for starting the application represented by affordance, the.

いくつかの実施形態では、装置は、タッチ感知ディスプレイに時計文字盤を含むユーザインターフェーススクリーンを表示する手段と、タッチ感知ディスプレイへの接触を検出する手段であって、接触が特性強度を有する手段と、接触の検出に応答して、特性強度が強度閾値を超えるか否かを判定する手段と、特性強度が強度閾値を超えるという判定に応じて、電子装置の時計文字盤編集モードを入力する手段と、表示された時計文字盤を視覚的に目立たせて、時計文字盤選択モードを示す手段と、タッチ感知ディスプレイへの第2の接触を検出する手段であって、第2の接触が視覚的に目立たせられて表示された時計文字盤への接触である手段と、第2の接触の検出に応答して、編集のために時計文字盤の要素を視覚的に示す手段と、を備 In some embodiments, the apparatus includes means having means for displaying a user interface screen comprising a clock face on the touch-sensitive display, a means for detecting the contact with the touch-sensitive display, a contact characteristic strength , in response to detecting the contact, and means for determining whether characteristic intensity exceeds the intensity threshold, in response to determining that the characteristic intensity exceeds the intensity threshold, means for inputting the clock face edit mode of the electronic device When, by visually inconspicuous clock face displayed, and means for indicating the clock face selection mode, and means for detecting a second contact on the touch-sensitive display, the second contact is visual Bei means is brought is in contact with the displayed clock face inconspicuous, in response to the detection of the second contact, and means for indicating the element of the timepiece dial visually for editing the る。 That.

いくつかの実施形態では、装置は、タッチ感知ディスプレイに時計文字盤を含むユーザインターフェーススクリーンを表示する手段と、タッチ感知ディスプレイへの接触を検出する手段であって、接触が特性強度を有する手段と、接触の検出に応答して、特性強度が強度閾値を超えるか否かを判定する手段と、特性強度が強度閾値を超えるという判定に応じて、電子装置の時計文字盤編集モードを入力する手段と、表示された時計文字盤を視覚的に目立たせて、時計文字盤選択モードを示す手段であって、表示された時計文字盤がディスプレイの中心に置かれる手段と、タッチ感知ディスプレイ上のスワイプを検出する手段と、スワイプの検出に応答して、ディスプレイ上で第2の時計文字盤を中心に置く手段と、を備える。 In some embodiments, the apparatus includes means having means for displaying a user interface screen comprising a clock face on the touch-sensitive display, a means for detecting the contact with the touch-sensitive display, a contact characteristic strength , in response to detecting the contact, and means for determining whether characteristic intensity exceeds the intensity threshold, in response to determining that the characteristic intensity exceeds the intensity threshold, means for inputting the clock face edit mode of the electronic device When, by visually inconspicuous clock face displayed, a means for indicating the clock face selection mode, and means for clock face that is displayed is placed in the center of the display, swipe on the touch sensitive display and means for detecting, in response to detecting the swipe, and means to center the second clock face on the display, the.

いくつかの実施形態では、装置は、タッチ感知ディスプレイにユーザインターフェーススクリーンを表示する手段であって、ユーザインターフェーススクリーンが時計文字盤と、時計文字盤上に第1の時間帯を示すアフォーダンスとを含む手段と、タッチ感知ディスプレイへの接触を検出する手段と、電子装置のユーザ対話モードを入力する手段と、装置がユーザ対話モードにある間に回転可能入力機構の移動を検出する手段と、移動の検出に応答して、第2の時間帯を示すようにアフォーダンスを更新する手段と、第2の時間を示すアフォーダンスで、タッチ感知ディスプレイへの第2の接触を検出する手段と、第2の接触の検出に応答して、第2の時間帯にユーザ助言を設定する手段と、を備える。 In some embodiments, the apparatus comprising: means for displaying a user interface screen on the touch-sensitive display, a user interface screen comprises a clock face, and affordance indicating a first time period to watch the dial means, means for detecting means for detecting a contact on the touch-sensitive display, comprising: means for inputting a user interaction mode of the electronic device, the movement of the rotatable input mechanism while the device is in the user interaction mode, the mobile in response to the detection, and means for updating the affordance to indicate second time period, at affordance showing a second time, and means for detecting a second contact on the touch-sensitive display, the second contact in response to the detection of, and means for setting a user advice to the second time zone, the.

いくつかの実施形態では、装置は、ユーザインターフェーススクリーンをディスプレイに表示する手段であって、ユーザインターフェーススクリーンが複数のアフォーダンスを含み、複数のアフォーダンスが第1のアフォーダンスを含み、第1のアフォーダンスが時間表示及びアウトラインを含む時計文字盤を示す手段と、表示された第1のアフォーダンスへの接触を検出する手段と、接触の検出に応答して、ユーザインターフェーススクリーンのディスプレイを第2のユーザインターフェーススクリーンで置き換える手段と、を備え、置き換えることが、時間表示及びアウトラインのうちの1つ以上の1つを維持することを備え、維持される時間表示又はアウトラインが、第1のユーザインターフェーススクリーン上よりも大きなサイズで In some embodiments, the apparatus comprising: means for displaying a user interface screen on the display, the user interface screen comprises a plurality of affordance, multiple affordance comprises a first affordance, first affordance time It means for indicating the clock face including the display and outline, and means for detecting the contact to the first affordance displayed, in response to detecting the contact, the display of the user interface screen at a second user interface screen large and means for replacing the, be replaced, provided to maintain one of one or more of the time display and outline, time display or outline is maintained, than first on the user interface screen in size 2のユーザインターフェーススクリーンに表示される。 It is displayed on the second user interface screen.

いくつかの実施形態では、方法は、第1の主題に関連するデータを受信する命令と、受信データの第1の部分に関連する第1の情報を表示する命令と、回転可能入力機構の第1の回転を検出する命令と、回転可能入力機構の第1の回転の検出に応答して、第1の情報を受信データの第2の部分に関連する第2の情報で補足する命令と、を備える。 In some embodiments, the method includes instructions for receiving data related to the first subject, and instructions for displaying a first information associated with the first portion of the received data, the rotatable input mechanism instructions for detecting a rotation of 1, and instructions in response to detecting a first rotation of the rotatable input mechanism, supplemented with a second information relating the first information to the second portion of the received data, equipped with a.

いくつかの実施形態では、非一時的コンピュータ可読記憶媒体は、第1の主題に関連するデータを受信する命令と、受信データの第1の部分に関連する第1の情報を表示する命令と、回転可能入力機構の第1の回転を検出する命令と、回転可能入力機構の第1の回転の検出に応答して、第1の情報を受信データの第2の部分に関連する第2の情報で補足する命令と、を備える。 In some embodiments, the non-transitory computer readable storage medium comprises instructions for displaying the instructions for receiving data related to the first subject, the first information associated with the first portion of the received data, instructions for detecting a first rotation of the rotatable input mechanism, in response to detecting a first rotation of the rotatable input mechanism, a second information associated with first information to the second portion of the received data in and an instruction to supplement.

いくつかの実施形態では、一時的コンピュータ可読記憶媒体は、第1の主題に関連するデータを受信する命令と、受信データの第1の部分に関連する第1の情報を表示する命令と、回転可能入力機構の第1の回転を検出する命令と、回転可能入力機構の第1の回転の検出に応答して、第1の情報を受信データの第2の部分に関連する第2の情報で補足する命令と、を備える。 In some embodiments, transitory computer readable storage medium includes instructions for receiving data related to the first subject, and instructions for displaying a first information associated with the first portion of the received data, rotation instructions for detecting a first rotation of possible input mechanism, in response to detecting a first rotation of the rotatable input mechanism, the second information associated with first information to the second portion of the received data and an instruction to supplement.

いくつかの実施形態では、装置は、ディスプレイと、回転可能入力機構と、1つ以上のプロセッサと、メモリと、を備える。 In some embodiments, the apparatus comprises a display, a rotatable input mechanism, one or more processors, memory, and. いくつかの実施形態では、メモリは、1つ以上のプロセッサによって実行されるとき、1つ以上のプロセッサに、第1の主題に関連するデータを受信させる命令と、受信データの第1の部分に関連する第1の情報を表示させる命令と、回転可能入力機構の第1の回転を検出させる命令と、回転可能入力機構の第1の回転の検出に応答して、第1の情報を受信データの第2の部分に関連する第2の情報で補足させる命令と、を記憶する。 In some embodiments, the memory, when executed by one or more processors, the one or more processors, the instructions for receiving data related to the first subject, the first portion of the received data and instructions for displaying first information related to an instruction for detecting a first rotation of the rotatable input mechanism, in response to detecting a first rotation of the rotatable input mechanism, the received data first information instructions that cause supplemented with a second information associated with the second portion of the stores.

いくつかの実施形態では、装置は、第1の主題に関連するデータを受信する手段と、受信データの第1の部分に関連する第1の情報を表示する手段と、回転可能入力機構の第1の回転を検出する手段と、回転可能入力機構の第1の回転の検出に応答して、第1の情報を受信データの第2の部分に関連する第2の情報で捕捉する手段と、を備える。 In some embodiments, the apparatus includes means for displaying and means for receiving data relating to the first subject, the first information associated with the first portion of the received data, the rotatable input mechanism It means for detecting the rotation of one, in response to detecting a first rotation of the rotatable input mechanism, and means for capturing the second information associated with the first information to the second portion of the received data, equipped with a.

いくつかの実施形態では、電子装置は、ディスプレイユニットと、回転可能入力機構部と、ディスプレイユニット及び回転可能入力機構部に接続される処理ユニットと、を備える。 In some embodiments, the electronic device includes a display unit, a rotatable input mechanism, a processing unit connected to a display unit and a rotatable input mechanism, the. いくつかの実施形態では、処理ユニットは、第1の主題に関連するデータを受信し、受信データの第1の部分に関連する第1の情報をディスプレイユニットに表示させ、回転可能入力機構部の第1の回転を検出し、回転可能入力機構部の第1の回転の検出に応答して、第1の情報を受信データの第2の部分に関連する第2の情報で補足するように構成される。 In some embodiments, the processing unit receives data associated with the first subject, the first information associated with the first portion of the received data is displayed on the display unit, the rotatable input mechanism detecting a first rotation, in response to detecting a first rotation of the rotatable input mechanism, configured to complement the second information associated with the first information to the second portion of the received data It is.

いくつかの実施形態では、方法は、ディスプレイを有する電子装置において、第1のアプリケーションから第1のイベントデータを入手することと、第1のアプリケーションとは別の第2のアプリケーションから第2のイベントデータを入手することと、第1のイベントデータと関連付けられる第1の時間値、第2のイベントデータと関連付けられる第2の時間値並びに第1の時間値及び第2の時間値の相対的順序を判定することと、第1の時間値の表現を有する第1のイベントデータの表現と第2の時間値の表現を有する第2のイベントデータの表現とを含むユーザインターフェースをディスプレイに表示することと、を備え、第1のイベントデータの表現及び第2のイベントデータの表現が、第1の時間値及び第2の時間値の相対的順序 In some embodiments, the method is an electronic device having a display, and that to obtain the first event data from the first application, the first second event from another second application from the application and to obtain the data, a first time value associated with the first event data, the relative order of the second time value and the first time value and the second time value associated with the second event data and determining, displaying a user interface including a representation of a second event data with a representation of the first event data representation and the second time value with a representation of the first time value to the display When, with a representation of the representation and the second event data of the first event data, the relative order of the first time value and the second time value びに第1の時間値及び第2の時間値の各値に応じて相互に対して表示される。 It is displayed relative to each other in accordance with each value of the first time value and the second time value each time.

いくつかの実施形態では、非一時的コンピュータ可読記憶媒体は1つ以上のプログラムを記憶し、1つ以上のプログラムは、タッチ感知ディスプレイを有する電子装置によって実行されるとき、装置に対して、第1のアプリケーションから第1のイベントデータを取得させる命令と、第1のアプリケーションとは別の第2のアプリケーションから第2のイベントデータを取得させる命令と、第1のイベントデータと関連付けられる第1の時間値、第2のイベントデータと関連付けられる第2の時間値並びに第1の時間値及び第2の時間値の相対的順序を判定させる命令と、第1の時間値の表現を有する第1のイベントデータの表現と第2の時間値の表現を有する第2のイベントデータの表現を含むユーザインターフェースをディスプレイに表 In some embodiments, the non-transitory computer readable storage medium stores one or more programs, the one or more programs, when executed by an electronic device having a touch-sensitive display, the apparatus, the 1 application and instructions for obtaining the first event data, and instructions for obtaining the second event data from another second application from the first application, the first associated with the first event data time value, the first having instructions for determining the relative order of the second time value and the first time value and the second time value associated with the second event data, the representation of the first time value Table user interface including a representation of a second event data with a representation of representation and the second time value of the event data to the display させる命令と、を備え、第1のイベントデータの表現及び第2のイベントデータの表現が、第1の時間値及び第2の時間値の相対的順序並びに第1の時間値及び第2の時間値の各値に応じて相互に対して表示される。 And a command to be a representation of representation and the second event data of the first event data, the relative order and the first time value and the second time of the first time value and the second time value It is displayed relative to each other in accordance with each value of values.

いくつかの実施形態では、一時的コンピュータ可読記憶媒体は1つ以上のプログラムを記憶し、1つ以上のプログラムは、タッチ感知ディスプレイを有する電子装置によって実行されるとき、装置に対して、第1のアプリケーションから第1のイベントデータを取得させる命令と、第1のアプリケーションとは別の第2のアプリケーションから第2のイベントデータを取得させる命令と、第1のイベントデータと関連付けられる第1の時間値、第2のイベントデータと関連付けられる第2の時間値並びに第1の時間値及び第2の時間値の相対的順序を判定させる命令と、第1の時間値の表現を有する第1のイベントデータの表現と第2の時間値の表現を有する第2のイベントデータの表現を含むユーザインターフェースをディスプレイに表示 In some embodiments, the transitory computer readable storage medium stores one or more programs, the one or more programs, when executed by an electronic device having a touch-sensitive display, the apparatus, the first instructions for the application to acquire the first event data, and instructions for obtaining the second event data from another second application from the first application, the first time associated with the first event data value, the first event with the instructions for determining the relative order of the second time value and the first time value and the second time value associated with the second event data, the representation of the first time value displaying a user interface including a representation of a second event data with a representation of representation and the second time value of the data to the display せる命令と、を備え、第1のイベントデータの表現及び第2のイベントデータの表現が、第1の時間値及び第2の時間値の相対的順序並びに第1の時間値及び第2の時間値の各値に応じて相互に対して表示される。 Comprising instructions that cause the expression of the representation and the second event data of the first event data, the relative order and the first time value and the second time of the first time value and the second time value It is displayed relative to each other in accordance with each value of values.

いくつかの実施形態では、電子装置は、タッチ感知ディスプレイと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成され、1つ以上のプログラムは、1つ以上のプロセッサによって実行されるとき、装置に対して、第1のアプリケーションから第1のイベントデータを取得させる命令と、第1のアプリケーションとは別の第2のアプリケーションから第2のイベントデータを取得させる命令と、第1のイベントデータと関連付けられる第1の時間値、第2のイベントデータと関連付けられる第2の時間値並びに第1の時間値及び第2の時間値の相対的順序を判定させる命令と、第1の時間値の表現を有する第1のイベ In some embodiments, the electronic device includes a touch-sensitive display, and one or more processors, comprising: a memory, and one or more programs, the one or more programs are stored in the memory, one or more is configured to be executed by the processor, one or more programs when executed by one or more processors, the instructions to the device, thereby obtaining the first event data from the first application, and instructions for obtaining the second event data from another second application from the first application, the first time value associated with the first event data, a second time associated with the second event data value and the first event with the instructions for determining the relative order of the first time value and the second time value, a representation of the first time value トデータの表現と第2の時間値の表現を有する第2のイベントデータの表現とを含むユーザインターフェースをディスプレイに表示させる命令と、を含み、第1のイベントデータの表現及び第2のイベントデータの表現が、第1の時間値及び第2の時間値の相対的順序並びに第1の時間値及び第2の時間値の各値に応じて相互に対して表示される。 Includes a command to display a user interface on the display and a second event data representation having a representation of the representation and the second time value of Todeta, a, of the representation and the second event data of the first event data representation is displayed relative to each other in accordance with the respective values ​​of the relative order and the first time value and the second time value of the first time value and the second time value.

いくつかの実施形態では、電子装置は、第1のアプリケーションから第1のイベントデータを入手する手段と、第1のアプリケーションとは別の第2のアプリケーションから第2のイベントデータを入手する手段と、第1のイベントデータと関連付けられる第1の時間値、第2のイベントデータと関連付けられる第2の時間値並びに第1の時間値及び第2の時間値の相対的順序を判定する手段と、第1の時間値の表現を有する第1のイベントデータの表現と第2の時間値の表現を有する第2のイベントデータの表現とを含むユーザインターフェースを装置のタッチ感知ディスプレイに表示する手段と、を備え、第1のイベントデータの表現及び第2のイベントデータの表現が、第1の時間値及び第2の時間値の相対的順序並びに第1の時間値 In some embodiments, the electronic device includes a means for obtaining the first event data from the first application, the first application and the means for obtaining the second event data from another second application , a first time value associated with the first event data, means for determining the relative order of the second time value and the first time value and the second time value associated with the second event data, It means for displaying on the touch-sensitive display of a user interface device including a first event data representation and a representation of a second event data with a representation of the second time value with a representation of the first time value, the provided, representation of the representation and the second event data of the first event data, the relative order and the first time value of the first time value and the second time value び第2の時間値の各値に応じて相互に対して表示される。 Beauty is displayed relative to each other in accordance with each value of the second time value.

いくつかの実施形態では、電子装置は、グラフィカルユーザインターフェースを表示するように構成されるディスプレイユニットと、接触を受け入れるように構成されるタッチ感知面ユニットと、ディスプレイユニット、タッチ感知面ユニット、回転可能及び押圧可能入力機構部及びボタン部に接続される処理ユニットと、を備え、処理ユニットは、第1のアプリケーションから第1のイベントデータを取得し、第1のアプリケーションとは別の第2のアプリケーションから第2のイベントデータを取得し、第1のイベントデータと関連付けられる第1の時間値、第2のイベントデータと関連付けられる第2の時間値並びに第1の時間値及び第2の時間値の相対的順序を判定し、第1の時間値の表現を有する第1のイベントデータの表現と第 In some embodiments, electronic device, graphical and configured display unit as a user interface to display and a touch-sensitive surface unit configured to receive the contact, the display unit, the touch-sensitive surface unit, rotatable and comprising a processing unit connected to the depressable input mechanism and the button unit, the processing unit from the first application to get the first event data, different from the first application a second application from obtains the second event data, a first time value associated with the first event data, the second the second time value associated with event data and first time value and the second time value determines relative order, first event data representation having a representation of a first time value and the の時間値の表現を有する第2のイベントデータの表現とを含むユーザインターフェースをディスプレイに表示するように構成され、第1のイベントデータの表現及び第2のイベントデータの表現が、第1の時間値及び第2の時間値の相対的順序並びに第1の時間値及び第2の時間値の各値に応じて相互に対して表示される。 Is configured with a user interface and a second event data representation with the time value represented as displayed on the display, representation of representation and the second event data of the first event data, a first time It is displayed relative to each other depending on respective values ​​and the value of the relative order and the first time value and the second time value of the second time value.

よって、コンテキスト特化ユーザインターフェースを管理(例えば、編集)する高速及び効率化装置が提供されることによって、有効性、効率性及び当該装置へのユーザ満足度が向上する。 Therefore, managing the context specialized user interface (e.g., editing) by fast and efficient apparatus is provided for, efficacy, user satisfaction with efficiency and the device is improved. 上記方法及びインターフェースは、コンテキスト特化ユーザインターフェースを管理する他の方法を補完又は置換することができる。 The methods and interfaces may complement or replace other methods of managing context specialized user interface.

いくつかの実施形態に係るタッチ感知ディスプレイを備えるポータブル多機能装置を示すブロック図である。 It is a block diagram illustrating a portable multifunction device having a touch-sensitive display in accordance with some embodiments.

いくつかの実施形態に係るイベント処理用の例示的構成要素を示すブロック図である。 It is a block diagram illustrating exemplary components for event handling in accordance with some embodiments.

いくつかの実施形態に係るタッチ感知ディスプレイを有するポータブル多機能装置を示す図である。 It is a diagram illustrating a portable multifunction device having a touch-sensitive display in accordance with some embodiments.

いくつかの実施形態に係るディスプレイ及びタッチ感知面を備える例示的多機能装置のブロック図である。 Is a block diagram of an exemplary multifunction device with a display and a touch-sensitive surface according to some embodiments.

いくつかの実施形態に係るポータブル多機能装置のアプリケーションメニューのための例示的ユーザインターフェースを示す図である。 It illustrates an exemplary user interface for an application menu of the portable multifunction device in accordance with some embodiments. いくつかの実施形態に係るポータブル多機能装置のアプリケーションメニューのための例示的ユーザインターフェースを示す図である。 It illustrates an exemplary user interface for an application menu of the portable multifunction device in accordance with some embodiments.

いくつかの実施形態に係る、タッチ感知ディスプレイ並びに回転可能及び押圧可能入力機構を備えるポータブル多機能装置を示すブロック図である。 According to some embodiments, a block diagram illustrating a portable multifunction device with a touch-sensitive display and a rotatable and depressible input mechanism.

いくつかの実施形態に係る、タッチ感知ディスプレイ並びに回転可能及び押圧可能入力機構を備えるポータブル多機能装置を示すブロック図である。 According to some embodiments, a block diagram illustrating a portable multifunction device with a touch-sensitive display and a rotatable and depressible input mechanism.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments. いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments. いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments. いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments. いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments. いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments.

いくつかの実施形態に係る動作モードをアクティブ化する方法を示すフロー図である。 It is a flow diagram illustrating a method to activate the operation mode according to some embodiments. いくつかの実施形態に係る動作モードをアクティブ化する方法を示すフロー図である。 It is a flow diagram illustrating a method to activate the operation mode according to some embodiments. いくつかの実施形態に係る動作モードをアクティブ化する方法を示すフロー図である。 It is a flow diagram illustrating a method to activate the operation mode according to some embodiments. いくつかの実施形態に係る動作モードをアクティブ化する方法を示すフロー図である。 It is a flow diagram illustrating a method to activate the operation mode according to some embodiments. いくつかの実施形態に係る動作モードをアクティブ化する方法を示すフロー図である。 It is a flow diagram illustrating a method to activate the operation mode according to some embodiments.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface. 例示的コンテキスト特化ユーザインターフェースを示す図である。 It shows an illustrative context specialized user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

コンテキスト特化ユーザインターフェースの処理を示すフロー図である。 Is a flow diagram showing the process of context specific user interface.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments. いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments. いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments. いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments. いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments. いくつかの実施形態に係る例示的ユーザインターフェースを示す図である。 Is a diagram illustrating an exemplary user interface according to some embodiments.

いくつかの実施形態に係る、表示された情報を補足する処理を示すフロー図である。 According to some embodiments, a flow diagram showing the process to supplement the information displayed. いくつかの実施形態に係る、表示された情報を補足する処理を示すフロー図である。 According to some embodiments, a flow diagram showing the process to supplement the information displayed. いくつかの実施形態に係る、表示された情報を補足する処理を示すフロー図である。 According to some embodiments, a flow diagram showing the process to supplement the information displayed. いくつかの実施形態に係る、表示された情報を補足する処理を示すフロー図である。 According to some embodiments, a flow diagram showing the process to supplement the information displayed. いくつかの実施形態に係る、表示された情報を補足する処理を示すフロー図である。 According to some embodiments, a flow diagram showing the process to supplement the information displayed. いくつかの実施形態に係る、表示された情報を補足する処理を示すフロー図である。 According to some embodiments, a flow diagram showing the process to supplement the information displayed.

いくつかの実施形態に係る電子装置の機能ブロック図である。 It is a functional block diagram of an electronic device according to some embodiments.

以下の説明は例示的方法やパラメータ等を記載する。 The following description describes exemplary methods and parameters and the like. しかしながら、上記説明は開示の範囲に関する限定とは意図されず、例示的実施形態の説明として提供されると認識すべきである。 However, the description is not intended as a limitation on the scope of the disclosure, it should be recognized to be provided as a description of exemplary embodiments.

上述したように、ユーザは、時間を記録し、特定の種類の情報を受信するコンテキスト特化ユーザインターフェースをカスタマイズすることができる。 As described above, the user may record the time, it is possible to customize the context specialized user interface for receiving information of a particular type. 非常に有益なインターフェースを提供しつつ、上記インターフェースをカスタマイズする多数のオプションをユーザに提供することは困難である。 While providing very useful interface, it is difficult to provide a number of options to customize the interface to the user. 更に、色、表示密度、コンプリケーション等の多数の変動要素を、ユーザにとって分かりやすく直観的にカスタマイズするオプションを提示することも困難である。 Furthermore, color, display density, a number of variables, such complications, it is difficult to present easy to understand intuitively options to customize the user. コンテキスト特化ユーザインターフェース及び上記インターフェースをユーザにカスタマイズさせる統合的方法は、ポータブル多機能装置にとって極めて望ましい。 Integrated method of customizing the context specialized user interface and the interface to the user is very desirable for portable multifunction devices.

以下、図1A及び図1B、図2、図3、図4A及び図4B並びに図5A及び図5Bを参照して、コンテキスト特化ユーザインターフェースを提供する手法を実行する例示的装置を説明する。 Hereinafter, FIGS. 1A and 1B, 2, 3, with reference to FIGS. 4A and 4B and FIGS. 5A and 5B, the exemplary apparatus is described for performing a method of providing a context specific user interface. 図6〜図19は、例示的コンテキスト特化ユーザインターフェースを示す。 6 to 19 illustrate an exemplary context specialized user interface. 同図中のユーザインターフェースを使用して、図20〜図33中の処理等の後述する処理を説明する。 Using the user interface in the drawing, a description will be given later to processing treatment or the like in FIGS. 20 to 33.

以下の説明は各種要素を記載するために「第1」や「第2」等の文言を使用するが、これらの要素はそれらの文言によって限定してはならない。 The following description uses wording such as "first" and "second" to describe various elements, these elements should not be limited by their wording. これらの文言は、ある要素を別の要素と区別するためだけに使用する。 These words are used only to distinguish one element from another. 例えば、各種実施形態の範囲を逸脱せずに、第1のタッチは第2のタッチと称することもでき、同様に、第2のタッチは第1のタッチと称することができる。 For example, without departing from the scope of the various embodiments, the first touch may also be referred to as a second touch, similarly, the second touch may be referred to as a first touch. 第1のタッチ及び第2のタッチは両方ともタッチであるが、同じタッチではない。 While the first touch and the second touch are both touch, not the same touch.

本願に記載する各種実施形態の説明で使用される文言は、具体的な実施形態を説明するためのものであり、限定することを目的としていない。 Language used in the description of the various embodiments described herein are for the purpose of describing particular embodiments and is not intended to be limiting. 各種実施形態及び添付の請求項で使用される場合、単数形「a」、「an」及び「the」は、文脈上特に断りがない限り、複数形も含むことを目的とする。 When used in the claims of the various embodiments and the accompanying, the singular forms "a", "an" and "the", unless the context otherwise requires, it aims to include the plural forms. また、本文書で使用される場合、「及び/又は」という文言は、関連付けられるリストアップ項目のうちの1つ以上の可能な組み合わせを全て指し、包含すると理解される。 Also, as used in this document, the phrase "and / or" refers any one or more possible combinations of the associated listed items, and expedient. 更に、「includes」、「including」、「comprises」及び/又は「comprising」という文言は、本明細書で使用されるとき、記載される特徴、整数、工程、動作、要素及び/又は構成要素の存在を明示するが、1つ以上のその他の特徴、整数、工程、動作、要素、構成要素及び/又はそれらの群の存在又は追加を除外するものではないと理解される。 Furthermore, "includes", the phrase "including", "comprises" and / or "comprising", as used herein, the described features, integers, steps, operations, elements and / or components specify the presence is, one or more other features, integers, steps, operations, elements, is understood as not preclude the presence or addition of components and / or groups thereof.

「if」という文言は、文脈に応じて、「とき」又は「時」又は「判定に応答して」又は「検出に応答して」を意味するように解釈することができる。 The phrase "if", depending on context, may be interpreted to mean "when" or "time" or "in response to a determination" or "in response to the detection." 同様に、「判定される場合」又は「[記載される条件又はイベント]が検出される場合」という節は、文脈に応じて、「判定時」又は「判定に応答して」又は「[記載される条件又はイベント]の検出時」又は「[記載される条件又はイベント]の検出に応答して」を意味するように解釈することができる。 Similarly, the section entitled "When it is determined" or "if [condition or event is described] is detected", depending on the context, "determination time" or "in response to a determination" or "[wherein can be interpreted to mean "in response to the detection of the detected time conditions or events] is" or "[conditions or events are described.

電子装置、上記装置用のユーザインターフェース及び上記装置を使用する関連処理の実施形態を説明する。 Electronic device, an embodiment of a related process for using the user interface and the apparatus for the apparatus. いくつかの実施形態では、装置は、PDA及び/又は音楽プレーヤ機能等の他の機能も含む携帯電話等の携帯通信装置である。 In some embodiments, the device is a portable communication device such as a cellular phone that includes other functions, such as PDA and / or music player functions. ポータブル多機能装置の例示的実施形態は、カリフォルニア州クパチーノのApple Inc. Exemplary embodiments of portable multifunction devices, Cupertino Apple Inc. 製iPhone(登録商標)、iPod Touch(登録商標)及びiPad(登録商標)装置を制限なく含む。 Ltd. iPhone (registered trademark), iPod Touch (R) and iPad (TM), including without limitation equipment. タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップコンピュータ又はタブレットコンピュータ等のその他のポータブル電子装置も任意選択的に使用される。 Touch sensitive surface (e.g., touch screen display and / or touch pad) other portable electronic devices such as a laptop computer or a tablet computer having also optionally used. また、いくつかの実施形態では、装置は携帯通信装置ではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであると理解すべきである。 Further, in some embodiments, the device is not a mobile communication device, the touch sensitive surface (e.g., touch screen display and / or touch pads) is to be understood as being a desktop computer with.

以下の説明では、ディスプレイ及びタッチ感知面を含む電子装置について説明する。 In the following description, a description will be given of an electronic device including a display and a touch-sensitive surface. しかしながら、電子装置は、物理的キーボード、マウス及び/又はジョイスティック等、1つ以上の他の物理的ユーザインターフェース装置を任意選択的に含むと理解すべきである。 However, the electronic device, a physical keyboard, a mouse and / or joystick, etc., is one or more other physical user interface device should be understood to include optionally.

装置は、各種アプリケーション、例えば、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、eメールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション及び/又はデジタルビデオ再生装置アプリケーションのうちの1つ以上をサポートす Device, various types of applications, for example, a drawing application, a presentation application, a word processing application, a website creation application, a disk authoring application, a spreadsheet application, a game application, a telephone application, a video conferencing application, e-mail application, instant messaging applications, training support application, photo management application, supports one or more of the digital camera application, a digital video camera application, a web browsing application, a digital music player application, and / or digital video playing device applications ことができる。 It is possible.

装置上で実行される各種アプリケーションは、タッチ感知面等の少なくとも1つの共通の物理的ユーザインターフェース装置を任意選択的に使用する。 Various applications running on device, at least one common physical user interface device of the touch-sensitive surface or the like used optionally. タッチ感知面の1つ以上の機能及び装置に表示される関連情報は、あるアプリケーションから次のアプリケーションに及び/又は対応するアプリケーション内で任意選択的に調整及び/又は変更される。 Related are displayed on one or more functions and device of the touch-sensitive surface information is optionally adjusted and / or changed from one application within the following application and / or the corresponding application. このように、装置の共通の物理的アーキテクチャ(タッチ感知面等)は、ユーザにとって直観的で分かりやすいユーザインターフェースで様々なアプリケーションを任意選択的にサポートする。 Thus, a common physical architecture of the device (touch-sensitive surface, etc.), optionally support a variety of applications in an intuitive and easy-to-understand user interface for the user.

次に、タッチ感知ディスプレイを備えるポータブル装置の実施形態に着目する。 Next, attention is paid to the embodiment of a portable device with a touch-sensitive display. 図1Aは、いくつかの実施形態に係るタッチ感知ディスプレイシステム112を備えるポータブル多機能装置100を示すブロック図である。 Figure 1A is a block diagram illustrating a portable multifunction device 100 having a touch-sensitive display system 112 according to some embodiments. タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られる又は呼ばれることがある。 The touch-sensitive display 112 is sometimes conveniently referred to as a "touch screen", sometimes called or known as "touch-sensitive display system." 装置100は、メモリ102(1つ以上のコンピュータ可読記憶媒体を任意選択的に含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インターフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、その他の入力制御装置116、外部ポート124を含む。 Device 100 (including one or more computer-readable storage medium optionally) memory 102, memory controller 122, one or more processing units (CPU) 120, peripherals interface 118, RF circuitry 108, audio circuitry 110 includes a speaker 111, a microphone 113, input-output (I / O) subsystem 106, other input control devices 116, an external port 124. 装置100は、1つ以上の光学センサ164を任意選択的に含む。 Device 100 includes one or more optical sensors 164 optionally. 装置100は、装置100上(例えば、装置100のタッチ感知ディスプレイシステム112等のタッチ感知面)の接触強度を検出する1つ以上の接触強度センサ165を任意選択的に含む。 The apparatus 100 includes upper apparatus 100 (e.g., a touch sensitive surface such as touch-sensitive display system 112 of the apparatus 100) one or more contact intensity sensor 165 for detecting the contact strength of the optionally. 装置100は、装置100に触知出力を生成する(例えば、装置100のタッチ感知ディスプレイシステム112又は装置300のタッチパッド355等のタッチ感知面に触知出力を生成する)1つ以上の触知出力生成器167を任意選択的に含む。 Device 100 generates a tactile output device 100 (e.g., to produce a tactile output on the touch-sensitive surface such as touch pad 355 of the touch-sensitive display system 112 or device 300 of the apparatus 100) one or more tactile an output generator 167 optionally. 任意選択的に、これらの構成要素は1つ以上の通信バス又は信号ライン103上で通信する。 Optionally, these components communicate over one or more communication buses or signal lines 103.

明細書及び請求項で使用される場合、タッチ感知面上の接触の「強度」という文言は、タッチ感知面への接触(例えば、指接触)の力又は圧力(単位面積当たりの力)、あるいはタッチ感知面への接触の力又は圧力の代替(代理)を指す。 As used in the specification and claims, the phrase "strength" of the contact on the touch-sensitive surface, the contact on the touch sensitive surface (e.g., a finger contact) force or pressure (force per unit area) of, or alternative force or pressure contact with the touch sensitive surface refers to (proxy). 接触強度は、少なくとも4つの別個の値を含むある範囲の値を有し、より典型的には何百もの異なる値(例えば、少なくとも256)を含む。 Contact strength has a range of values ​​that includes at least four distinct values, including more typically hundreds of different values ​​(e.g., at least 256). 任意選択的に、接触強度は各種アプローチ及び各種センサ又はセンサの組み合わせを用いて判定(又は測定)される。 Optionally, the contact strength is determined (or measured) by using a combination of various approaches and various sensors or sensor. 例えば、任意選択的に、タッチ感知面の下又は近傍の1つ以上の力センサを使用して、タッチ感知面の様々な箇所における力を測定する。 For example, optionally, using one or more force sensors under or near the touch-sensitive surface, measuring the force in various places of the touch sensing surface. いくつかの実施例では、複数の力センサからの力の測定値が結合されて(例えば、加重平均)推定接触強度を決定する。 In some embodiments, the measured value of the force from the plurality of force sensors are combined (e.g., weighted average) to determine an estimated contact strength. 同様に、任意選択的に、スタイラスの感圧先端を使用して、タッチ感知面にかかるスタイラスの圧力を判定する。 Similarly, it is determined optionally, using sensitive 圧先 end of the stylus, the pressure of such a stylus on the touch sensitive surface. あるいは、任意選択的に、タッチ感知面で検出される接触面積のサイズ及び/又はその変更、接触に近接するタッチ感知面の容量及び/又はその変更及び/又は接触に近接するタッチ感知面の抵抗及び/又はその変更が、タッチ感知面への接触の力又は圧力の代わりに使用される。 Alternatively, optionally, the size and / or change thereof in the contact area detected by the touch-sensitive surface, the capacitance of the touch sensing surface close to the contact and / or resistance of the touch sensitive surface proximate to the change and / or contact and / or change thereof, it is used in place of the force or pressure of the contact to the touch sensitive surface. いくつかの実施例では、接触の力又は圧力の代替の測定値を直接使用して、強度閾値を超過したか否かを判定する(例えば、強度閾値は、代替の測定値に対応する単位で記載される)。 In some embodiments, using measurements of an alternative contact force or pressure directly determines whether exceeded the intensity threshold (e.g., intensity threshold, a unit corresponding to the measured value of the alternative be written). いくつかの実施例では、接触の力又は圧力の代替の測定値が推定力又は圧力に変換され、推定力又は圧力を使用して、強度閾値を超過したか否かを判定する(例えば、強度閾値は圧力単位で測定される圧力閾値である)。 In some embodiments, measurements of alternative contact force or pressure is converted to the estimated force or pressure, using the estimated force or pressure, determines whether or not exceeded the intensity threshold (e.g., intensity threshold is a pressure threshold which is measured by the pressure units). ユーザ入力の特性として接触強度を使用することで、ユーザは、(例えば、タッチ感知ディスプレイに)アフォーダンスを表示する及び/又は(例えば、タッチ感知ディスプレイ、タッチ感知面あるいはノブ又はボタン等の物理的/機械的制御装置を介して)ユーザ入力を受信するために、限られた面積の小型装置上で、さもなければユーザがアクセスすることができなかったであろう追加の装置機能にアクセスすることができる。 By using a contact strength as a characteristic of the user input, the user (e.g., on the touch-sensitive display) Affordance Show and / or (e.g., touch-sensitive display, the touch-sensitive surface or knobs or buttons such as physical / to receive through it) the user inputs the mechanical control device, on small devices with limited area, otherwise the user to access additional device features that would not be able to access it can.

明細書及び請求項で使用される場合、「触知出力」という文言は、装置の前回位置に対する物理的変位、装置の構成要素(例えば、タッチ感知面)の、装置の別の構成要素(例えば、筐体)に対する物理的変位、又はタッチ感覚を有するユーザによって検出される装置の重心に対する構成要素の変位を指す。 As used in the specification and claims, the phrase "tactile output" is physically displaced with respect to the previous position of the device, the components of the device (e.g., a touch sensitive surface), another component of the apparatus (e.g. refers to a physical displacement, or displacement of the component relative to the center of gravity of the device detected by the user with a touch feeling with respect to the housing). 例えば、装置又は装置の構成要素がタッチを感知するユーザ面(例えば、指、手のひら又はユーザの手の他の箇所)に接触している場合、物理的変位によって生成される触知出力は、装置又は装置の構成要素の物理的特性の知覚される変化に対応する触知感覚としてユーザに解釈される。 For example, if in contact with the user plane components of the device or device senses the touch (e.g., a finger, palm or elsewhere of a user's hand), tactile output produced by physical displacement, the device or it is interpreted by the user as tactile sensation corresponding to the perceived change in the physical properties of the components of the apparatus. 例えば、任意選択的に、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、物理的アクチュエータボタンの「ダウンクリック」又は「アップクリック」としてユーザに解釈される。 For example, optionally, the touch sensitive surface (e.g., touch-sensitive display or a track pad) is moving, is interpreted by the user as "down click" or "up click" physical actuator button. 一部の場合には、ユーザの移動によって物理的に押圧(例えば、変位)されるタッチ感知面と関連付けられる物理的アクチュエータボタンの移動が存在しない場合でも、ユーザは、「ダウンクリック」又は「アップクリック」等の触知感覚を覚える。 In some cases, even if the physically pressed by movement of the user (e.g., displacement) movement of the physical actuator button associated with the touch sensitive surface is not present, the user is "down click" or "Up remember the palpable sense of click "and the like. 他の例として、任意選択的に、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合でも、タッチ感知面の「起伏」としてユーザに解釈又は検知される。 As another example, optionally, the movement of the touch sensitive surface, even if there is no change in smoothness of the touch sensitive surface, is interpreted or sensed by the user as "undulation" of the touch-sensitive surface. このようなユーザによるタッチの検出はユーザの個々の感覚認知の影響を受けるが、大多数のユーザに共通するタッチの感覚認知は多数存在する。 Such a user by the touch detection is influenced by the individual sensory perception of the user but, sensory perception of touch common to the majority of users will exist. よって、触知出力がユーザの特定の感覚認知(例えば、「アップクリック」、「ダウンクリック」、「起伏」)に対応するように記載される場合、特に断りのない限り、生成される触知出力は、標準的(又は平均)ユーザにとって記載される感覚認知を生成する装置又はその構成要素の物理的変位に対応する。 Therefore, if the tactile output is specific sensory perception of the user (e.g., "up click", "down click", "relief") is described as corresponding to, unless otherwise specified, tactile produced the output corresponds to the standard (or average) to produce a sensory perception to be described for the user equipment or physical displacement of the component.

装置100は、ポータブル多機能装置の単なる一例であり、装置100は図示するよりも多い又は少ない構成要素を任意選択的に含み、2つ以上の構成要素を任意選択的に組み合わせ、あるいは構成要素の異なる構造又は構成を任意選択的に含むと認識すべきである。 Device 100 is only one example of a portable multifunction device, apparatus 100 may include more or fewer components than shown Optionally, a combination of two or more components optionally, or components it is to be appreciated that optionally include a different structure or configuration. 図1Aに示す各種構成要素は、1つ以上の信号処理及び/又は特定用途向け集積回路等、ハードウェア、ソフトウェア又はハードウェアとソフトウェアの組み合わせに実装される。 Various components shown in Figure 1A, one or more signal processing and / or application specific integrated circuits or the like, hardware, is implemented in a combination of software or hardware and software.

メモリ102は、1つ以上のコンピュータ可読記憶媒体を含んでいてもよい。 Memory 102 may include one or more computer-readable storage medium. コンピュータ可読記憶媒体は有形的で非一時的であってもよい。 The computer readable storage medium may be tangible and non-temporary. メモリ102は高速ランダムアクセスメモリを含み、1つ以上の磁気記憶装置、フラッシュメモリ装置又はその他の不揮発性ソリッドステートメモリ装置等の不揮発性メモリを更に含んでいてもよい。 Memory 102 includes high-speed random access memory, one or more magnetic storage devices, may further include a nonvolatile memory such as a flash memory device, or other non-volatile solid-state memory device. メモリコントローラ122は、装置100の他の構成要素によってメモリ102へのアクセスを制御することができる。 Memory controller 122 may control access to the memory 102 by other components of the device 100.

周辺機器インターフェース118を使用して、装置の入出力周辺装置をCPU120及びメモリ102に接続することができる。 Use peripheral interface 118 may be connected to input and output peripherals of the device to the CPU120 and the memory 102. 1つ以上のプロセッサ120は、メモリ102に記憶される各種ソフトウェアプログラム及び/又は命令セットを実行することで、装置100の各種機能を実行し、データを処理することができる。 One or more processors 120, by executing various software programs stored in memory 102 and / or a set of instructions to perform various functions of the apparatus 100, the data can be processed. いくつかの実施形態では、周辺機器インターフェース118、CPU120及びメモリコントローラ122は、チップ104等のシングルチップに実装することができる。 In some embodiments, peripherals interface 118, CPU 120 and memory controller 122 may be implemented in a single chip, such as chip 104. いくつかのその他の実施形態では、それらは個別のチップに実装することができる。 In some other embodiments, they may be implemented in a separate chip.

RF(無線周波数)回路108は、電磁信号とも称されるRF信号を送受信する。 RF (Radio Frequency) circuit 108 transmits and receives referred RF signal with an electromagnetic signal. RF回路108は、電気信号を電磁信号に/電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信装置と通信する。 RF circuitry 108 converts electrical signals into electrical signals to electromagnetic signals / electromagnetic signals and communicates with communications networks and other communications devices via the electromagnetic signals. RF回路108は、これらの機能を実行する、アンテナシステム、RF送受信機、1つ以上の増幅器、チューナ、1つ以上の発振器、デジタル信号プロセッサ、コーデックチップセット、加入者識別モジュール(SIM)カード、メモリ等を含むがそれらに限定されない周知の回路を任意選択的に含む。 RF circuitry 108 to perform these functions, an antenna system, RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, codec chipset, a subscriber identity module (SIM) card, including memory, including optionally the known circuit is not limited thereto. 任意選択的に、RF回路108は、ワールドワイドウェブ(WWW)とも称されるインターネット等のネットワーク、セルラ電話機ネットワーク、無線ローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)等のイントラネット及び/又は無線ネットワーク、並びにその他の装置と無線通信によって通信する。 Optionally, RF circuit 108, the World Wide Web (WWW) also referred such as the Internet network, cellular telephone network, a wireless local area network (LAN) and / or a metropolitan area network (MAN), etc. Intranet and / or wireless network, and communicates with other devices by wireless communication. RF回路108は、例えば短距離通信無線機によって近接場通信(NFC)場を検出する周知の回路を任意選択的に含む。 RF circuitry 108 includes, for example, a well-known circuit for detecting a near field communication (NFC) field by a short-range communications radio optionally. 任意選択的に、無線通信は複数の通信規格、プロトコル及び技術のいずれかを使用し、それの通信規格、プロトコル及び技術は、移動通信用のグローバルシステム(GSM)、拡張データGSM環境(EDGE)、高速ダウンリンクパケットアクセス(HSDpa)、高速アップリンクパケットアクセス(HSUpa)、エボリューション、データ専用(EV−DO)、HSpa、HSpa+、Dual−Cell HSpa(DC−HSPDA)、ロングタームエボリューション(LTE)、近接場通信(NFC)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth(登録商標)、Bluetooth低エネルギー(bTLE)、無線忠実性(Wi−Fi)(例 Optionally, the wireless communication uses multiple communication standards, one of the protocols and technologies, that of communication standards, protocols and technologies, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE) , high-speed downlink packet access (HSDpa), high speed uplink packet access (HSUpa), Evolution, data only (EV-DO), HSpa, HSpa +, Dual-Cell HSpa (DC-HSPDA), long term evolution (LTE), NFC (NFC), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth (registered trademark), Bluetooth low energy (bTLE), wireless fidelity (Wi-Fi) (example えば、IEEE802.11a、IEEE802.11b、IEEE802.11g、IEEE802.11n及び/又はIEEE802.11ac)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、eメール用のプロトコル(例えば、インターネットメッセージアクセスプロトコル(IMAP)及び/又はポストオフィスプロトコル(POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(XMPP)、インスタントメッセージング及びプレゼンスイベントパッケージのためのセッション開始プロトコル(SIMPLE)、インスタントメッセージング及びプレゼンスイベントパッケージ(IMPS))及び/又はショートメッセージサービス(SMS)、又 Example, if, IEEE802.11a, IEEE802.11b, IEEE802.11g, IEEE802.11n and / or IEEE802.11ac), Voice over Internet Protocol (VoIP), Wi-MAX, for e-mail protocol (e.g., Internet Message Access Protocol ( IMAP) and / or post office protocol (POP)), instant messaging (e.g., extensible messaging and presence protocol (XMPP), session initiation protocol for instant messaging and presence event package (SIMPLE), instant messaging and presence Events package (IMPS)) and / or short message service (SMS), also 本文書の出願日の時点でまだ開発されていない通信プロトコルを含むその他の好適な通信プロトコルを含むがそれらに限定されない。 Including other suitable communication protocol, including communication protocols not yet developed as of the filing date of this document it is not limited thereto.

オーディオ回路110、スピーカ111及びマイクロフォン113は、ユーザと装置100間の音声インターフェースを提供する。 Audio circuitry 110, speaker 111 and the microphone 113 provide an audio interface between a user and the device 100. オーディオ回路110は、周辺機器インターフェース118から音声データを受信し、音声データを電気信号に変換し、電気信号をスピーカ111に送信する。 Audio circuitry 110 receives audio data from peripherals interface 118, converts the audio data into an electric signal and transmits the electrical signal to the speaker 111. スピーカ111は電気信号を人可聴音波に変換する。 Speaker 111 converts the electrical signal human audible sound waves. オーディオ回路110は、音波からマイクロフォン113によって変換される電気信号も受信する。 Audio circuitry 110 also receives electrical signals converted by microphone 113 from sound waves. オーディオ回路110は、処理用に電気信号を音声データに変換し、音声データを周辺機器インターフェース118に送信する。 Audio circuitry 110, the electrical signal is converted into sound data for processing, and transmits the audio data to the peripherals interface 118. 音声データは、周辺機器インターフェース118によってメモリ102及び/又はRF回路108から検索する及び/又はメモリ102及び/又はRF回路108に送信することができる。 Voice data can be transmitted by the peripheral device interface 118 retrieves from memory 102 and / or RF circuitry 108 and / or memory 102 and / or the RF circuitry 108. いくつかの実施形態では、オーディオ回路110はヘッドセットジャック(例えば、212、図2)を更に含む。 In some embodiments, the audio circuitry 110 also includes a headset jack (e.g., 212, Figure 2). ヘッドセットジャックは、オーディオ回路110と、着脱可能音声入出力周辺装置、例えば、出力専用ヘッドフォン又は出力(例えば、片耳又は両耳用ヘッドフォン)及び入力(例えば、マイクロフォン)の両方を有するヘッドセットとの間のインターフェースを提供する。 Headset jack, an audio circuit 110, a removable audio input and output peripherals, for example, output-only headphones or output (e.g., one ear or both ears headphone) and input (e.g., a microphone) of the headset with both It provides an interface between.

I/Oサブシステム106は、装置100上の入出力周辺装置、例えばタッチスクリーン112及びその他の入力制御装置116を周辺機器インターフェース118に接続する。 I / O subsystem 106 couples input and output peripherals on the device 100, for example, a touch screen 112 and other input control devices 116 to peripheral interface 118. I/Oサブシステム106は、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161及びその他の他の入力又は制御装置用の1つ以上の入力コントローラ160を任意選択的に含む。 I / O subsystem 106 includes a display controller 156, optical sensor controller 158, the intensity sensor controller 159, a haptic feedback controller 161 and one or more input controllers 160 for other other input or control devices optionally . 1つ以上の入力コントローラ160は他の入力制御装置116との間で電気信号を受信/送信する。 One or more input controllers 160 receive / send electrical signals to and from the other input control devices 116. 他の入力制御装置116は、物理的ボタン(例えば、プッシュボタン、ロッカボタン等)、ダイアル、スライダスイッチ、ジョイスティック及びクリックホイール等を任意選択的に含む。 Other input control device 116, physical buttons (e.g., push buttons, rocker buttons, etc.), dials, slider switches, including joysticks and click wheel etc. optionally. 他のいくつかの実施形態では、入力コントローラ160は、キーボード、赤外線ポート並びにUSBポート及びマウス等のポインタ装置のいずれかに任意選択的に接続される(又はいずれにも接続されない)。 In some other embodiments, input controller 160, a keyboard (not connected to any or) are optionally connected to one of the pointer device such as an infrared port and a USB port, and a mouse. 1つ以上のボタン(例えば、208、図2)は、スピーカ111及び/又はマイクロフォン113の音量コントロール用のアップ/ダウンボタンを任意選択的に含む。 One or more buttons (e.g., 208, FIG. 2) includes an up / down button for volume control of speaker 111 and / or microphone 113 optionally. 1つ以上のボタンは、プッシュボタン(例えば、206、図2)を任意選択的に含む。 One or more buttons, push buttons (e.g., 206, FIG. 2) including optionally.

2005年12月23日に提出された米国特許出願第11/322,549号、米国特許第7,657,849号の「Unlocking a Device by Performing Gestures on an Unlock Image」に記載されるように、プッシュボタンを素早く押圧することで、タッチスクリーン112のロックを解除する、あるいはタッチスクリーン上のジェスチャを使用して装置のロックを解除する処理を開始することができ、上記出願は全体が本願に援用される。 Filed on December 23, 2005 the US patent application Ser. No. 11 / 322,549, as described in US Pat. No. 7,657,849 "Unlocking a Device by Performing Gestures on an Unlock Image", by quickly pressing the push button, to unlock the touch screen 112, or a touch screen on using gestures can start the process of unlocking the device, the application is entirely incorporated herein It is. プッシュボタン(例えば、206)を長く押圧することで、装置100への電源をオン及びオフすることができる。 Push button (e.g., 206) by long pressing, can be turned on and off the power to the device 100. ユーザは、任意の1つ以上のボタンの機能をカスタマイズすることができる。 The user can customize the functions of any one or more buttons. タッチスクリーン112は、仮想又はソフトボタン及び1つ以上のソフトキーボードを実装するように使用される。 Touch screen 112 is used to implement virtual or soft buttons and one or more soft keyboard.

タッチ感知ディスプレイ112は、装置とユーザ間に入力インターフェース及び出力インターフェースを提供する。 The touch-sensitive display 112 provides an input interface and an output interface between the device and the user. ディスプレイコントローラ156は、タッチスクリーン112との間で電気信号を受信及び/又は送信する。 The display controller 156 receives and / or sends electrical signals between the touch screen 112. タッチスクリーン112は、ユーザに対して視覚出力を表示する。 Touch screen 112 displays visual output to the user. 視覚出力は、画像、文字、アイコン、映像及びそれらの組み合わせ(まとめて「画像」と称する)を含むことができる。 Visual output, image, text, icons, video, and combinations thereof (collectively referred to as "image") may include. いくつかの実施形態では、視覚出力の一部又は全部は、ユーザインターフェースオブジェクトに対応させてもよい。 In some embodiments, some or all of the visual output may correspond to user interface objects.

タッチスクリーン112は、触覚及び/又は触知接触に基づきユーザから入力を受信するタッチ感知面、センサ又はセンサセットを有する。 Touch screen 112, the touch sensitive surface for receiving an input from the user based on haptic and / or tactile contact, a sensor or sensor set. タッチスクリーン112及びディスプレイコントローラ156(関連モジュール及び/又はメモリ102内の命令セットと共に)は、タッチスクリーン112への接触(及び接触の移動又は中断)を検出し、検出される接触を、タッチスクリーン112に表示されるユーザインターフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)との双方向作用に変換する。 Touch screen 112 and display controller 156 (along with the instruction set of the associated modules and / or memory 102) detects contact with the touch screen 112 (and the movement or interruption of the contact), the contact is detected, the touch screen 112 user interface object (e.g., one or more soft keys, icons, web pages or images) that are displayed to convert the two-way interaction with. 一例示的実施形態では、タッチスクリーン112とユーザ間の接触点は、ユーザの指に対応する。 In one exemplary embodiment, the point of contact between touch screen 112 and the user corresponds to the user's finger.

タッチスクリーン112はLCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術又はLED(発光ダイオード)技術を使用することができるが、他の実施形態では他のディスプレイ技術を使用してもよい。 Touch screen 112 is LCD (liquid crystal display) technology, although it is possible to use the LPD (light emitting polymer display) technology, or LED (light emitting diode) technology, may use other display technologies in other embodiments. タッチスクリーン112及びディスプレイコントローラ156は、容量性、抵抗、赤外線及び表面弾性波技術、並びにその他の近接センサアレイ又はタッチスクリーン112との1つ以上の接触点を判定するその他の要素を含むがそれらに限定されない、現在既知である又は今後開発される複数のタッチ感知技術のうちのいずれかを用いて接触及びその移動又は中断を検出することができる。 Touch screen 112 and display controller 156, capacitive, resistive, infrared, and surface acoustic wave technologies, as well as including other elements determining one or more points of contact with other proximity sensor arrays or touch screen 112 in their without limitation, it is possible to detect the contact and movement or break using any of a plurality of touch sensing technologies that are located or later developed currently known. 一例示的実施形態では、カリフォルニア州クパチーノのApple Inc. In one exemplary embodiment, of Cupertino, California Apple Inc. 製iPhone(登録商標)及びiPod Touch(登録商標)に見られるような投影型相互静電容量感知技術が使用される。 Ltd. iPhone (TM) and iPod Touch (R) to found such a projection-type mutual capacitance sensing technology is used.

タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、米国特許第6,323,846号(Westerman et al.)、同第6,570,557号(Westerman et al.)及び/又は同第6,677,932号(Westerman)及び/又は米国特許出願公開第2002/0015024(A1)号に記載されるマルチタッチ感知式タッチパッドと類似していてもよい。 Touch-sensitive display in some embodiments of the touch screen 112, U.S. Pat. No. 6,323,846 (Westerman et al.), The No. 6,570,557 (Westerman et al.) And / or the second 6,677,932 No. (Westerman), and / or U.S. Patent application Publication No. 2002/0015024 (A1) may be similar to the multi-touch-sensitive touch pads described in US. これらの出願はそれぞれ全体が本願に援用される。 Overall these applications each of which is incorporated herein. しかしながら、タッチスクリーン112は装置100からの視覚出力を表示する一方、タッチ感知式タッチパッドは視覚出力を提供しない。 However, while the touch screen 112 for displaying a visual output from the device 100, the touch-sensitive touch pad does not provide visual output.

タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、(1)2006年5月2日に提出された米国特許出願第11/381,313号の「Multipoint Touch Surface Controller」、(2)2004年5月6日に提出された米国特許出願第10/840,862号の「Multipoint Touch Screen」、(3)2004年7月30日に提出された米国特許出願第10/903,964号の「Gestures for Touch Sensitive Input Devices」、(4)2005年1月31日に提出された米国特許出願第11/048,264号の「Gestures For Touch Sensitive Input Devices」、( Touch-sensitive display in some embodiments of the touch screen 112, (1) U.S. Patent Application No. 11 / 381,313, filed May 2, 2006 "Multipoint Touch Surface Controller," (2) 2004 of the year May 6, submitted to the US patent application Ser. No. 10 / 840,862, "Multipoint Touch Screen" (3) has been of US patent application Ser. No. 10 / 903,964 filed on July 30, 2004 "Gestures for Touch Sensitive Input Devices", (4) was filed on January 31, 2005, US patent application Ser. No. 11 / 048,264, "Gestures for Touch Sensitive Input Devices", ( )2005年1月18日に提出された米国特許出願第11/038,590号の「Mode−Based Graphical User Interface For Touch Sensitive Input Devices」、(6)2005年9月16日に提出された米国特許出願第11/228,758号の「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日に提出された米国特許出願第11/228,700号の「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日に提出された米国特許出願第11/228,737号の「Acti ) Filed on January 18, 2005 the US patent application Ser. No. 11 / 038,590 issue of "Mode-Based Graphical User Interface For Touch Sensitive Input Devices", the United States, which has been submitted to (6) September 16, 2005 patent application Ser. No. 11 / 228,758 issue of "Virtual Input Device Placement on a Touch Screen User Interface", (7) was filed on September 16, 2005, US patent application Ser. No. 11 / 228,700, "Operation of a Computer with a Touch Screen Interface ", (8) of US patent application Ser. No. 11 / 228,737, filed on September 16, 2005" Acti ating Virtual Keys Of A Touch−Screen Virtual Keyboard」、及び(9)2006年3月3日に提出された米国特許出願第11/367,749号の「Multi−Functional Hand−Held Device」に記載されるようなディスプレイであってもよい。 It is described in ating Virtual Keys Of A Touch-Screen Virtual Keyboard ", and (9) of US patent application Ser. No. 11 / 367,749, filed on March 3, 2006" Multi-Functional Hand-Held Device " it may be a display such as. これらの出願は全て全体が本願に援用される。 These applications are across all are incorporated herein.

タッチスクリーン112は、100dpiを超える映像解像度を有することができる。 Touch screen 112 may have a video resolution in excess of 100 dpi. いくつかの実施形態では、タッチスクリーンは、約160dpiの映像解像度を有する。 In some embodiments, the touch screen has a video resolution of approximately 160 dpi. ユーザは、スタイラス、指等の任意の好適なオブジェクト又は付属物を用いてタッチスクリーン112と接触することができる。 The user may contact the touch screen 112 by using the stylus, any suitable object or appendage, such as a finger. いくつかの実施形態では、ユーザインターフェースは、主に指による接触及びジェスチャで機能するように設計されており、この場合、タッチスクリーン上の指の接触面積が大きいためにスタイラスベースの入力ほど精密でない可能性がある。 In some embodiments, the user interface is primarily designed to function in contact and gesture by a finger, in this case, not precise enough stylus-based input due to the large contact area of ​​the finger on the touch screen there is a possibility. いくつかの実施形態では、装置は、ユーザによって望ましいアクションを実行するために、粗い指入力を精密なポインタ/カーソル位置又はコマンドに変換する。 In some embodiments, the device, in order to perform an action desired by the user, converts the coarse finger input to a precise pointer / cursor position or command.

いくつかの実施形態では、タッチスクリーンに加えて、装置100は、特定の機能をアクティブ又は非アクティブにするタッチパッド(図示せず)を含んでいてもよい。 In some embodiments, in addition to the touch screen, device 100 may include a touch pad to activate or deactivate a particular function (not shown). いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない装置のタッチ感知式エリアである。 In some embodiments, the touchpad, unlike the touch screen, a touch-sensitive area of ​​the device that does not display visual output. タッチパッドは、タッチスクリーン112とは別個のタッチ感知面又はタッチスクリーンによって形成されるタッチ感知面の拡張部であってもよい。 The touchpad may be extension of the touch-sensitive surface formed by a separate touch sensitive surface or touch screen and the touch screen 112.

装置100は、各種構成要素に電力を供給する電力システム162を更に含む。 Apparatus 100 further includes a power system 162 supplies power to various components. 電力システム162は、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、充電システム、電源障害検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))及びポータブル装置における電力の生成、管理及び分配と関連付けられるその他任意の構成要素を含んでいてもよい。 Power system 162 includes a power management system, one or more power sources (e.g., battery, alternating current (AC)), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator (e.g., a light emitting diode (LED)) and power generation of the portable device may include any other components associated with the management and distribution.

装置100は、1つ以上の光学センサ164も含むことができる。 Device 100 may also include one or more optical sensors 164. 図1Aは、I/Oサブシステム106の光センサコントローラ158に接続される光学センサを示す。 1A shows an optical sensor connected to an optical sensor controller 158 in I / O subsystem 106. 光学センサ164は、電荷結合装置(CCD)又は相補的金属酸化物半導体(CMOS)フォトトランジスタを含んでいてもよい。 The optical sensor 164 may include a charge coupled device (CCD) or complementary metal oxide semiconductor (CMOS) phototransistors. 光学センサ164は1つ以上のレンズを介して投射される光を受け取り、その光を、画像を表すデータに変換する。 The optical sensor 164 receives light projected through one or more lenses, the light is converted into data representing the image. 撮像モジュール143(カメラモジュールとも称する)と連携して、光学センサ164は、静止画像又は映像を補足する。 In conjunction with imaging module 143 (also a camera module referred to), the optical sensor 164 supplements the still image or video. いくつかの実施形態では、光学センサは、タッチスクリーンディスプレイを静止画像及び/又は映像取得用のビューファインダとして使用できるように、装置の表側のタッチスクリーンディスプレイ112と反対側で装置100の裏側に配置される。 In some embodiments, the optical sensor is arranged a touch screen display still images and / or for use as a viewfinder for image acquisition, the back side of the device 100 opposite the front side of the touch screen display 112 of the device It is. いくつかの実施形態では、光学センサは、タッチスクリーンディスプレイで他のテレビ会議参加者を見ている間、映像会議用にユーザの画像を取得できるように、装置の表側に配置される。 In some embodiments, the optical sensor, while watching another video conference participants on the touch screen display, so that it can acquire the image of the user to the video conference, are arranged on the front side of the apparatus. いくつかの実施形態では、光学センサ164の位置は、映像会議用並びに静止画像及び/又は映像取得用のタッチスクリーンディスプレイと共に単独の光学センサ164を使用することができるように、(例えば、装置筐体内のレンズ及びセンサを回転させることを用いて)ユーザが変更することができる。 In some embodiments, the position of the optical sensor 164, so that it can be used a single optical sensor 164 with a touch-screen display of the video conferencing, as well as still images and / or video for acquisition, (e.g., device housing with rotating the lens and the sensor in the body) can be changed by the user.

装置100は、1つ以上の接触強度センサ165を任意選択的に更に含む。 Device 100 further includes one or more contact intensity sensor 165 optionally. 図1Aは、I/Oサブシステム106の強度センサコントローラ159に接続される接触強度センサを示す。 1A shows a contact intensity sensor connected to the intensity sensor controller 159 in the I / O subsystem 106. 接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、容量性力センサ、電気力センサ、圧電力センサ、光力センサ、容量性タッチ感知面又はその他の強度センサ(例えば、タッチ感知面上への接触の力(又は圧力)を測定するために使用されるセンサ)を任意選択的に含む。 Contact intensity sensor 165, one or more piezoresistive strain gauges, capacitive force sensors, electric force sensor, a piezoelectric force sensor, an optical power sensor, a capacitive touch-sensitive surface or other intensity sensors (e.g., the touch sensitive surface on including the force of contact (or pressure) sensor used to measure) optionally. 接触強度センサ165は、環境から接触強度情報(例えば、圧力情報又は圧力情報の代理)を受信する。 Contact intensity sensor 165 receives the contact strength information (e.g., a proxy for the pressure information or pressure information) from the environment. いくつかの実施形態では、少なくとも1つの接触強度センサが、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に連結される、又は近接する。 In some embodiments, the at least one contact intensity sensor, the touch sensitive surface (e.g., touch-sensitive display system 112) is coupled to, or close. いくつかの実施形態では、少なくとも1つの接触強度センサが、装置100の表側に配置されるタッチスクリーンディスプレイ112の反対側で、装置100の裏側に配置される。 In some embodiments, the at least one contact intensity sensor is on the opposite side of the touch screen display 112 disposed on the front side of the device 100, is arranged on the back side of the device 100.

装置100は、1つ以上の近接センサ166を更に含んでもよい。 Apparatus 100 may further include one or more proximity sensors 166. 図1Aは、周辺機器インターフェース118に接続される近接センサ166を示す。 Figure 1A shows a proximity sensor 166 which is connected to the peripheral interface 118. あるいは、近接センサ166は、I/Oサブシステム106の入力コントローラ160に接続させてもよい。 Alternatively, the proximity sensor 166 may be connected to the input controller 160 of the I / O subsystem 106. 近接センサ166は、米国特許出願第11/241,839号の「Proximity Detector In Handheld Device」、同第11/240,788号、「Proximity Detector In Handheld Device」;同第11/620,702号の「Using Ambient Light Sensor To Augment Proximity Sensor Output」;同第11/586,862号の「Automated Response Of User Activity In Portable Devices」、及び同第11/638,251号の「Methods And Systems For Automatic Configuration Of Peripherals」 Proximity sensors 166, U.S. Patent Application No. 11 / 241,839, "Proximity Detector In Handheld Device", the No. 11 / 240,788, "Proximity Detector In Handheld Device"; the same No. 11 / 620,702 "Using Ambient Light Sensor to Augment Proximity Sensor Output"; the 11 / 586,862 No. of "Automated Response of User Activity in Portable Devices", and the same No. 11 / 638,251, "Methods and Systems for Automatic Configuration of Peripherals " 記載されるように実行することができ、これらの出願は全体が本願に援用される。 Can be performed as described, these applications entirety is incorporated herein. いくつかの実施形態では、多機能装置がユーザの耳の近傍に位置するとき(例えば、ユーザが電話をしているとき)、近接センサはタッチスクリーン112をオフにして使用不能にする。 In some embodiments, when the multifunction device is positioned near the user's ear (e.g., when the user is to call), the proximity sensor is disabled by turning off the touch screen 112.

装置100は、1つ以上の触知出力生成器167を任意選択的に更に含む。 Device 100 further includes one or more tactile output generator 167 optionally. 図1Aは、I/Oサブシステム106の触覚フィードバックコントローラ161に接続される触知出力生成器を示す。 Figure 1A shows a tactile output generator connected to the haptic feedback controller 161 of the I / O subsystem 106. 触知出力生成器167は、エネルギーを直線状の運動に変換する1つ以上の電気音響装置等のスピーカ又はオーディオコンポーネント及び/又は電気機械装置、例えば、モータ、ソレノイド、電気的活性ポリマー、圧電アクチュエータ、静電アクチュエータ又は構成要素を生成するその他の触知出力(例えば、電気信号を装置上の触知出力に変換する構成要素)を任意選択的に含む。 Tactile output generator 167, energy linear speaker or audio components, such as one or more electro-acoustic device for converting the movement and / or electromechanical devices, e.g., a motor, a solenoid, electrically active polymers, piezoelectric actuator other tactile output generating an electrostatic actuator or components (e.g., components that convert electrical signals into tactile output on the device) the optionally containing. 接触強度センサ165は、触覚フィードバックモジュール133から触覚的フィードバック生成命令を受信し、装置100のユーザによって検出可能な装置100上の触知出力を生成する。 Contact intensity sensor 165 receives a tactile feedback generation instruction from the tactile feedback module 133, generates a tactile output on locatable device 100 by a user of the device 100. いくつかの実施形態では、少なくとも1つの触知出力生成器はタッチ感知面(例えば、タッチ感知ディスプレイシステム112)と連結され、又は近接し、タッチ感知面を垂直に(例えば、装置100の表面を出入りして)又は水平に(例えば、装置100の表面と同じ面で前後に)移動させることによって触知出力を任意選択的に生成する。 In some embodiments, the at least one tactile output generator touch sensitive surface (e.g., touch-sensitive display system 112) is connected to the, or near, the touch sensitive surface vertically (e.g., the surface of the device 100 out with) or horizontally (e.g., back and forth in the same plane as the surface of the device 100) optionally generating intellectual output touch by moving. いくつかの実施形態では、少なくとも1つの触知出力生成センサが、装置100の表側に配置されるタッチスクリーンディスプレイ112の反対側で、装置100の裏側に配置される。 In some embodiments, the at least one tactile output generating sensor, opposite the touch screen display 112 disposed on the front side of the device 100, is arranged on the back side of the device 100.

装置100は、1つ以上の加速度計168を更に含んでいてもよい。 Apparatus 100 may further include one or more accelerometers 168. 図1Aは、周辺機器インターフェース118に接続される加速度計168を示す。 Figure 1A illustrates an accelerometer 168 that is connected to the peripheral interface 118. あるいは、加速度計168は、I/Oサブシステム106の入力コントローラ160に接続させてもよい。 Alternatively, the accelerometer 168 may be coupled to input controller 160 of the I / O subsystem 106. 加速度計168は、米国特許出願公開第20050190059号の「Acceleration−based Theft Detection System for Portable Electronic Devices」及び米国特許出願公開第20060017692号の「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されるように実行することができ、両出願とも全体が本願に援用される。 Accelerometer 168 is described in "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer," U.S. Patent Application Publication No. of No. 20050190059 "Acceleration-based Theft Detection System for Portable Electronic Devices," and U.S. Patent Application Publication No. 20060017692 It can be performed as a whole both applications are incorporated herein. いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの解析に基づき、人物ビュー又は風景ビューでタッチスクリーンディスプレイ上に表示される。 In some embodiments, the information is based on analysis of data received from one or more accelerometers, is displayed on the touch screen display in a person view or landscape view. 装置100は、装置100の場所及び向きに関する情報(例えば、人物又は風景を取得するため、加速度計168に加えて、磁気計(図示せず)及びGPS(又はGLONASS又はその他のグローバルナビゲーションシステム)受信機(図示せず)を任意選択的に含む。 Apparatus 100, information about the location and orientation of the device 100 (e.g., to get the person or scenery, in addition to accelerometer 168, magnetometers (not shown) and GPS (or GLONASS or other global navigation system) receiver including machine (not shown) optionally.

いくつかの実施形態では、メモリ102に記憶されるソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(GPS)モジュール(又は命令セット)135及びアプリケーション(又は命令のセット)136を含む。 In some embodiments, the software components stored in memory 102, operating system 126, communication module (or set of instructions) 128, contact / motion module (or set of instructions) 130, graphics module (or set of instructions) 132 , including text input module (or set of instructions) 134, global positioning system (GPS) module (or set of instructions) 135, and applications (or set of instructions) 136. 更に、いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、図1A及び3に示すように装置/グローバル内部状態157を記憶する。 Further, in some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) stores device / global internal state 157, as shown in FIGS. 1A and 3. 装置/グローバル内部状態157は、どのアプリケーションがもしあれば現在アクティブであるかを示すアクティブアプリケーション状態と、どのアプリケーション、ビュー又はその他の情報がタッチスクリーンディスプレイ112の各種領域を占めるかを示すディスプレイ状態と、装置の各種センサ及び入力制御装置116から取得される情報を示すセンサ状態と、装置の場所及び/又は姿勢に関する場所情報と、のうちの1つ以上を含む。 Device / global internal state 157, an active application state indicating which application is currently active, if any, which applications, a display state indicating whether views or other information occupy various regions of touch screen display 112 includes a sensor status indicating information obtained from the various sensors and input control devices 116 of the apparatus, the location information on the location and / or orientation of the device, one or more of the.

オペレーティングシステム126(例えば、Darwin、RTXC、LINUX、UniX、OS X、iOS、Windows又はVxWorks等の埋込みオペレーティングシステム)は、一般的システムタスク(例えば、メモリ管理、記憶装置制御、電力管理等)を制御及び管理する各種ソフトウェア構成要素及び/又はドライバを含み、各種ハードウェアとソフトウェア構成要素間の通信を簡易化する。 Operating system 126 (e.g., Darwin, RTXC, LINUX, UniX, OS X, iOS, embedded operating system such as Windows or VxWorks) can control the general system tasks (e.g., memory management, storage device control, power management, etc.) and it includes various software components and / or drivers to manage, to simplify communications between the various hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介した他の装置との通信を簡易化し、RF回路108及び/又は外部ポート124によって受信されるデータを扱う各種ソフトウェア構成要素を更に含む。 Communication module 128 to communicate with other devices via one or more external ports 124 simplify further includes various software components to handle data that is received by the RF circuitry 108 and / or external port 124. 外部ポート124(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE等)は、他の装置との直接接続又はネットワーク(例えば、インターネット、無線LAN等)を介した間接的接続に適応させる。 External port 124 (e.g., Universal Serial Bus (USB), FIREWIRE, etc.) is directly connected or network with another device (e.g., the Internet, wireless LAN, etc.) to accommodate an indirect connection via. いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)装置で使用される30ピンコネクタと同一である又は類似する及び/又は互換性を有するマルチピン(例えば、30ピン)コネクタである。 In some embodiments, the external port, iPod (registered trademark) (Apple Inc. trademark) are the same 30-pin connector for use in the apparatus or similar and / or multi-pin having a compatible (e.g., 30 pin) is a connector.

接触/動きモジュール130は、タッチスクリーン112(ディスプレイコントローラ156と連携して)及び他のタッチ感知式装置(例えば、タッチパッド又は物理的クリックホイール)との接触を任意選択的に検出する。 Contact / motion module 130 (in conjunction with display controller 156) touch screen 112 and other touch sensitive devices (e.g., a touchpad or physical click wheel) to optionally detect contact with. 接触/動きモジュール130は、接触の検出に関連する様々な動作、例えば、接触が発生したか否かの判定(例えば、指ダウンイベントの検出)、接触強度(例えば、接触の力又は圧力若しくは接触の力又は圧力の代替)の判定、接触の移動に関する判定及びタッチ感知面上の移動の追跡(例えば、1つ以上の指ドラッグイベントの検出)及び接触が中止されたか否かの判定(例えば、指アップイベント又は接触の中断の検出)を実行する各種ソフトウェア構成要素を含む。 Contact / motion module 130, various operations related to detection of contact, for example, determining whether contact has occurred (e.g., detecting a finger-down event), the contact strength (e.g., the force of contact or pressure or contact determination of the force or alternative pressure), determining and tracking the movement on the touch sensitive surface (e.g., detection of one or more fingers drag event) whether and contact was aborted determination as to movement of the contact (e.g., It includes various software components that perform detection) of interruption of the finger-up event or contact. 接触/動きモジュール130は、タッチ感知面から接触データを受信する。 Contact / motion module 130 receives contact data from the touch sensitive surface. 一連の接触データによって表される接触点の移動の判定は、接触点の速度(大きさ)、速度(大きさ及び方向)及び/又は加速度(大きさ及び/又は方向の変更)の判定を任意選択的に含む。 Determination of the movement of the contact point, which is represented by a set of contact data, the speed of the contact point (size), any determination of the velocity (magnitude and direction) and / or acceleration (magnitude and / or direction of change) optionally includes. これらの動作は、単独の接触(例えば、1回の指接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指接触)に任意選択的に適用される。 These operations, contact alone (e.g., one finger touch) or multiple simultaneous contacts (e.g., "multitouch" / multiple finger contacts) are optionally applied. いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156はタッチパッドの接触を検出する。 In some embodiments, the contact / motion module 130 and display controller 156 detects contact of the touch pad.

いくつかの実施形態では、接触/動きモジュール130は、1つ以上の強度閾値のセットを使用して、動作がユーザによって実行されたか否かを判定する(例えば、ユーザがアイコンを「クリックした」か否かを判定する)。 In some embodiments, the contact / motion module 130 may use a set of one or more intensity threshold, operation determines whether it is performed by the user (e.g., user "clicks" on the icon or it determines whether or not). いくつかの実施形態では、少なくとも強度閾値のサブセットがソフトウェアパラメータに応じて判定される(例えば、強度閾値は特定の物理的アクチュエータのアクティブ化閾値によって判定されず、装置100の物理的ハードウェアを変更せずに調節することができる)。 In some embodiments, at least a subset of the intensity threshold is determined depending on the software parameters (e.g., intensity threshold is not determined by the activation threshold of the particular physical actuators, modify the physical hardware device 100 it can be adjusted without). 例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変更せずに、広い範囲の規定閾値内のいずれかの値に設定することができる。 For example, a mouse "click" threshold trackpad or touchscreen display, without changing the trackpad or touchscreen display hardware can be set to any value within a specified threshold of a wide range. また、いくつかの実施例では、装置のユーザには、(例えば、個々の強度閾値を調整する、及び/又はシステム−レベルクリック「強度」パラメータで一度に複数の強度閾値を調整することを用いて)強度閾値セットのうちの1つ以上を調整するソフトウェア設定が提供される。 Further, in some embodiments, the user of the device, (e.g., adjusting the individual intensity threshold, and / or system - with adjusting the level click "intensity" parameter in the plurality of intensity threshold at a time one or more of Te) intensity threshold set to adjust the software configuration is provided.

接触/動きモジュール130は、ユーザによって入力されるジェスチャを任意選択的に検出する。 Contact / motion module 130 may detect a gesture input by a user optionally. タッチ感知面上のジェスチャが異なれば、接触パターンが異なる(例えば、動作、タイミング及び/又は検出される接触強度が異なる)。 Different gestures on the touch-sensitive surface, the contact pattern is different (e.g., operation timing and / or the detected contact different intensities). よって、ジェスチャは、特定の接触パターンを検出することによって任意選択的に検出される。 Thus, the gesture is detected optionally by detecting a particular contact pattern. 例えば、指タップジェスチャの検出は、指ダウンイベント(例えば、アイコンの位置)と同じ位置(又は略同じ位置)で指アップ(上昇)イベントを検出することを含む。 For example, detection of a finger tap gesture includes detecting a finger-up (rising) event with a finger-down event (e.g., position of the icon) the same position (or substantially same position). 他の例として、タッチ感知面上の指スワイプジェスチャの検出は、指ダウンイベントの検出と、その後の1つ以上の指ドラッグイベントの検出及びその後の指アップ(リフトオフ)イベントの検出を含む。 As another example, detecting a finger swipe gesture on the touch-sensitive surface includes a detection of a finger down event, the detection and subsequent detection of the finger-up (lift off) event subsequent one or more fingers drag event.

グラフィックモジュール132は、表示される画像の視覚的影響(例えば、輝度、透明度、彩度、コントラスト又は他の視覚的特性)を変更する構成要素を含め、タッチスクリーン112又はその他のディスプレイ上に画像をレンダリング及び表示する様々な既知のソフトウェア構成要素を含む。 Graphics module 132, visual impact of the image to be displayed (e.g., brightness, transparency, color saturation, contrast or other visual characteristic) including components for changing the, the image on the touch screen 112 or other on the display It includes various known software components for rendering and display. 本文書で使用される場合、「画像」という文言は、文字、ウェブページ、アイコン(例えば、ソフトキーを含むユーザインターフェースオブジェクト)、デジタル画像、映像、アニメーション等を制限なく含め、ユーザに表示することのできるオブジェクトを含む。 As used in this document, the phrase "image", character, web pages, icons (e.g., a user interface object including soft keys), including without limitation a digital image, video, animation, etc., to be displayed to the user including an object that can be of.

いくつかの実施形態では、グラフィックモジュール132は使用される画像を表すデータを記憶する。 In some embodiments, storing data representing an image graphic module 132 is used. 各画像には、対応するコードが任意選択的に指定される。 Each image, the corresponding code is specified optionally. グラフィックモジュール132は、必要に応じて座標データ及びその他の画像特性データと共に表示される画像を明示する1つ以上のコードをアプリケーション等から受信した後、スクリーン画像データを生成して、ディスプレイコントローラ156に出力する。 Graphics module 132, after receiving one or more code demonstrates an image from an application or the like to be displayed with the coordinate data and other image characteristics data as needed to generate a screen image data, the display controller 156 Output.

触覚フィードバックモジュール133は、装置100とのユーザ対話に応答して、装置100の1つ以上の場所で触知出力を生成する触知出力生成器167によって使用されて、命令を生成する各種ソフトウェア構成要素を含む。 Haptic feedback module 133 in response to user interaction with the device 100, is used by tactile output generator 167 which generates a tactile output in one or more locations of the device 100, various software configuration for generating an instruction containing the elements.

テキスト入力モジュール134は、グラフィックモジュール132の構成要素であってもよく、各種アプリケーション(例えば、連絡先137、eメール140、IM141、ブラウザ147及び文字入力を必要とする任意の他のアプリケーション)に文字を入力するソフトキーボードを提供する。 Text input module 134 may be a component of graphics module 132, text in various applications (e.g., contacts 137, e-mail 140, IM141, any other application that requires a browser 147 and a character input) to provide a soft keyboard to enter.

GPSモジュール135は、装置の場所を判定し、各種アプリケーションで使用されるようにこの情報を(例えば、場所ベースのダイアル呼出しで使用される電話138に、写真/映像メタデータとしてカメラ143に、及び天候ウィジェット、ローカルイエローページウィジェット及び地図/ナビゲーションウィジェット等の場所ベースのサービスを提供するアプリケーションに)提供する。 GPS module 135 determines the location of the device, the information to be used in various applications (e.g., to telephone 138 for use in location-based dialing, to camera 143 as a photographic / video metadata, and weather widget, the application that provides the local yellow page widgets, and location-based services, such as map / navigation widgets) to provide.

アプリケーション136は、以下のモジュール(又は命令セット)、あるいはそのサブセット又はスーパーセットを含んでいてもよい。 Application 136, the following modules (or a set of instructions), or may include a subset or superset.
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある) ● contacts module 137 (sometimes referred to as an address book or contact list)
●電気通信モジュール138 ● electrical communication module 138
●テレビ会議モジュール139 ● TV conference module 139
●電子メールクライアントモジュール140 ● e-mail client module 140
●インスタントメッセージング(IM)モジュール141 ● Instant messaging (IM) module 141
●トレーニングサポートモジュール142 ● Training Support module 142
●静止画像及び/又は動画用のカメラモジュール143 ● still image and / or a camera module 143 for moving
●画像管理モジュール144 ● image management module 144
●映像再生装置モジュール ●音楽プレーヤモジュール ●ブラウザモジュール147 ● video playback device module ● music player module ● browser module 147
●カレンダモジュール148 ● calendar module 148
●天候ウィジェット149−1、株式ウィジェット149−2、計算機ウィジェット149−3、アラームクロックウィジェット149−4、辞書ウィジェット149−5及びユーザによって取得される他のウィジェット、並びにユーザ作成ウィジェット149−6、のうちの1つ以上を含むことができるウィジェットモジュール149 ● weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, other widgets to be acquired by the dictionary widget 149-5 and user, as well as user-created widget 149-6, of widget modules 149, which may include one or more of which
●ユーザ作成ウィジェット149−6を作成するウィジェットクリエータモジュール150 ● widget creator module 150 to create a user-created widget 149-6
●検索モジュール151 ● search module 151
●映像再生装置モジュールと音楽プレーヤモジュールとを融合する映像及び音楽プレーヤモジュール152 ● Video and music player module 152 to fuse the image reproducing device module and music player module
●メモモジュール153 ● Note module 153
●地図モジュール154、及び/又は ●オンラインビデオモジュール155 ● map module 154, and / or ● online video module 155

メモリ102に記憶することのできる他のアプリケーション136は例えば、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA対応アプリケーション、暗号化、デジタル著作権管理、音声認識及び音声再現である。 Other applications 136 that may be stored in memory 102, for example, other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA-enabled applications, encryption, digital rights management, voice recognition and speech reproduction it is.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、連絡先モジュール137を使用して、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレス帳又は連絡先リストを管理することができ、例えば、アドレス帳に名前を追加する、アドレス帳から名前を削除する、電話番号、eメールアドレス、物理的アドレス又はその他の情報と名前とを関連付ける、画像と名前とを関連付ける、名前を分類及びソートする、電話138、テレビ会議モジュール139、eメール140又はIM141等による通信を開始及び/又は簡易化するように電話番号 Touch screen 112, display controller 156, contact / motion module 130, in conjunction with the graphics module 132, and text input module 134, using the contact module 137, (e.g., contact module of the memory 102 or in memory 370 137 of is stored in the application internal state 192) can be used to manage an address book or contact list, for example, to add a name to the address book, to remove the name from the address book, phone number, e-mail address, physical correlating the address or other information and names, associating the image and name, classify and sort the names, telephone 138, to initiate and / or simplify the communication by video conference module 139, e-mail 140 or IM141 etc. phone number to はeメールアドレスを提供することができる。 It can provide the e-mail address.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、電気通信モジュール138を使用して、電話番号に対応する一続きの文字を入力し、連絡先モジュール137内の1つ以上の電話番号にアクセスし、入力した電話番号を修正し、対応する電話番号にダイアルし、会話を実行し、会話が終了したときは電話を中断又は切断することができる。 RF circuitry 108, audio circuitry 110, speaker 111, microphone 113, touch screen 112, display controller 156, contact / motion module 130, in conjunction with the graphics module 132, and text input module 134, using the telecommunications module 138, enter a sequence of characters corresponding to a telephone number, access one or more telephone numbers in the contact module 137, modify the phone number you entered, and dial the corresponding telephone number, run the conversation, it can be interrupted or cut a call when the conversation is completed. 上述したように、無線通信は複数の通信規格、プロトコル及び技術のうちのいずれを用いてもよい。 As described above, wireless communication is multiple communication standards may be used any of the protocols and technologies.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光学センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137及び電気通信モジュール138と連携して、テレビ会議モジュール139は、ユーザ命令に応じて、ユーザと1人以上の他の参加者との間のテレビ会議を開始、実行及び終了する実行可能命令を含む。 RF circuitry 108, audio circuitry 110, speaker 111, microphone 113, touch screen 112, display controller 156, optical sensor 164, optical sensor controller 158, contact / motion module 130, graphics module 132, text input module 134, contact module 137 and in conjunction with the telecommunications module 138, videoconferencing module 139, according to a user instruction, starts a video conference between a user and one or more other participants, including executable instructions for execution and termination .

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、電子メールクライアントモジュール140は、ユーザ命令に応答して、eメールを作成、受信及び管理する実行可能命令を含む。 RF circuitry 108, touch screen 112, display controller 156, contact / motion module 130, in conjunction with the graphics module 132, and text input module 134, e-mail client module 140, in response to a user command to create e-mail, It includes executable instructions to receive and manage. 画像管理モジュール144と連携して、電子メールクライアントモジュール140は、カメラモジュール143によって撮影された静止画像又は動画を伴うeメールの作成及び送信を簡易化する。 In conjunction with image management module 144, e-mail client module 140, to simplify the e-mail creation and transmission with captured still images or moving by the camera module 143.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する一続きの入力文字列を修正し、(例えば、電話ベースのインスタントメッセージ用のショートメッセージサービス(SMS)又はマルチメディアメッセージサービス(MMS)プロトコルあるいはインターネットベースのインスタントメッセージ用のXMPP、SIMPLE、又はIMPSを用いて)対応するインスタントメッセージを送信し、インスタントメッセージを受信し、受信したインスタントメッセージを見る実行可能命令を含む。 RF circuitry 108, touch screen 112, display controller 156, contact / motion module 130, in conjunction with the graphics module 132, and text input module 134, the instant messaging module 141, modify the input string a series corresponding to the instant message and, (e.g., phone-based short message service (SMS) or multimedia message service (MMS) protocol or Internet-based XMPP for instant messages for instant messages, SIMPLE, or by using the IMPS) a corresponding instant message transmitted, to receive instant messages, including executable instructions to view instant messages received. いくつかの実施形態では、送信及び/又は受信されるインスタントメッセージは、MMS及び/又は拡張メッセージングサービス(EMS)でサポートされる画像、写真、オーディオファイル、映像ファイル及び/又はその他の添付ファイルを含むことができる。 In some embodiments, instant messages sent and / or received includes an image supported by MMS and / or Extended Messaging Services (EMS), photos, audio files, video files and / or other attachments be able to. 本文書で使用される場合、「インスタントメッセージング」は、電話ベースのメッセージ(例えば、SMS又はMMSを用いて送信されるメッセージ)とインターネットベースのメッセージ(例えば、XMPP、SIMPLE又はIMPSを用いて送信されるメッセージ)の両方を指す。 As used in this document, "instant messaging", the telephone-based messages (e.g., messages sent using SMS or MMS) and Internet-based messages (e.g., sent using XMPP, SIMPLE, or IMPS It refers to both of that message).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154及び音楽プレーヤモジュールと連携して、トレーニングサポートモジュール142は、(例えば、時間、距離及び/又はカロリー燃焼目標を有する)運動トレーニングを作成し、運動トレーニングセンサ(スポーツ装置)と通信し、運動トレーニングセンサデータを受信し、運動トレーニングの監視に使用されるセンサを較正し、運動トレーニング用の音楽を選択及び再生し、運動トレーニングデータを表示、記憶及び送信する実行可能命令を含む。 RF circuitry 108, touch screen 112, display controller 156, contact / motion module 130, graphics module 132, text input module 134, GPS module 135, in conjunction with the map module 154 and music player module, training support module 142 ( for example, time, distance and / or has a caloric burn goal) to create the exercise training, communicates with exercise training sensor (sports devices), receives the exercise training sensor data, calibrate sensors used to monitor exercise training then, select music for exercise training and playing, displaying the exercise training data includes executable instructions for storing and transmitting.

タッチスクリーン112、ディスプレイコントローラ156、光学センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132及び画像管理モジュール144と連携して、カメラモジュール143は、静止画像又は映像(映像スト肢体部を含む)を捕捉し、それらをメモリ102に記憶し、静止画像又は映像の特性を修正する、又はメモリ102から静止画像又は映像を消去する実行可能命令を含む。 Touch screen 112, display controller 156, optical sensor 164, optical sensor controller 158, contact / motion module 130, in conjunction with the graphics module 132, and image management module 144, camera module 143, a still image or video (video strike limb portion to capture the containing), they were stored in the memory 102, modify characteristics of a still image or video, or executable instructions to erase the still image or video from memory 102.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134及びカメラモジュール143と連携して、画像管理モジュール144は、静止画像及び/又は映像をアレンジし、修正し(例えば、編集し)、それ以外の方法で操作し、ラベリングし、削除し、(例えば、デジタルスライドショー又はアルバムで)提示し、記憶する実行可能命令を含む。 Touch screen 112, display controller 156, contact / motion module 130, graphics module 132, in conjunction with the text input module 134, and camera module 143, image management module 144, to arrange the still image and / or video, and correct ( for example, edit), and operated in any other way, labeling, delete, including (for example, a digital slide show or album) presents, executable instructions stored.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、ブラウザモジュール147は、ウェブページ又はその一部、並びにウェブページにリンクされる添付ファイル及びその他のファイルの検索、リンク、受信及び表示を含むユーザ命令に応じて、インターネットをブラウズする実行可能命令を含む。 RF circuitry 108, touch screen 112, display controller 156, contact / motion module 130, in conjunction with the graphics module 132, and text input module 134, the browser module 147 is linked web pages or portions thereof, as well as web pages Search attachments and other files, in response to a user instruction including links, the receiving and display, including executable instructions to browse the Internet.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140及びブラウザモジュール147と連携して、カレンダモジュール148は、ユーザ命令に応じて、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダ入力、仕事リスト等)を作成、表示、修正及び記憶する実行可能命令を含む。 RF circuitry 108, touch screen 112, display controller 156, contact / motion module 130, graphics module 132, text input module 134, in conjunction with the e-mail client module 140, and browser module 147, the calendar module 148, according to a user instruction Te, including data associated with calendars and calendar (e.g., a calendar input job list, etc.) create, display, executable instructions to modify and store.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134及びブラウザモジュール147と連携して、ウィジェットモジュール149は、ユーザによってダウンロード及び使用することのできるミニアプリケーション(例えば、天候ウィジェット149−1、株式ウィジェット149−2、計算機ウィジェット149−3、アラームクロックウィジェット149−4及び辞書ウィジェット149−5)又はユーザによって作成することのできるミニアプリケーション(例えば、ユーザ作成ウィジェット149−6)である。 RF circuitry 108, touch screen 112, display controller 156, contact / motion module 130, graphics module 132, in conjunction with the text input module 134, and browser module 147, widget modules 149, mini that can be downloaded and used by a user application (e.g., weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5) mini-applications that may be created by or user (e.g., user-created it is a widget 149-6). いくつかの実施形態では、ウィジェットは、HTML(ハイパーテキストマークアップ言語)ファイル、CSS(カスケーディングスタイルシート)ファイル及びジャバスクリプトファイルを含む。 Some mosquito Roh embodiment leaf emergence, widget leaf, HTML (hypertext markup language) file, CSS (Cascading Style Sheets) file Oyobi javascript file wo contain. いくつかの実施形態では、ウィジェットは、XML(拡張可能マークアップ言語)ファイル及びジャバスクリプトファイル(例えば、Yahoo!ウィジェット)を含む。 In some embodiments, the widget, including the XML (extensible markup language) files and Java script files (for example, Yahoo! Widgets).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134及びブラウザモジュール147と連携して、ウィジェットクリエータモジュール150を使用して、ユーザはウィジェットを作成することができる(例えば、ウェブページのユーザ指定部分をウィジェットに変える)。 RF circuitry 108, touch screen 112, display controller 156, contact / motion module 130, graphics module 132, in conjunction with the text input module 134, and browser module 147, using the widget creator module 150, the user creates a widget it is possible (for example, changing the user-specified portion of the web page to the widget).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、検索モジュール151は、ユーザ命令に応じて、1つ以上の検索基準(例えば、1つ以上のユーザ特定検索用語)に一致するメモリ102内の文字、音楽、サウンド、画像、映像及び/又はその他のファイルを検索する実行可能命令を含む。 Touch screen 112, display controller 156, contact / motion module 130, in conjunction with the graphics module 132, and text input module 134, search module 151 in response to a user instruction, one or more search criteria (e.g., one or more including user specific search terms) in character memory 102 that match, music, sound, images, executable instructions to search for video and / or other files.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108及びブラウザモジュール147と連携して、映像及び音楽プレーヤモジュール152は、MP3又はAACファイル等の1つ以上のファイルフォーマットに記憶される録音された音楽及びその他のサウンドファイルをユーザにダウンロード及び再生させる実行可能命令、並びに映像を(例えば、タッチスクリーン112又は外部ポート124を介して外部接続されたディスプレイ上に)表示、提示又はその他の方法で再生させる実行可能命令を含む。 Touch screen 112, display controller 156, contact / motion module 130, graphics module 132, audio circuitry 110, in conjunction with a speaker 111, RF circuitry 108 and browser module 147, video and music player module 152, MP3 or AAC files etc. one or more music was recorded file format is stored in and executable to download and play to a user other sound files instructions, as well as an image (e.g., externally connected via the touch screen 112 or external port 124 and on the display) display, including a presentation or regenerating executable instructions in other ways. いくつかの実施形態では、装置100は、iPod(Apple Inc.の商標)等のMP3プレーヤの機能を任意選択的に含む。 In some embodiments, device 100 includes the functions of an MP3 player, such as iPod (trademark of Apple Inc.) optionally.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、メモモジュール153は、ユーザ命令に応じてメモ、仕事リスト等を作成及び管理する実行可能命令を含む。 Touch screen 112, display controller 156, contact / motion module 130, in conjunction with the graphics module 132, and text input module 134, notes module 153 executable instructions to create and manage notes, to work lists, etc. according to a user instruction including.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135及びブラウザモジュール147と連携して、地図モジュール154を使用して、ユーザ命令に応じて、マップ及びマップと関連付けられたデータ(例えば、排出方向、特定の場所又はその近傍の店舗及び該当箇所に関するデータ、並びに他の場所ベースのデータ)を受信、表示、修正及び記憶することができる。 RF circuitry 108, touch screen 112, display controller 156, contact / motion module 130, graphics module 132, in conjunction with the text input module 134, GPS module 135, and browser module 147, using the map module 154, a user command in response, the map and the map and associated data (e.g., discharge direction, the data relating to the store and the appropriate location of a particular location or near, as well as other location-based data) receive, display, be modified and stored it can.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140及びブラウザモジュール147と連携して、オンラインビデオモジュール155は、アクセス、ブラウズ、(例えば、ストリーミング(する)及び/又はダウンロードによる)受信、(例えば、タッチスクリーン又は外部ポート124を介した外部接続ディスプレイ上の)送信、特定のオンライン映像へのリンク付きeメールの送信並びにそれ以外の方法でのH. Touch screen 112, display controller 156, contact / motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108, text input module 134, in conjunction with the e-mail client module 140, and browser module 147, online video module 155, a link access, browse, (e.g., streaming (to) and / or download by) receiving, (for example, on the external connection display through a touch screen or an external port 124) transmits, to a particular online video H. in the e-mail transmission, as well as other methods of per 264等の1つ以上のファイルフォーマットでのオンライン映像の管理をユーザに実行させる命令を含む。 Online video management of one or more file formats 264, such as including the instructions to be executed by the user. いくつかの実施形態では、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用されて、特定のオンライン映像にリンクを送信する。 In some embodiments, rather than e-mail client module 140, the instant messaging module 141 is used to send a link to a particular online video. オンライン映像アプリケーションについては、2007年6月20日に提出された米国特許仮出願第60/936,562号の「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」及び2007年12月31日に提出された米国特許出願第11/968,067号の「Portable Multifunction Device,Method,Graphical User Interface for Playing Online Videos」で更に説明されており、これらの出願の内容は全体が本願に援用される。 For online video applications, 12 May 2007 was submitted on June 20, US Provisional Patent Application No. 60 / 936,562 issue of "Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos," and 2007 31 the submitted day U.S. Patent application No. 11 / 968,067, "Portable Multifunction Device, Method, Graphical User Interface for Playing Online Videos," are further described in, the contents of these applications entirety is incorporated herein that.

上記モジュール及びアプリケーションはそれぞれ、1つ以上の上述の機能及び本願に記載の方法(例えば、コンピュータにより実行される方法及び本願に記載されるその他の情報処理方法)を実行する実行可能命令のセットに対応する。 Each of the above modules and applications, the method according to one or more functions and application described above (e.g., other information processing method described in Method executed and incorporated by a computer) to a set of executable instructions for performing the corresponding. これらのモジュール(例えば、命令セット)は個別のソフトウェアプログラム、手順又はモジュールとして実装される必要はなく、これらのモジュールの各種サブセットは各種実施形態において組み合わせる、又はその他の形で再構成することができる。 These modules (e.g., a set of instructions) need not be implemented as separate software programs, procedures or modules, various subsets of these modules combined in various embodiments, or can be reconstituted with otherwise . 例えば、映像再生装置モジュールと音楽プレーヤモジュールとを、単独のモジュール(例えば、映像及び音楽プレーヤモジュール152、図1A)に組み合わせることができる。 For example, a video playback device module and music player module, a single module (e.g., video and music player module 152, Figure 1A) can be combined into. いくつかの実施形態では、メモリ102は、上述されるモジュール及びデータ構造のサブセットを記憶することができる。 In some embodiments, memory 102 may store a subset of the modules and data structures described above. 更に、メモリ102は、上述されない追加のモジュール及びデータ構造を記憶することもできる。 Further, the memory 102 may also store additional modules and data structures not described above.

いくつかの実施形態では、装置100は、装置上の所定の機能セットの動作がタッチスクリーン及び/又はタッチパッドを介して排他的に実行される装置である。 In some embodiments, apparatus 100, the operation of the predetermined set of functions on the device is a device that runs exclusively through a touch screen and / or a touch pad. タッチスクリーン及び/又はタッチパッドを装置100の動作のための主な入力制御装置として使用することにより、装置100上の物理的な入力制御装置(プッシュボタン、ダイアル、その他等)の数を減らすことができる。 By using as the primary input control device for operation of a touch screen and / or a touch pad device 100, reducing the number of physical input control device on the device 100 (push buttons, dials, etc., etc.) can.

タッチスクリーン及び/又はタッチパッドを介して排他的に実施される所定の機能セットは、ユーザインターフェース間のナビゲーションを任意選択的に含む。 Touch screen and / or a predetermined set of functions to be implemented exclusively through the touch pad includes navigation between user interfaces optionally. いくつかの実施形態では、ユーザがタッチパッドに触れると、タッチパッドが、装置100上に表示されている任意のユーザインターフェースからメイン、ホーム、ルートメニューへ装置100をナビゲートする。 In some embodiments, when the user touches the touch pad, the touch pad, the main from any user interface that is displayed on the device 100, the home, the apparatus 100 to navigate to the root menu. このような実施形態では、「メニューボタン」はタッチパッドを使用して実現される。 In such embodiments, "Menu button" is implemented using a touch pad. その他のいくつかの実施形態では、メニューボタンはタッチパッドではなく、物理的なプッシュボタン又はその他の物理的な入力制御装置である。 In some other embodiments, the menu button is not a touch pad, a physical push button or other physical input control device.

図1Bは、いくつかの実施形態による例示的なイベント処理のためのコンポーネントを示すブロック図である。 Figure 1B is a block diagram showing the components for an exemplary event handling in accordance with some embodiments. いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)及びそれぞれのアプリケーション136−1(例えば、前述のアプリケーション137−151、155、380−390)のいずれかを含む。 In some embodiments, the memory 102 (FIG. 1A) or 370 (FIG. 3), the event sorter 170 (e.g., an operating system 126) and the respective application 136-1 (e.g., the aforementioned application 137-151,155 , including any of the 380-390).

イベントソータ170は、イベント情報を受信し、イベント情報の配信先であるアプリケーション136−1とアプリケーション136−1のアプリケーションビュー191とを判定する。 Event sorter 170 receives event information and determines the application view 191 of application 136-1 and application 136-1 is a destination of the event information. イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含んでいる。 Event sorter 170 includes event monitor 171 and event dispatcher module 174. いくつかの実施形態では、アプリケーション136−1は、アプリケーションがアクティブ又は実行中である時にタッチ感知ディスプレイ112上に表示されている現在のアプリケーションビューを示したアプリケーション内部状態192を含む。 In some embodiments, application 136-1 includes application internal state 192 the application shows the current application view displayed on the touch-sensitive display 112 when it is in the active or running. いくつかの実施形態では、イベントソータ170が装置/グローバル内部状態157を使用して、どのアプリケーションが現在アクティブであるかを判定し、イベントソータ170がアプリケーション内部状態192を使用して、イベント情報の配信先であるアプリケーションビュー191を判定する。 In some embodiments, using the event sorter 170 device / global internal state 157, which application determines whether the currently active, event sorter 170 uses the application internal state 192, the event information determining the application view 191 is a delivery destination.

いくつかの実施形態では、アプリケーション内部状態192は、以下のアプリケーション情報、すなわち、アプリケーション136−1が実行を再開する時に使用される再開情報、アプリケーション136−1によって表示されている又は表示される準備ができた情報を示すユーザインターフェース状態情報、ユーザがアプリケーション136−1の以前の状態又はビューへ戻れるようにするための状態キュー、ユーザが実行した前の動作のやり直し/アンドゥキュー、のうちの1つ以上を含む。 Preparation In some embodiments, application internal state 192, following application information, i.e., the application 136-1 resumes information used when resuming execution, are displayed by being or displayed by the application 136 - the user interface state information indicating the information can be had, one user of the redo / undo queue of operation before the state queue, the user has performed to the move back to the previous state or view of application 136-1 One containing more than.

イベントモニタ171は周辺機器インターフェース118からイベント情報を受信する。 Event Monitor 171 receives event information from peripherals interface 118. イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としてのタッチ感知ディスプレイ112上のユーザのタッチ)に関する情報を含む。 Event information includes information about the sub-event (e.g., a user touch on the touch-sensitive display 112 as part of a multi-touch gesture). 周辺機器インターフェース118は、I/Oサブシステム106、又は近接センサ166等のセンサ、加速度計168、及び/又はマイクロフォン113(オーディオ回路110経由)から受信する情報を送信する。 Peripherals interface 118 transmits sensor such as I / O subsystem 106 or proximity sensor 166, accelerometer 168, and / or the information received from the microphone 113 (via audio circuitry 110). 周辺機器インターフェース118がI/Oサブシステム106から受信する情報には、タッチ感知ディスプレイ112又はタッチ感知面からの情報が含まれる。 Peripheral interface 118 to the information received from the I / O subsystem 106 includes information from touch-sensitive display 112 or a touch-sensitive surface.

いくつかの実施形態では、イベントモニタ171が要求を周辺機器インターフェース118へ所定の間隔で送信する。 In some embodiments, transmitting an event monitor 171 is a request to the peripheral device interface 118 at predetermined intervals. これに応答して、周辺機器インターフェース118がイベント情報を送信する。 In response, peripherals interface 118 transmits event information. 他の実施形態では、周辺機器インターフェース118は、顕著なイベント(例えば、所定のノイズ閾値を超える入力を、及び/又は、所定の期間を超えて受信している)がある場合にのみイベント情報を送信する。 In other embodiments, peripheral interface 118, significant events (e.g., an input above a predetermined noise threshold, and / or receives exceeds a predetermined time period) event information only when there is Send.

いくつかの実施形態では、イベントソータ170はヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を更に含む。 In some embodiments, event sorter 170 also includes a hit view determination module 172 and / or active event recognizer determination module 173.

ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示する時に、1つ以上のビュー内のどこでサブイベントが発生したかを判定するためのソフトウェア手順を提供する。 Hit view determination module 172, a touch sensitive display 112 when displaying two or more views, provides software procedures for determining where in the sub-event occurs in one or more views. ビューは、制御と、ユーザがディスプレイ上で見ることができるその他の要素とで構成されている。 View, control and user is constituted by the other elements that can be viewed on the display.

アプリケーションに関連したユーザインターフェースの他の態様は、情報が表示されてタッチベースのジェスチャが生じるビューセットであり、本明細書中でこれは時にアプリケーションビュー又はユーザインターフェースウィンドウと呼ばれている。 Another aspect of the user interface associated with the application, the information is to appear ViewSet touch-based gesture occurs, which herein is sometimes referred to as application views or user interface windows. タッチが検出された(それぞれのアプリケーションの)アプリケーションビューは、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応してよい。 Application View touch is detected (for each application) may correspond to the program level program hierarchy or view hierarchy of the application. 例えば、タッチが検出された最下レベルのビューは任意選択的に「ヒットビュー」と呼ばれることがあり、適切な入力として認識されたイベントセットは、タッチベースのジェスチャを開始させる最初のタッチのヒットビューに少なくとも基づいて判定されてよい。 For example, touch the view of the detected bottom level is sometimes referred to as optionally "hit view", recognized event set as an appropriate input, hit the first touch to start touch-based gesture it may be determined at least based on the view.

ヒットビュー判定モジュール172は、タッチベースジェスチャのサブイベントに関する情報を受信する。 Hit view determination module 172 receives information related to sub-events of a touch-based gesture. アプリケーションが階層状に組織された複数のビューを有する場合には、ヒットビュー判定モジュール172があるヒットビューを、そのサブイベントを処理すべき階層内最下位ビューであると識別する。 If an application has multiple views organized in a hierarchy identifies the hits view there is a hit view determination module 172, a hierarchy lowest view to process the sub-event. ほとんどの状況において、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成する一連のサブイベント内での第1サブイベント)が発生する最下位ビューである。 In most situations, the hit view is the lowest view start subevent (e.g., the first sub-event within the set of sub-events that form an event or potential event) occurs. 典型的に、ヒットビューは、ヒットビュー判定モジュール172によって一旦識別されると、ヒットビューとして識別される原因となったものと同じタッチ又は入力ソースに関連する全てのサブイベントを受信するようになる。 Typically, the hit view, once identified by the hit view determination module 172, so to receive all sub-events related to cause the same touch or input source and that is identified as a hit view .

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビューが特定のサブイベントシーケンスを受信すべきかを判定する。 Active event recognizer determination module 173 determines whether to receive which view a particular sub-sequence of events within the view hierarchy. いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみが特定のサブイベントシーケンスを受信すべきであると判定する。 In some embodiments, the active event recognizer determination module 173 determines that only the hit view should receive a particular sub-event sequence. 他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理的な場所を含む全てのビューは能動的に関与したビューであり、全ての能動的に関与したビューが特定のサブイベントシーケンスを受信すべきであると判定する。 In other embodiments, the active event recognizer determination module 173, all the views, including the physical location of a sub event is a view that actively participate, all actively involved views specific subevent It determines that it should receive the sequence. 他の実施形態では、タッチサブイベントが1つの特定のビューに関連したエリアに完全に限定されたとしても、階層内でこれよりも高位のビューは能動的に関与したビューとして残る。 In other embodiments, the touch even sub event is completely limited to the area associated with one particular view, high view than this in the hierarchy remains as views actively involved.

イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えば、イベント認識部180)にディスパッチする。 Event dispatcher module 174 dispatches the event information to the event recognition unit (e.g., event recognizer 180). アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174がこのイベント情報を、アクティブイベント認識部判定モジュール173によって判定されたイベント認識部へ配信する。 In embodiments including active event recognizer determination module 173, event dispatcher module 174 of this event information, and distributes the event recognition unit, which is determined by the active event recognizer determination module 173. いくつかの実施形態では、イベントディスパッチャモジュール174がそれぞれのイベント受信部182によって取得されたイベント情報をイベントキューに記憶する。 In some embodiments, storing the event information event dispatcher module 174 is acquired by the respective event receiver 182 in the event queue.

いくつかの実施形態では、オペレーティングシステム126はイベントソータ170を含む。 In some embodiments, operating system 126 includes an event sorter 170. あるいは、アプリケーション136−1はイベントソータ170を含む。 Alternatively, application 136-1 includes event sorter 170. 更に他の実施形態では、イベントソータ170はスタンドアロンモジュール、又は、例えば接触/動きモジュール130等の別のメモリ102に記憶されたモジュールである。 In yet other embodiments, event sorter 170 is a stand-alone module, or, for example, a module stored in another memory 102, such as contact / motion module 130.

いくつかの実施形態では、アプリケーション136−1は複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含んでおり、これらの各々はアプリケーションのユーザインターフェースのそれぞれのビュー内で発生したタッチイベントを処理するための命令を含む。 In some embodiments, application 136-1 includes a plurality of event handlers 190 and one or more application views 191, each of which processes the touch event occurring in each view of the user interface of the application including the instructions for. アプリケーション136−1の各アプリケーションビュー191は1つ以上のイベント認識部180を含んでいる。 Each application view 191 of application 136-1 includes one or more event recognition unit 180. 典型的には、それぞれのアプリケーションビュー191は複数のイベント認識部180を含む。 Typically, each of the application views 191 includes a plurality of event recognition unit 180. 他の実施形態では、1つ以上のイベント認識部180は、インターフェースキット(図示せず)や、アプリケーション136−1が方法やその他の性質を継承しているより高レベルオブジェクトの一部等の、別々のモジュールの一部である。 In other embodiments, one or more events recognition unit 180, interface kit (not shown) and, in some such a high-level object from the application 136-1 inherits methods and other properties, that is part of a separate module. いくつかの実施形態では、それぞれのイベントハンドラ190は、データ更新部176、オブジェクト更新部177、GUI更新部178、及び/又は、イベントソータ170から受信したイベントデータ179のうちの1つ以上を含む。 In some embodiments, each event handler 190, the data updating unit 176, an object update unit 177, GUI updater 178, and / or include one or more of the event data 179 received from event sorter 170 . イベントハンドラ190は、アプリケーション内部状態192を更新するために、データ更新部176、オブジェクト更新部177、GUI更新部178を任意選択的に利用する又は呼び出すことができる。 Event handler 190, to update the application internal state 192, the data updating unit 176 may invoke or utilize the object updater 177, GUI updater 178 optionally. あるいは、1つ以上のアプリケーションビュー191は、1つ以上のそれぞれのイベントハンドラ190を含む。 Alternatively, one or more application views 191 includes one or more respective event handlers 190. 更に、いくつかの実施形態では、データ更新部176、オブジェクト更新部177、GUI更新部178のうちの1つ以上が、それぞれのアプリケーションビュー191内に含まれている。 Further, in some embodiments, the data updating unit 176, one or more of the object update unit 177, GUI updater 178 are included in the respective application view 191.

それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、このイベント情報からイベントを識別する。 Each event recognition unit 180 receives the event information (e.g., event data 179) from event sorter 170 identifies an event from the event information. イベント認識部180はイベント受信部182とイベント比較部184を含む。 Event recognizer 180 includes event receiver 182 and event comparator 184. いくつかの実施形態では、イベント認識部180は、更に、メタデータ183とイベント伝送命令188(サブイベント伝送命令を任意選択的に含む)とのサブセットを少なくとも1つ含んでいる。 In some embodiments, event recognizer 180 is further subsets of metadata 183 and event transmission instruction 188 (including sub-event transmission instruction optionally) at least one comprising at.

イベント受信部182はイベントソータ170からイベント情報を受信する。 Event receiving unit 182 receives the event information from the event sorter 170. イベント情報は、サブイベント(例えば、タッチ又はタッチの移動)についての情報を含む。 Event information includes information about the sub-event (e.g., movement of the touch or touch). イベント情報は、このサブイベントに応じて、サブイベントの場所等の追加情報を更に含む。 Event information, in accordance with this sub-event, further including additional location information, such as sub events. サブイベントがタッチの動きに関するものである場合には、イベント情報はサブイベントの速度及び方向を更に含んでもよい。 If the sub-event is related to the touch movement, the event information may also include speed and direction of the sub-event. いくつかの実施形態では、イベントは装置の1つの向きから別の向きへの回転(例えば、縦向きから横向き、又はこの逆)を含み、イベント情報はこれに対応した装置の現在の向き(装置姿勢とも呼ばれる)についての情報を含む。 In some embodiments, the rotation from one orientation events device to another orientation (e.g., landscape from vertical, or vice versa), wherein the current orientation (device event information corresponding thereto device including information about the also referred to as the attitude).

イベント比較部184は、イベント情報を所定のイベント又はサブイベント定義と比較し、この比較に基づいて、イベント又はサブイベントを判定するか、イベント又はサブイベントの状態を更新する。 Event comparator unit 184, the event information with a predetermined event or sub-event definitions and, based on the comparison, whether to determine an event or sub-event, updates the state of an event or sub-event. いくつかの実施形態では、イベント比較部184はイベント定義186を含む。 In some embodiments, event comparator 184 includes event definitions 186. イベント定義186はイベントの定義(例えば、所定のサブイベントシーケンス)、例えばイベント1(187−1)、イベント2(187−2)、及びその他を保持している。 Event definition 186 defines an event (e.g., a predetermined sub-event sequence), for example, event 1 (187-1), event 2 (187-2), and holds the other. いくつかの実施形態では、イベント(187)内のサブイベントは、例えばタッチ開始、タッチ終了、タッチ移動、タッチキャンセル、及び複数のタッチを含む。 In some embodiments, sub-events in an event (187) includes, for example, touch start, touch finished, touch movement, touch cancellation, and multiple touching. 1つの実施例では、イベント1(187−1)の定義は表示されたオブジェクト上でのダブルタップである。 In one embodiment, the definition of the event 1 (187-1) is a double tap on the displayed object. ダブルタップは、例えば、所定の位相についての表示されたオブジェクト上での第1タッチ(タッチ開始)、所定の位相についての第1リフトオフ(タッチ終了)、所定の位相についての表示されたオブジェクト上での第2タッチ(タッチ開始)、所定の位相についての第2リフトオフ(タッチ終了)を備える。 Double tap, for example, a first touch (touch begin) on the object displayed for a given phase, the first lift (touch termination) for a given phase, on the displayed object for a predetermined phase a second touch (touch begin), second lift for a given phase (touch Exit). 他の実施例では、イベント2(187−2)の定義は表示オブジェクト上でのドラッグである。 In other embodiments, the definition of the event 2 (187-2) is a dragging on the display object. ドラッグは、例えば、所定の位相についての表示されたオブジェクト上でのタッチ(又は接触)、タッチ感知ディスプレイ112にかけてのタッチの移動、タッチのリフトオフ(タッチ終了)を備える。 Drag includes, for example, a touch (or contact) on the displayed object for a predetermined phase, the movement of the touch over the touch-sensitive display 112, touch lift off (touch termination). いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベントハンドラ190の情報も含んでいる。 In some embodiments, the event also includes information for one or more associated with the event handler 190 is.

いくつかの実施形態では、イベント定義187は、それぞれのユーザインターフェースオブジェクトについてのイベントの定義を含む。 In some embodiments, event definition 187 includes a definition of an event for each of the user interface object. いくつかの実施形態では、イベント比較部184は、どのユーザインターフェースオブジェクトがサブイベントに関連付けられているかを判定するためにヒットテストを実施する。 In some embodiments, event comparator 184, which user interface object is to implement a hit test to determine associated with sub events. 例えば、タッチ感知ディスプレイ112上に3つのユーザインターフェースオブジェクトが表示されたアプリケーションビューでは、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184がヒットテストを実施して、3つのユーザインターフェースオブジェクトのどれがこのタッチ(サブイベント)に関連付けられているかを判定する。 For example, in an application view in which three user interface objects on the touch-sensitive display 112 is displayed, when the touch is detected on the touch-sensitive display 112, event comparator 184 is implemented hit testing, three user interface It determines which of the object is associated with the touch (sub-event). 各表示オブジェクトが対応するイベントハンドラ190に関連付けられている場合には、イベント比較部はヒットテストの結果を用いてどのイベントハンドラ190を起動すべきかを判定する。 If each display object is associated with an event handler 190 that correspond, the event comparator unit determines whether to start which event handler 190 using the result of the hit test. 例えば、イベント比較部184は、サブイベントと、ヒットテストを誘発するオブジェクトとに関連付けられたイベントハンドラを選択する。 For example, event comparator 184 selects a sub-event, the event handlers associated with the object to induce hit testing.

いくつかの実施形態では、それぞれのイベント(187)の定義には、サブイベントシーケンスがイベント認識部のイベントタイプに対応するものであるか否かが判定するまでイベント情報の伝送を遅延させる遅延アクションが含まれている。 In some embodiments, the definition of each event (187), a delay action subevent sequence delays the transmission of the event information until it is determined whether or not corresponding to the event type of the event recognition unit It is included.

それぞれのイベント認識部180は、一連のサブイベントがイベント定義186内のどのイベントとも一致しないと判定した場合に、イベント不能、イベント失敗、イベント終了状態を入力し、その後、それ以降のタッチベースジェスチャのサブイベントを無視する。 When each of the event recognition unit 180, a series of sub-events is determined not to match any events in event definitions 186, event impossible, event failed, to enter the event end state, then later touch-based gesture to ignore the sub-event. この状況では、ヒットビューについてアクティブ状態のままのイベント認識部が他にあれば、そのイベント認識部が継続中のタッチベースのジェスチャのサブイベントの追跡及び処理を続ける。 In this situation, the event recognition unit remains active for the hit view if otherwise, continue tracking and processing of sub-events of a touch-based gesture ongoing event recognition unit.

いくつかの実施形態では、それぞれのイベント認識部180は、構成変更可能な性質を持つメタデータ183、フラグ、及び/又は、イベント伝送システムが能動的に関与するイベント認識部へのサブイベント伝送をどのように実施すべきかを示すリストを含んでいる。 In some embodiments, each of the event recognition unit 180, the metadata 183 having the configurable properties, flags, and / or an event transmission system sub-event transmission to the event recognition unit actively involved It contains a list showing how to implement. いくつかの実施形態では、メタデータ183は、構成変更可能な性質、フラグ、及び/又は、イベント認識部同士がどのように対話できるか、又は対話可能になるかを示すリストを含んでいる。 In some embodiments, metadata 183 includes configurable change properties, flags, and / or, if the event recognition unit each other how to interact, or a list that indicates interaction becomes possible. いくつかの実施形態では、メタデータ183は、構成変更可能な性質、フラグ、及び/又は、ビュー又はプログラム階層中の色々なレベルにサブイベントが伝送されたかどうかを示すリストを含んでいる。 In some embodiments, metadata 183, the configurable nature, flag, and / or sub-event in various levels in the view or the program hierarchy contains a list indicating whether transmitted.

いくつかの実施形態では、それぞれのイベント認識部180は、1つ以上のイベントの特定のサブイベントが認識されると、イベントに関連付けられたイベントハンドラ190を起動させる。 In some embodiments, each of the event recognition unit 180, the specific sub-events of one or more events are recognized, activates an event handler 190 associated with the event. いくつかの実施形態では、それぞれのイベント認識部180は、イベントに関連付けられたイベント情報をイベントハンドラ190に伝送する。 In some embodiments, each event recognition unit 180 transmits the event information associated with the event to the event handler 190. イベントハンドラ190を起動することは、サブイベントをそれぞれのヒットビューへ送信すること(及び遅延送信すること)とは異なる。 Invoking the event handlers 190 is different from the sending sub-events to a respective hit view (and delaying transmission). いくつかの実施形態では、イベント認識部180が認識済みのイベントに関連付けられているフラグを投げ、このフラグに関連付けられたイベントハンドラ190がこのフラグをキャッチして、所定の処理を実行する。 In some embodiments, throwing a flag event recognition unit 180 is associated with a recognized event, the event handler 190 associated with the flag catches the flag and performs a predetermined process.

いくつかの実施形態では、イベント伝送命令188は、イベントハンドラを起動せずにサブイベントについてのイベント情報を伝送するサブイベント伝送命令を含む。 In some embodiments, the event transmission instruction 188 includes a sub-event transmission command for transmitting the event information for the sub-event without activating an event handler. むしろ、サブイベント伝送命令は、イベント情報を一連のサブイベント又は能動的に関与したビューに関連付けられたイベントハンドラに伝送する。 Rather, the sub-event transmission instruction, transmits the event information to a series of sub-events or actively event handlers associated with the involved views. 一連のサブイベントに、又は能動的に関与したビューに関連付けられたイベントハンドラは、イベント情報を受信し、所定の処理を実施する。 A series of sub-events or actively event handlers associated with the involved views receive the event information and performs a predetermined process.

いくつかの実施形態では、データ更新部176がアプリケーション136−1で使用されるデータを作成及び更新する。 In some embodiments, creating and updating data data updating unit 176 is used by the application 136-1. 例えば、データ更新部176は連絡先モジュール137にて使用されている電話番号を更新するか、又は、ビデオプレーヤモジュールで使用されているビデオファイルを記憶する。 For example, the data updating unit 176 to update the telephone number that is used in contact module 137, or stores a video file used in video player module. いくつかの実施形態では、オブジェクト更新部177がアプリケーション136−1で使用されるオブジェクトを作成及び更新する。 In some embodiments, object update unit 177 creates and updates objects used in application 136-1. 例えば、オブジェクト更新部177は新規のユーザインターフェースオブジェクトを作成するか、ユーザインターフェースオブジェクトの位置を更新する。 For example, object update unit 177 to create a new user interface objects, and updates the position of the user interface objects. GUI更新部178はGUIを更新する。 GUI update unit 178 to update the GUI. 例えば、GUI更新部178はディスプレイ情報を準備し、これをタッチ感知ディスプレイ上に表示するべくグラフィックモジュール132へ送信する。 For example, GUI updater 178 prepares display information, and transmits to the graphic module 132 to be displayed on the touch-sensitive display.

いくつかの実施形態では、イベントハンドラ190は、データ更新部176、オブジェクト更新部177、GUI更新部178を含む、又はこれらにアクセスできる。 In some embodiments, event handler 190, the data updating unit 176 includes an object update unit 177, GUI updater 178, or access them. いくつかの実施形態では、データ更新部176、オブジェクト更新部177、GUI更新部178は、アプリケーション136−1又はアプリケーションビュー191のそれぞれの単一モジュール内に含まれている。 In some embodiments, the data updating unit 176, an object update unit 177, GUI updater 178 are included in the respective single module application 136-1 or application view 191. 他の実施形態では、これらは2つ以上のソフトウェアモジュール内に含まれている。 In other embodiments, it is included in two or more software modules.

先に述べたタッチ感知ディスプレイ上でのユーザタッチのイベント処理に関する説明は、入力装置を実装した多機能装置100を操作する他のユーザ入力形式(全てがタッチスクリーン上で開始されるものではない)にも適用されることが理解されるべきである。 Description of the event processing of the user touch on the touch-sensitive display as mentioned previously, other user input format to operate the multifunction device 100 mounted with the input device (all not to be initiated on a touch screen) it should be understood that also applies to. 例えば、マウスの動作及びマウスボタンの押下は、1回又は複数回のキーボード押下又は把持、タッチパッド上でのタップ、ドラッグ、スクロール等の接触動作、スタイラスペンでの入力、装置の動き、口述命令、検出された目の動き、生体入力、及び/又はこれらのあらゆる組み合わせと任意選択的に連携して、認識対象のイベントを定義するサブイベントに対応した入力として任意選択的に利用される。 For example, the pressing of the operation and the mouse button of the mouse, one or more times of the keyboard pressed or gripped, tap on the touch pad, drag, contact operation such as scrolling, input with the stylus, device movement, dictation instruction , detected eye movements, biometric inputs, and / or any combination and optionally coordination of these, it is optionally used as an input corresponding to the sub event that defines the recognized event.

図2は、いくつかの実施形態によるタッチスクリーン112を実装したポータブル多機能装置100を示す。 Figure 2 illustrates a portable multifunction device 100 that implements the touch screen 112 according to some embodiments. タッチスクリーンは、ユーザインターフェース(UI)200内の1つ以上のグラフィックを任意選択的に表示する。 Touch screen to display one or more graphical user interface (UI) 200 optionally. この実施形態では、以降で説明する他の実施形態と同様、ユーザは、例えば1本以上の指202(図では正確な縮尺率で示されていない)又は1本以上のスタイラス203(図では正確な縮尺率で示されていない)によってグラフィック上でジェスチャを行うことにより、1つ以上のグラフィックを選択できるようになる。 In this embodiment, similarly to the other embodiments described later, the user, for example, (not shown to scale in the figure) one or more fingers 202 or one or more stylus 203 (precisely in FIG. by performing a gesture on the graphic by do not shown to scale ratio), it becomes possible to select one or more graphics. いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが1つ以上のグラフィックとの接触を断つ時に生じる。 In some embodiments, selection of one or more graphics occurs when the user break contact with one or more graphics. いくつかの実施形態では、ジェスチャは、1つ上のタップ、1つ以上のスワイプ(左から右、右から左、上向き及び/又は下向き)、及び/又は、装置100と接触した指の回転(右から左、左から右、上向き及び/又は下向き)を任意選択的に含む。 In some embodiments, gesture, one above the taps, one or more swipes (from left to right, right to left, upward and / or downward) and / or rotation of the finger in contact with the device 100 ( right right to left, from left, including the upward and / or downward) and optionally. いくつかの実施形態又は状況では、グラフィックとの意図しない接触でグラフィックが選択されることはない。 In some embodiments or situations, no graphics are selected by unintended contact with a graphic. 例えば、任意選択的に、選択に対応したジェスチャがタップである場合には、アプリケーションアイコン上を掃うスワイプジェスチャによって対応するアプリケーションが選択されることはない。 For example, optionally, when the gesture corresponding to selection is a tap, not that the corresponding application is selected by the Hare swipe gesture sweep over application icon.

装置100は、更に、「ホーム」又はメニューボタン204等の1つ以上の物理的なボタンを含んでよい。 Apparatus 100 further, "home" or may include one or more physical buttons, such as a menu button 204. 先述したように、メニューボタン204は、装置100上で実行できる1組のアプリケーションのうちの任意のアプリケーション136をナビゲートするために使用できる。 As mentioned previously, the menu button 204 may be used any application 136 of a set of applications that can run on device 100 to navigate. あるいは、いくつかの実施形態では、メニューボタンはタッチスクリーン112に表示されたGUI内のソフトキーとして実現されている。 Alternatively, in some embodiments, the menu button is implemented as a soft key in a GUI displayed on touch screen 112.

一実施形態では、装置100はタッチスクリーン112、メニューボタン204、装置の電源をオン/オフし、また装置をロックするためのプッシュボタン206、音量調整ボタン208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、ドッキング/充電用外部ポート124を含む。 In one embodiment, device 100 includes a touch screen 112, menu button 204, a power source of the apparatus is turned on / off, also the push button 206 for locking the device, volume adjustment button 208, the subscriber identity module (SIM) card slot 210, including a headset jack 212, a docking / charging external port 124. プッシュボタン206は、ボタンを押下し所定の時間間隔だけ押下状態に維持することで装置の電源をオン/オフするため、ボタンを押下し所定の時間間隔が経過する前に解放することで装置をロックするため、及び/又は、装置をロック解除するあるいはロック解除処理を開始するために、任意選択的に使用される。 Push button 206 for turning on / off the device by keeping only the depressed state pressed by a predetermined time interval of a button, the device by releasing before pressing to elapse of a predetermined time interval of a button for locking, and / or, in order to initiate the unlocking to or unlock processing device, it is optionally used. 代替実施形態では、装置100は、更に、いくつかの機能を起動又は停止させる口頭入力をマイクロフォン113を介して受け入れる。 In an alternative embodiment, apparatus 100 further several startup or oral input stopping function accepts via the microphone 113. 装置100は、タッチスクリーン112上の接触の強度を検出するための1つ以上の接触強度センサ165、及び/又は、装置100のユーザに対する触知出力を生成するための1つ以上の触知出力生成器167を任意選択的に更に含む。 Device 100 includes one or more contact intensity sensors 165 for detecting the intensity of the contact on the touch screen 112, and / or one or more tactile output for generating a tactile output to a user of the device 100 further generator 167 optionally includes.

図3は、いくつかの実施形態によるディスプレイ及びタッチ感知面を実装した例示的な多機能装置のブロック図である。 Figure 3 is a block diagram of some embodiments exemplary multifunction device mounted with a display and a touch-sensitive surface by. 装置300はポータブル型でなくてもよい。 Device 300 may not be portable. いくつかの実施形態では、装置300はラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤ装置、ナビゲーション装置、教育装置(子供用学習玩具等)、ゲームシステム、コントロール装置(例えば、家庭用又は産業用コントローラ)である。 Some mosquito Roh embodiment leaf emergence, device 300 leaves a laptop computer, a desktop computer, tablet computer, multi-media player device, a navigation device, education system (children use learning toys, etc.), game system, control apparatus (Tatoeba, home use Matawa industry it is the use controller). 典型的に、装置300は、1つ以上の処理ユニット(CPU)310、1つ以上のネットワークあるいは通信インターフェース360、メモリ370、そして、これらのコンポーネントを相互接続するための1つ以上の通信バス320を含む。 Typically, device 300 may include one or more processing units (CPU) 310, one or more network or communication interface 360, memory 370, and one for interconnecting these components or more communication buses 320 including. 通信バス320は、システムコンポーネント間を相互接続し、システムコンポーネント間の通信を制御する回路(時にチップセットと呼ばれる)を任意選択的に含む。 Communication bus 320 interconnecting the system components, including circuit for controlling the communication between the system components (the sometimes called a chipset) optionally. 装置300は、ディスプレイ340を実装した入出力(I/O)インターフェース330、典型的にはタッチスクリーンディスプレイを含む。 Device 300, input and output that implements a display 340 (I / O) interface 330, typically include a touch screen display. I/Oインターフェース330は、更に、キーボード及び/又はマウス(又はその他のポインティング装置)350及びタッチパッド355、装置300上に触知出力を生成する触知出力生成器357(例えば、図1Aを参照して上で説明した触知出力生成器167と類似)、センサ359(例えば、光学、加速度、近接、タッチ感知式センサ、及び/又は、図1Aを参照して上で説明した接触強度センサ165と類似する接触強度センサ)を任意選択的に含む。 I / O interface 330 is further tactile output generator 357 which generates a tactile output keyboard and / or mouse (or other pointing device) 350 and the touch pad 355, on apparatus 300 (e.g., see Figure 1A to hand over the de-described other tactile output generation vessel 167 bet similar), the sensor 359 (Tatoeba, optical, acceleration, proximity, touch-sensitive formula sensor, and / Matawa, FIG. 1A wo reference to hand over de-described other contact intensity sensor 165 optionally the contact intensity sensor) similar to include. メモリ370は、DRAM、SRAM、DDR RAM、又はその他のランダムアクセスソリッドステートメモリ装置、等の高速ランダムアクセスメモリを含み、又は1つ以上の磁気ディスク記憶装置、光学ディスク記憶装置、フラッシュメモリ装置、又はその他の不揮発性固体記憶装置、等の不揮発性メモリを任意選択的に含む。 Memory 370, DRAM, SRAM, DDR RAM or other random access solid state memory device, comprises a high-speed random access memory and the like, or one or more magnetic disk storage devices, optical disk storage, flash memory device, or other non-volatile solid-state memory device, comprising a non-volatile memory etc. optionally. メモリ370は、CPU310から離れて位置した1つ以上の記憶装置を任意選択的に含む。 Memory 370 may include one or more storage devices remotely located from the CPU310 optionally. いくつかの実施形態では、メモリ370は、ポータブル多機能装置100(図1A)のメモリ102に記憶されたプログラム、モジュール、データ構造と類似するプログラム、モジュール、データ構造、又はそのサブセットを記憶する。 Some mosquito Roh embodiment leaf emergence, memory 370 teeth, portable multi-function device 100 (FIG. 1A) field memory 102 two-stored other programs, modules, data structures bet similar programs, modules, data structures, Matawa the subset wo memory to. 更に、メモリ370は、ポータブル多機能装置100のメモリ102内にはない追加のプログラム、モジュール、データ構造を任意選択的に記憶する。 Furthermore, memory 370 may include additional programs not in the memory 102 of portable multifunction device 100, the module, optionally selectively storing the data structure. 例えば、装置300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を任意選択的に記憶するが、ポータブル多機能装置100(図1A)のメモリ102はこれらのモジュールの任意の記憶を行わない。 Tatoeba, device 300 field memory 370 teeth, drawing module 380, presentation module 382, ​​word processing module 384, web site creation module 386, disk authoring module 388, and / Matawa spreadsheet module 390 wo optional target second storage to moth, portable memory 102 of the multi-function device 100 (FIG. 1A) does not perform any storage of these modules.

上記の図3中の要素の各々は、前述したメモリ装置のうちの1つ以上に記憶することができる。 Each of the elements in the figures 3 described above may be stored in one or more of the above-mentioned memory device. 上記のモジュールの各々は、上述した機能を実施するための1つの命令セットに対応している。 Each of the above modules corresponds to one set of instructions for implementing the functions described above. これらのモジュール(例えば、命令セット)は、個別のソフトウェアプログラム、手順、モジュールとして実施する必要がないので、様々な実施形態においてこれらモジュールの様々なサブセットを任意選択的に組み合わせたり、あるいは再編成したりすることが可能である。 These modules (e.g., instruction set), separate software programs, procedures, it is not necessary to be implemented as modules, various or combinations optionally a subset, or re-organization of the modules in various embodiments it is possible to or. いくつかの実施形態では、メモリ370は、上記のモジュールのサブセット及びデータ構造を任意選択的に記憶する。 In some embodiments, memory 370 optionally stores a subset and data structure of the module. 更に、メモリ370は、上で述べていない追加のモジュール及びデータ構造を任意選択的に記憶できる。 Furthermore, memory 370 may include additional modules and data structures not described above may optionally store.

ここでは、例えばポータブル多機能装置100上で任意選択的に実現できるユーザインターフェースの実施形態に注目する。 Here, focusing on the embodiment of a user interface for example that can be optionally implemented on portable multifunction device 100.

図4Aは、いくつかの実施形態によるポータブル多機能装置100上のアプリケーションメニューの例示的なユーザインターフェースを示す。 4A shows an exemplary user interface application menu on the portable multifunction device 100 according to some embodiments. これと類似したユーザインターフェースを装置300上で実現することができる。 A user interface that is similar to this can be implemented on device 300. いくつかの実施形態では、ユーザインターフェース400は以下の要素、あるいはそのサブセット又はスーパーセットを含む。 In some embodiments, user interface 400 includes the following elements, or a subset or superset.
●セルラ及びWiFi信号等の無線通信用の信号強度インジケータ402、 ● for wireless communications, such as cellular and WiFi signals the signal strength indicator 402,
●時間404、 ● time 404,
●Bluetoothインジケータ405、 ● Bluetooth indicator 405,
●バッテリ状態インジケータ406、 ● battery status indicator 406,
●以下のような頻繁に使用するアイコンが入ったトレイ408、 ● tray 408 that contains the icon that you use frequently, such as the following,
○電話モジュール138用のアイコン416。 ○ telephone module 138 for icon 416. ラベル表示「電話」。 Labeled "Phone". 不在着信又は留守番電話メッセージの数を示すインジケータ414を任意選択的に含む。 An indicator 414 indicating the number of missed calls or voice mail message containing optionally.
○電子メールクライアントモジュール140用のアイコン418。 ○ icon 418 for e-mail client module 140. ラベル表示「メール」。 Labeling "mail". 未読電子メールの数を示すインジケータ410を任意選択的に含む。 It includes an indicator 410 that indicates the number of unread e-mail optionally.
○ブラウザモジュール147用のアイコン420。 ○ icon 420 for the browser module 147. ラベル表示「ブラウザ」。 Labeling "browser".
○ビデオ及び音楽プレーヤモジュール152用のアイコン422。 ○ Video and icons 422 for music player module 152. iPod(Apple Inc.の商標)モジュール152とも呼ばれる。 iPod is also referred to as (Apple Inc. of trademark) module 152. ラベル表示「iPod」。 Label display "iPod".
●その他のアプリケーション用のアイコン、 ● for other application icon,
○IMモジュール141用のアイコン424。 ○ icon 424 for the IM module 141. ラベル表示「メッセージ」。 Label "message".
○カレンダモジュール148用のアイコン426。 ○ icon 426 for the calendar module 148. ラベル表示「カレンダ」。 Label display "calendar".
○画像管理モジュール144用のアイコン428。 ○ icon 428 for image management module 144. ラベル表示「写真」。 Label display "Photo".
○カメラモジュール143用のアイコン430。 ○ icon 430 for the camera module 143. ラベル表示「カメラ」。 Labeling "camera".
○オンラインビデオモジュール155用のアイコン432。 ○ icon 432 for the online video module 155. ラベル表示「オンラインビデオ」。 Label "online video".
○株式ウィジェット149−2用のアイコン434。 ○ icon 434 for the stock widget 149-2. ラベル表示「株式」。 Labeling "stock".
○地図モジュール154用のアイコン436。 ○ icon 436 for the map module 154. ラベル表示「地図」。 Labeling "map".
○天候ウィジェット149−1用のアイコン438。 ○ icon 438 for weather widget 149-1. ラベル表示「天候」。 Label "weather".
○アラームクロックウィジェット149−4用のアイコン440。 ○ icon 440 for the alarm clock widget 149-4. ラベル表示「時計」。 Label display "clock".
○トレーニングサポートモジュール142用のアイコン442。 ○ icon 442 for training support module 142. ラベル表示「トレーニングサポート」。 Labeled "Training Support".
○メモモジュール153用のアイコン444。 ○ Note module 153 for the icon 444. ラベル表示「メモ」。 Labeling "memo".
○設定アプリケーション又はモジュール用のアイコン446。 ○ setting icon 446 for the application or module. ラベル表示「設定」。 Labeling "Settings". 装置100及び様々なアプリケーション136の設定へのアクセスを提供する。 It provides access to settings for device 100 and various applications 136.

図4Aに示すアイコンラベルは単なる例示である点に留意すべきである。 Icon label shown in FIG. 4A is to be noted that it is merely illustrative. 例えば、ビデオ及び音楽プレーヤモジュール152用のアイコン422は、任意選択的に「音楽」又は「音楽プレーヤ」とラベル表示できる。 For example, the icon 422 for video and music player module 152, optionally can be labeled as "music" or "music player". その他のラベルが様々なアプリケーションアイコンに任意選択的に使用される。 Other labels are optionally used in a variety of application icons. いくつかの実施形態では、それぞれのアプリケーションアイコン用ラベルは、それぞれのアプリケーションアイコンに対応したアプリケーションの名称を含む。 In some embodiments, label each application icons, including the name of the application corresponding to each of the application icon. いくつかの実施形態では、特定のアプリケーションアイコン用ラベルは、特定のアプリケーションアイコンに対応したアプリケーションの名称とは異なる。 In some embodiments, a label for a particular application icon is different from the name of the application corresponding to the specific application icon.

図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)から離されたタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を実装した装置(例えば、図3の装置300)上の例示的なユーザインターフェースを示す。 Figure 4B is a display 450 (e.g., touch screen display 112) touch-sensitive surface 451 is released from the (e.g., a tablet or touchpad 355 in FIG. 3) device that implements (e.g., device 300 of FIG. 3) illustrated on It shows a specific user interface. 装置300は、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、1つ以上のセンサ357)、及び/又は、装置300のユーザに触知出力を生成する1つ以上の触知出力生成器359を任意選択的に含む。 Device 300, one or more contact intensity sensor for detecting the intensity of the contact on the touch-sensitive surface 451 (e.g., one or more sensors 357), and / or to generate a tactile output to a user of the device 300 1 One or more tactile output generator 359 optionally include.

以下に示すいくつかの実施例はタッチスクリーンディスプレイ112(タッチ感知面及びディスプレイの組み合わせ)上での入力を参照して提供されるが、いくつかの実施形態では、図4Bに示すように、装置はディスプレイから離されたタッチ感知面上での入力を検出する。 Some of the following examples, but is provided with reference to the input on the touch screen display 112 (touch-sensitive surface and a combination of the display), in some embodiments, as shown in FIG. 4B, device detects an input on the touch-sensitive surface that is released from the display. いくつかの実施形態では、タッチ感知面(例えば、4Bの451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bの453)に対応した主軸(例えば、図4Bの452)を有する。 In some embodiments, the touch sensitive surface (e.g., the 4B 451) comprises a display (e.g., 450) on the main shaft (e.g., 453 in FIG. 4B) the spindle corresponding to (e.g., 452 in FIG. 4B) . これらの実施形態によれば、装置はタッチ感知面451との接触(例えば、図4Bの460、462)をディスプレイ上のそれぞれの場所に対応した場所にて検出する(例えば、図4B中の460は468に対応し、462は470に対応する)。 According to these embodiments, the device detects contact with the touch sensitive surface 451 (e.g., 460 and 462 of FIG. 4B) to at each location to the location corresponding on a display (e.g., 460 in Figure 4B corresponds to the 468, 462 corresponds to 470). こうすることで、タッチ感知面がディスプレイから離れている場合、装置は、タッチ感知面(例えば、図4Bの451)上で検出したユーザ入力(例えば、接触460、462、及びその動き)を用いて、多機能装置のディスプレイ(例えば、図4Bの450)上でユーザインターフェースを操作する。 That way, when the touch sensing surface is away from the display, the device uses the touch sensitive surface (e.g., 451 in FIG. 4B) user input detected on (e.g., contact 460 and 462, and the movement) of Te, the display of the multifunction device (e.g., 450 in FIG. 4B) to manipulate the user interface on. 本明細書中で述べているその他のユーザインターフェースには類似の方法が任意選択的に使用されることが理解されるべきである。 Other user interfaces that are described herein is to be understood that similar methods may be optionally used.

これに加え、以下の実施例は主に指での入力(例えば、指接触、フィンガータップジェスチャ、フィンガースワイプジェスチャ)を参照して提供されているが、いくつかの実施形態ではこれらの代わりに1つ以上の別の入力装置からの入力(例えば、マウスベースの入力又はスタイラス入力)を用いていることが理解されるべきである。 Additionally, the following examples primarily input with a finger (e.g., finger contact, finger tap gestures, finger swipe gestures), but with reference to being provided, in some embodiments instead of these 1 One or more input from another input device (e.g., a mouse based input or stylus input) should be is used is understood. 例えば、スワイプジェスチャを任意選択的にマウスクリックに置き換え(例えば、接触の代替)、その後、カーソルをスワイプの経路に沿って動かす(例えば、接触の動きの代替)。 For example, replacing the optionally mouse click a swipe gesture (e.g., alternate contact), then moved along the path of the swipe cursor (e.g., movement of the contact alternatives). 他の実施例としては、カーソルをタップジェスチャの場所の上に配置しながら、タップジェスチャを任意選択的にマウスクリックすることに置き換えている(例えば、接触を検出した後に、接触の検出を停止することの代替)。 As another example, while placing the cursor over the location of the tap gesture, a tap gesture is replaced with optionally be a mouse click (e.g., after detecting the contact, to stop the detection of the contact that alternative). 同様に、複数のユーザ入力が同時に検出された場合には、任意選択的に複数のコンピュータマウスを同時に使用している、又は、任意選択的にマウスと指接触を同時に使用していることが理解されるべきである。 Similarly, when a plurality of user input is detected at the same time, are used optionally a plurality of computer mouse simultaneously or understood that using optionally mouse and finger contacts simultaneously It should be.

図5Aは例示的なパーソナル電子装置500を示す。 Figure 5A illustrates an exemplary personal electronic device 500. 装置500は本体502を含む。 Device 500 includes a body 502. いくつかの実施形態では、装置500は、装置100及び300(例えば、図1A〜図4B)に関連して説明した特性のいくつか又は全てを含むことができる。 In some embodiments, device 500, device 100 and 300 (e.g., FIG. 1A~ diagram 4B) may include some or all of the characteristics described in connection with. いくつかの実施形態では、装置500はタッチ感知ディスプレイスクリーン504(これ以降、タッチスクリーン504と呼ぶ)を設けている。 In some embodiments, device 500 is provided with a touch-sensitive display screen 504 (hereafter, referred to as a touch screen 504). あるいは、又はタッチスクリーン504に加えて、装置500はディスプレイとタッチ感知面を設けている。 Alternatively, or in addition to the touch screen 504, device 500 is provided with a display and a touch-sensitive surface. 装置100、300と同様、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、為されている接触の強度(例えば、タッチ)を検出するための1つ以上の強度センサを任意選択的に含んでよい。 Similar to 100, 300, in some embodiments, the touch screen 504 (or the touch-sensitive surface), the intensity of the contact has been made (e.g., touch) optionally one or more intensity sensor for detecting the it may include selectively. タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供できる。 One or more intensity sensors of the touch screen 504 (or the touch-sensitive surface) can provide output data representing the intensity of the touch. 装置500のユーザインターフェースはタッチの強度に基づいてタッチに応答することができ、つまり、強度の異なるタッチによって装置500上で種々のユーザインターフェース動作が呼び出される。 The user interface device 500 can respond to a touch on the basis of the intensity of the touch, that is, various user interface operation is called on device 500 by a different touch strength.

タッチ強度を検出及び処理する技術は、例えば以下の関連出願に見ることができる。 Technique for detecting and processing the touch strength may be found for example in the following related applications. 2013年5月8日出願、国際公開第WO/2013/169849号として公開された国際特許出願第PCT/US2013/040061号「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、国際公開第WO/2014/105276号として公開された2013年11月11日出願の国際特許出願第PCT/US2013/069483号「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Re May 8, 2013 application, WO International Patent Application No. PCT / US2013 / 040061, published as No. WO / 2013/169849 "Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application" , International Patent application No. PCT / US2013 / 069483 of 2013 November 11 application published as International Publication No. WO / 2014/105276 "Device, Method, and Graphical User Interface for Transitioning Between Touch Input to Display Output Re ationships」。 ationships ". これらの出願の各々は参照によってその全体が本明細書に援用される。 Each of these applications by reference in their entirety are incorporated herein.

いくつかの実施形態では、装置500は1つ以上の入力機構506、508を設けている。 In some embodiments, device 500 is provided with one or more input mechanisms 506, 508. 入力機構506、508は(含まれている場合)物理的であってよい。 Input mechanism 506, 508 may be a (if included) physically. 物理的な入力機構の例にはプッシュボタンと回転可能な機構が含まれる。 Examples of physical input mechanism includes a rotatable mechanism and push button. いくつかの実施形態では、装置500は1つ以上のアタッチメント機構を設けている。 In some embodiments, device 500 is provided with one or more attachment mechanisms. このようなアタッチメント機構は(含まれている場合)、例えば、帽子、アイウェア、イヤリング、ネックレス、シャツ、ジャケット、ブレスレット、時計バンド、チェーン、ズボン、ベルト、靴、バッグ、バックパック、その他への装置500の取り付けを可能にすることができる。 (If included) such attachment mechanism is, for example, hats, eyewear, earrings, necklace, shirt, jacket, bracelet, watch band, chain, pants, belt, shoes, bags, backpacks, to other it can allow attachment of the device 500. これらのアタッチメント機構により、ユーザは装置500を装着することができる。 These attachments mechanisms, the user can wear the device 500.

図5Bは、例示的なパーソナル電子装置500を示す。 Figure 5B illustrates an exemplary personal electronic device 500. いくつかの実施形態では、装置500は、図1A、図1B、図3に関連して説明したコンポーネントのいくつか又は全てを含むことができる。 In some embodiments, device 500, FIG. 1A, FIG. 1B, can include some or all of the components described in connection with FIG. 装置500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518と動作可能に結合するバス512を有する。 Device 500 includes a bus 512 that operatively couples the I / O section 514 and one or more computer processors 516 and memory 518. I/Oセクション514は、タッチ感知コンポーネント522と、任意選択的に強度センサ524とを有することが可能なディスプレイ504に接続できる。 I / O section 514, a touch sensing component 522 may be connected to a display 504 which can have a optionally strength sensor 524. これに加えて、I/Oセクション514は、Wi−Fi、Bluetooth、近距離通信(NFC)、セルラ、及び/又はその他の無線通信技術を使用して、アプリケーション及びオペレーティングシステムデータを受信するための通信ユニット530に接続できる。 In addition, I / O section 514, Wi-Fi, Bluetooth, near field communication (NFC), using cellular, and / or other wireless communication technologies, for receiving the application and operating system data It can be connected to the communication unit 530. 装置500は入力機構506及び/又は508を含むことができる。 Device 500 may include input mechanisms 506 and / or 508. 入力機構506は、回転可能な入力装置、又は押下可能かつ回転可能な入力装置であってよい。 Input mechanism 506 is rotatable input device, or a depressible and may be rotatable input device. いくつかの実施例において、入力機構508はボタンであってよい。 In some embodiments, input mechanism 508 may be a button.

いくつかの実施例において、入力機構508はマイクロフォンであってよい。 In some embodiments, input mechanism 508 may be a microphone. パーソナル電子装置500は、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はこれらの組み合わせ等の様々なセンサを任意選択的に含むことができ、これらのセンサは全てI/Oセクション514に動作可能に接続することができる。 Personal electronic device 500, GPS sensor 532, accelerometer 534, the direction sensor 540 (e.g., a compass), a gyroscope 536, a motion sensor 538, and / or may optionally include a variety of sensors, such as combinations thereof can, these sensors may be operably connected to all I / O section 514.

パーソナル電子装置500のメモリ518は、例えば1つ以上のコンピュータプロセッサ516によって実行されると、このコンピュータプロセッサに、処理2000〜3300(図20〜図33)を含む上で述べた技術を実施させることができるコンピュータ実行可能な命令を記憶する、非一時的コンピュータ可読記憶媒体であってよい。 Memory 518 of the personal electronic device 500, when executed, for example by one or more computer processors 516, the computer processor, processing 2000-3300 possible to implement the techniques described above containing (FIGS. 20 to 33) storing computer executable instructions that may be a non-transitory computer readable storage medium. コンピュータ実行可能な命令は、コンピュータベースのシステム、プロセッサ内臓システム、又は、その他の、命令実行システム、装置、装置から命令をフェッチして実行することができるシステム等の、命令実行システム、装置、装置によって、又はこれらに関連して使用するために、あらゆる非一時的コンピュータ可読記憶媒体に更に記憶及び/又は移送されることが可能である。 Computer-executable instructions, computer-based system, processor visceral system, or other instruction execution system, apparatus, systems, etc. that may be performed by fetching instructions from the device, the instruction execution system, apparatus, device by, or for use in connection with these, it can be further stored and / or transported to any non-transitory computer readable storage medium. 本文書の目的のために、「非一時的コンピュータ可読記憶媒体」とは、コンピュータ実行可能な命令を、命令実行システム、装置、装置によって、又はこれらに関連して使用するために、有形的に保持又は記憶できるあらゆる媒体であってよい。 For the present document object, the term "non-transitory computer-readable storage medium", the computer-executable instructions, the instruction execution system, apparatus, by the device, or for use in connection with these, tangibly it may be any medium that can retain or store. 非一時的コンピュータ可読記憶媒体は、磁気、光学、及び/又は半導体記憶装置を非限定的に含むことができる。 Non-transitory computer-readable storage medium may be magnetic, may include optical and / or semiconductor memory devices without limitation. このような記憶装置の例には、磁気ディスク、CD、DVD、又はブルーレイ技術に基づく光学ディスク、並びに、持続性固体メモリ(フラッシュ、固体ドライブ等)等が含まれる。 Examples of such a memory device, a magnetic disk, CD, DVD, or optical disc based on the Blu-ray technology, as well as persistent solid-state memory (flash, solid drive, and the like) and the like. パーソナル電子装置500は図5Bのコンポーネント及び構成に限定されず、複数の構成を持つその他又は追加のコンポーネントを含むことができる。 Personal electronic device 500 is not limited to the components and configuration of FIG. 5B, it may include other or additional components with multiple configurations.

本明細書中で用いている用語「アフォーダンス」とは、装置100、300、及び/又は500(図1、図3、図5)のディスプレイスクリーン上に表示できるユーザ対話式グラフィカルユーザインターフェースオフジェクトを意味する。 The term "affordance" as used herein, 100, 300, and / or 500 (FIGS. 1, 3, 5) a user-interactive graphical user interface off objects that can be displayed on a display screen means. 例えば、画像(例えば、アイコン)、ボタン、テキスト(例えば、ハイパーリンク)の各々がアフォーダンスを構成してよい。 Tatoeba, image (Tatoeba, icon), buttons, text (Tatoeba, hyperlinks) Bruno each moth affordance wo configured hand good.

本明細書中で用いている用語「フォーカスセレクタ」とは、ユーザインターフェースの、ユーザと対話中である現行部分を示す入力要素を意味する。 The term "focus selector" as used herein, means an input element that indicates the user interface, the current portion is a user and interacting. カーソル又はその他の位置マーカを含むいくつかの実施例では、カーソルが「フォーカスセレクタ」として機能するので、カーソルが特定のユーザインターフェース要素(例えば、ボタン、ウィンドウ、スライダ、又はその他のユーザインターフェース要素)の上にある間にタッチ感知面(例えば、図3のタッチパッド355、又は、図4Bのタッチ感知面451)上で入力が検出されると、この検出された入力に従って特定のユーザインターフェース要素が調整される。 In some embodiments including a cursor or other position marker, the cursor functions as a "focus selector" cursor particular user interface elements (e.g., buttons, windows, slider, or other user interface elements) touch-sensitive surface while in the above (e.g., a touch pad 355 of FIG. 3, or a touch sensitive surface 451 in FIG. 4B) when the input on is detected, a particular user interface element adjusted in accordance with the detected input It is. タッチスクリーンディスプレイ上のユーザインターフェース要素と直接対話できるタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112、又は、図4Aのタッチスクリーン112)を含むいくつかの実施例では、検出された接触が「フォーカスセレクタ」として機能するため、タッチスクリーンディスプレイの特定のユーザインターフェース要素(例えば、ボタン、ウィンドウ、スライダ、又はその他のユーザインターフェース要素)の位置で入力(例えば、接触による押圧入力)が検出されると、この検出された入力に従って特定のユーザインターフェースが調整される。 Touch screen display (e.g., touch-sensitive display system 112 of FIG. 1A, or a touch screen 112 of FIG. 4A) that can interact directly with the user interface element on the touch screen display in some embodiments including, the detected contact to function as a "focus selector", touch a particular user interface element of the screen display (e.g., buttons, windows, slider, or other user interface element) input at the location of (e.g., pressure input by contact) is detected When a particular user interface in accordance with the detected input is adjusted. いくつかの実施では、フォーカスは、タッチスクリーンディスプレイ上で対応するカーソルの動き又は接触の動きなく(例えば、タブキー又は矢印キーを使用してフォーカスを1つのボタンから別のボタンへ動かすことで)ユーザインターフェースの1つの領域からユーザインターフェースの別の領域へ移動し、これらの実施において、フォーカスセレクタはユーザインターフェースの異なる領域間でフォーカスの動きに従って動く。 In some implementations, the focus, without movement of the movement or contact with the corresponding cursor on the touch screen display (e.g., by using the tab key or arrow keys move the focus from one button to another button) user moves from one area of ​​the interface to another area of ​​the user interface, in these embodiments, the focus selector moves according to the motion of the focus between different user interface area. フォーカスセレクタは、概して、その具体的な形式に関係なく、ユーザが意図する対話をユーザインターフェースで通信するようにユーザによって制御される(例えば、ユーザが対話しようとしているユーザインターフェースの要素を装置に対して示すことによる)ユーザインターフェース要素(又はタッチスクリーンディスプレイ上の接触)である。 Focus selector, generally regardless of their specific form, to device elements of the user interface that is controlled by the user (e.g., the user is attempting to interact so as to communicate the dialogue intended by the user in the user interface According to the illustrated Te) is a user interface element (or contact on a touch screen display). 例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間におけるそれぞれのボタン上でのフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、ユーザがそれぞれのボタンを起動させたい旨を示す(装置のディスプレイ上に示される別のユーザインターフェース要素とは対照的である)。 For example, the touch sensitive surface (e.g., a touchpad or touch screen) Focus selector on each button during the pressing input is detected on (e.g., a cursor, contact, or selection box) location of the user indicating a desire to activate the respective buttons (the other user interface elements shown on the device display in contrast).

本明細書及び請求項で用いられている用語、接触の「特性強度」とは、接触の1つ以上の強度に基づく接触の特徴を意味する。 Terms used in the specification and claims, the term "characteristic strength" of the contact means the characteristics of the contact based on one or more of the intensity of the contact. いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。 In some embodiments, characteristic strength is based on the plurality of intensity samples. 特性強度は、所定の強度サンプル数、又は、所定の期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒間)中に所定のイベント(例えば、接触の検出後、接触のリフトオフの検出前、接触の動きの開始を検出する前又は後、接触の終了の検出前、接触の強度の上昇を検出する前又は後、及び/又は、接触の強度の低下を検出する前又は後)に関連して収集された強度サンプルのセットに任意選択的に基づく。 Characteristic strength, predetermined strength number of samples, or for a predetermined period of time (e.g., 0.05,0.1,0.2,0.5,1,2,5,10 seconds) a predetermined event during (e.g. after detection of the contact, prior to detection of the liftoff of the contact, before or after detecting the start of movement of the contact, prior to detection of the end of the contact, before or after detecting the rise of the intensity of contact, and / or, the contact based optionally the set of collected strength samples associated before or after) for detecting a decrease in strength. 接触の特性強度は次のうちの1つ以上に任意選択的に基づく:接触の強度の最大値、接触の強度の平均値(mean value)、接触の強度の平均値(average value)、接触の強度の上位10パーセンタイル値、接触の強度の最大半減値、接触の強度の最大値の90%の値、その他。 Characteristics intensity of contact is based optionally on one or more of the following: the maximum value of the intensity of the contact, the mean value of the intensity of the contact (mean value), the mean value of the intensity of the contact (average value), the contact Top 10 percentile value of the intensity, half maximal value of the intensity of contact, 90% of the maximum value of the intensity of the contact, and other. いくつかの実施形態では、接触の期間は特性強度を判定する際に使用される(例えば、特性強度が接触の強度の経時的平均値である場合)。 In some embodiments, the period of contact is used to determine the characteristic strength (e.g., when the characteristic intensity is time mean value of the intensity of the contact). いくつかの実施形態では、ユーザが動作を実施したかどうかを判定するために、特性強度が1以上の強度閾値で成るセットと比較される。 In some embodiments, to determine whether the user has performed the operation, characteristics strength is compared to a set of one or more intensity threshold. 例えば、1つ以上の強度閾値で成るセットは第1強度閾値と第2強度閾値を含んでよい。 For example, a set of one or more intensity threshold may include a first intensity threshold value and a second intensity threshold. この実施例では、第1閾値を超えない特性強度での接触の結果として第1の動作が得られ、第1強度閾値を超え、第2強度閾値を超えない特性強度での接触の結果として第2の動作が得られ、第2閾値を超える特性強度での接触の結果として第3動作が得られる。 In this embodiment, the first operation is obtained as a result of contact with characteristic intensity not exceeding the first threshold value, exceeds the first intensity threshold, first as a result of contact with characteristic intensity not exceeding the second intensity threshold 2 of operation is obtained, the third operation is obtained as a result of contact with characteristic intensity above a second threshold value. いくつかの実施形態では、特性強度と1つ以上の閾値との比較は、第1の動作又は第2の動作を実施するかどうかを判定するために用いられるのではなく、むしろ、1つ以上の動作を実施するかどうかを(例えば、それぞれの動作を実施するか、又は、それぞれの動作の実施を控えるかを)判定するために用いられる。 In some embodiments, comparison of the properties strength and one or more threshold values, rather than used to determine whether to perform the first operation or the second operation, but rather, one or more whether to perform the operation (e.g., to implement the respective operations, or whether refrain from implementing the respective operation) is used to determine.

いくつかの実施形態では、特性強度を判定する目的でジェスチャの一部が識別される。 In some embodiments, a portion of a gesture purpose of determining the characteristic intensity is identified. 例えば、タッチ感知面は、開始場所から移行する連続スワイプ接触を受信し、接触強度が増加する終了場所を読み取ることができる。 For example, the touch sensitive surface can be read termination location for receiving the continuous swipe contact the transition from the starting location, the contact strength is increased. この実施例では、終了場所での接触の特性強度は、スワイプ接触全体ではなく、連続するスワイプ接触の一部のみ(例えば、スワイプ接触の終了場所における部分のみ)に基づいてよい。 In this embodiment, characteristic strength of the contact at the end location, not the entire swipe contact, may be based on only a portion of the swipe contact consecutive (e.g., partial at the end location of the swipe contact only). いくつかの実施形態では、接触の特性強度を判定する前に、スワイプ接触の強度にスムージングアルゴリズムを適用できる。 In some embodiments, before determining the characteristic strength of the contact can apply a smoothing algorithm to the intensity of the swipe contact. 例えば、スムージングアルゴリズムは次のうちの1つ以上を任意選択的に含む:重み付けのないスライディング平均スムージングアルゴリズム、三角スムージングアルゴリズム、メディアンフィルタスムージングアルゴリズム、及び/又は、指数スムージングアルゴリズム。 For example, the smoothing algorithm comprises one or more of the following optionally: no sliding average smoothing algorithms weighting, triangular smoothing algorithm, median filter smoothing algorithms, and / or, exponential smoothing algorithm. いくつかの状況では、これらのスムージングアルゴリズムは、これらのスムージングアルゴリズムは、特性強度を判定するために、スワイプ接触の強度のきつい急増や落ち込みを除去する。 In some situations, these smoothing algorithms, these smoothing algorithms, in order to determine the characteristic strength, removing the tight explosion and drop strength of the swipe contact.

タッチ感知面上での接触の強度は、1つ以上の強度閾値、例えば接触検出強度閾値、弱押圧強度閾値、強押圧強度閾値、及び/又は、1つ以上のその他の強度閾値に関連して特性付けられてよい。 Intensity of contact on the touch-sensitive surface, one or more intensity threshold, for example, the contact detection intensity threshold, the weak pressure intensity threshold, strong pressure intensity threshold, and / or, in connection with one or more other intensity threshold characteristics may be attached. いくつかの実施形態では、弱押圧強度閾値は、装置が物理的なマウス又はトラックパッドのボタンをクリックすることに典型的に関連した操作を行う強度に対応する。 In some embodiments, the weak pressure intensity threshold device corresponding to the intensity of performing typically associated with operation by clicking the button of a physical mouse or trackpad. いくつかの実施形態では、強押圧強度閾値は、装置が物理的なマウス又はトラックパッドのボタンをクリックすることに典型的に関連する動作を行う操作に対応する。 In some embodiments, the strength pressure intensity threshold corresponds to the operation apparatus performs typically associated operation to click the button of a physical mouse or trackpad. いくつかの実施形態では、弱押圧強度閾値を下回る(例えば、更に、それを下回ると接触が検出されなくなる名目上の接触検出強度閾値よりも上の)特性的強度を持った接触が検出されると、装置は、弱押圧強度閾値又は強押圧強度閾値に関連する操作を行うことなく、タッチ感知面上で接触の動きに従ってフォーカスセレクタを動かすであろう。 In some embodiments, below the weak pressure intensity threshold contact having a characteristic strength is detected (e.g., further, above the contact detection intensity threshold of nominal contact is not detected and below it) When the apparatus, without performing operations related to the weak pressure intensity threshold or intensity pressure intensity threshold would move the focus selector according to the motion of the contact on the touch sensitive surface. 一般に、他に記述されない限り、これらの強度閾値は、様々なユーザインターフェース図の間で一貫している。 Generally, unless stated otherwise, these intensity threshold is consistent between different user interface view.

弱押圧強度閾値を下回る強度から、弱押圧強度閾値と強押圧強度閾値との間の強度への、接触の特性強度の増加は、時に「弱押圧」入力と呼ばれる。 From the intensity below the weak pressure intensity threshold, an increase in the characteristic strength to strength, contact between the weak pressing strength threshold and strength pressure intensity threshold is sometimes referred to as "weak pressing" Enter. 強押圧強度閾値を下回る強度から、強押圧強度閾値を上回る強度への接触の特性強度の増加は、時に「強押圧」入力と呼ばれる。 From the intensity below the strong pressure intensity threshold, an increase in the characteristic strength of contact to strength exceeding strong pressure intensity threshold it is sometimes referred to as "strong pressing" Enter. 接触検出強度閾値を下回る強度から、接触検出強度閾値と弱押圧強度閾値との間の強度への接触の特性強度の増加は、時にタッチ面上での接触の検出と呼ばれる。 From the intensity below the contact detection intensity threshold, the increase in the characteristic strength of contact to strength between the contact detection intensity threshold and the weak pressure intensity threshold, called the detection of contact on the touch surface when. 接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への接触の特性強度の減少は、時にタッチ面からの接触のリフトオフの検出と呼ばれる。 From strength exceeding contact detection intensity threshold, decrease in the properties strength of contact to the intensity below the contact detection intensity threshold, called the lift-off of the detection of the contact from the touch surface when. いくつかの実施形態では、接触検出強度閾値はゼロである。 In some embodiments, the contact detection intensity threshold is zero. いくつかの実施形態では、接触検出強度閾値はゼロより大きい。 In some embodiments, the contact detection intensity threshold is greater than zero.

本明細書中で述べているいくつかの実施形態では、それぞれの押圧入力を含むジェスチャの検出に応答して、又は、それぞれの接触(あるいは複数の接触)と共に行われるそれぞれの押圧入力の検出に応答して、1つ以上の操作が行われ、この場合、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(あるいは複数の接触)の強度の増加を検出することに少なくとも部分的に基づいて検出される。 In some of the embodiments described herein, in response to detecting the gesture, including a respective pressure input, or, for the detection of each of the pressing input performed with each of the contact (or a plurality of contact) response to the hand, 1 Tsu ERROR field operation moth done, in this case, each mounting pressure input teeth, pressing input intensity threshold wo than contact (Aruiwa multiple Roh contact) field strength Roh increase wo detect ancient city similar, at least in part target two based hand It is detected. いくつかの実施形態では、それぞれの操作は、(例えば、それぞれの押圧入力の「ダウンストローク」のような)押圧入力強度閾値を上回るそれぞれの接触の強度の増加の検出に応答して行われる。 In some embodiments, each operation is performed in response to (e.g., such as the "downstroke" in each pressure input) the detection of an increase in the intensity of each of the contact above the pressing input intensity threshold. いくつかの実施形態では、押圧入力には、押圧入力強度閾値を上回るそれぞれの接触の強度の増加と、押圧入力強度閾値を下回る接触の強度のその後の減少とが含まれ、それぞれの操作は、(例えば、それぞれの押圧入力の「アップストローク」のような)押圧入力閾値を下回るそれぞれの接触の強度のその後の減少の検出に応答して行われる。 In some embodiments, the pressure input is included an increase in the intensity of the respective contact above the pressing input intensity threshold, and subsequent reduction of the intensity of the contact below the pressed input intensity threshold, each operation, (e.g., such as the "upstroke" of each pressure input) is performed in response to detection of a subsequent decrease in the intensity of the respective contact below the pressed input threshold.

いくつかの実施形態では、時に「ジッタ」と呼ばれる偶発的な入力を避けるために装置は強度ヒステリシスを採用し、この場合、装置は、押圧入力強度閾値に対する定義済みの関係を使ってヒステリシス強度閾値を定義するか又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値をX単位下回る、あるいは、ヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、又は何らかの合理的な割合である)。 In some embodiments, at device to avoid accidental input called "jitter" adopts intensity hysteresis, in this case, apparatus, hysteresis intensity threshold using a predefined relationship to pressure input intensity threshold define either or selected (e.g., hysteresis intensity threshold is below the pressing input intensity threshold X units, or hysteresis intensity threshold is 75% of the pressure input intensity threshold, 90%, or in some reasonable proportions ). 従って、いくつかの実施形態では、押圧入力には、押圧入力強度閾値を上回るそれぞれの接触の強度の増加と、押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度のその後の減少とが含まれ、それぞれの操作は、(例えば、それぞれの押圧入力の「アップストローク」のような)ヒステリシス強度閾値を下回るそれぞれの接触の強度のその後の減少の検出に応答して行われる。 Thus, in some embodiments, the pressing input, an increase in the intensity of the respective contact above the pressing input intensity threshold, and the subsequent decrease in the intensity of the contact below the hysteresis intensity threshold corresponding to the pressure input intensity threshold included, each operation is performed in response to (e.g., such as the "upstroke" of each pressure input) subsequent detection of decrease in the intensity of the respective contact below the hysteresis intensity threshold. 同様に、いくつかの実施形態では、押圧入力は、装置が、ヒステリシス強度閾値よりも低い強度から押圧入力強度閾値よりも高い強度への接触の強度の増加と、任意選択的に、ヒステリシス強度以下の強度への接触の強度のその後の減少とを検出する場合に限って検出され、そして、それぞれの操作が、(例えば、状況によって、接触の強度の増加、又は接触の強度の減少のような)押圧入力の検出に応答して行われる。 Similarly, in some embodiments, the pressing input device, an increase in the intensity of the contact from the lower intensity than the hysteresis intensity threshold to a higher strength than the pressing input intensity threshold, optionally, less hysteresis strength It is detected only in the case of detecting a subsequent reduction and the strength of contact to the intensity of, and the respective operations, such as (for example, depending on the situation, an increase in the intensity of contact, or reduction of the intensity of the contact ) it is performed in response to the detection of the pressing input.

説明を簡単にするために、押圧入力に関連する押圧入力に応答して又は押圧入力を含むジェスチャに応答して行われる動作についての記述は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増加と、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増加と、押圧入力強度閾値を下回る接触の強度の減少と、及び/又は、押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少とのうちのいずれかの検出に応答して誘発されている。 To simplify the description, description of the operation performed in response to a gesture that includes a with or pressing input responsive to the pressing input associated with pressure input may optionally, in contact over a pressing input intensity threshold an increase in strength, an increase in the intensity of the contact from the intensity below the hysteresis intensity threshold to strength exceeding pressing input intensity threshold, a decrease in the intensity of the contact below the pressed input intensity threshold, and / or, in the pressure input intensity threshold in response to the detection of either of the reduction in the intensity of the contact below the corresponding hysteresis intensity threshold is induced. 加えて、押圧入力強度閾値を下回る接触の強度の減少を検出することに応じて操作が行われると説明された実施例において、操作は、任意選択的に、押圧入力強度閾値に対応し、かつそれを下回るヒステリシス強度閾値を下回る接触の強度の減少の検出に応答して行われる。 In addition, in the embodiment the operation has been described as being performed in response to detecting a decrease in the intensity of the contact below the pressed input intensity threshold, operation, optionally, in response to the pressing input intensity threshold, and It is performed in response to detection of a decrease in the intensity of the contact below the hysteresis intensity threshold below it.

ここで用いている用語「インストールされたアプリケーション」とは、電子装置(例えば、装置100、300、及び/又は500)にダウンロードされ、ローンチされる(例えば、開かれる)準備ができたソフトウェアアプリケーションを意味する。 Here, that the term "installed application" as used, is downloaded to the electronic device (e.g., 100, 300, and / or 500), it is launched (e.g., opened by) the software application ready means. いくつかの実施形態では、ダウンロードされたアプリケーションは、ダウンロードされたパッケージからプログラム部分を抽出し、この抽出部分をコンピュータシステムのオペレーティングシステムと統合するインストールプログラムの方法により、インストールされたアプリケーションとなる。 In some embodiments, the downloaded application extracts the program portion from the downloaded package by the method of installation program for integrating the extracted portion and the operating system of the computer system, the installed applications.

ここで用いている用語「オープンアプリケーション」又は「実行中のアプリケーション」とは、保持状態の情報を持った(例えば、装置/グローバル内部状態157及び/又はアプリケーション内部状態192の一部として)ソフトウェアアプリケーションを意味する。 The As used herein, the term "open applications" or "running applications", with information holding state (e.g., as part of the device / global internal state 157 and / or application internal state 192) the software application It means. オープン又は実行中のアプリケーションは、次のタイプのアプリケーションのいずれかであってもよい。 Open or running application, it may be one of the following types of applications.
●アプリケーションを使用している装置のディスプレイスクリーンに現在表示されているアクティブアプリケーション、 ● Active application that is currently displayed on the display screen of the device using the application,
●現在表示されていないが、1つ以上の処理が1つ以上のプロセッサによって処理中のバックグラウンドアプリケーション(又はバックグラウンド処理)、 ● Although not currently displayed, the background application of one or more processes being processed by one or more processors (or background process),
●実行されてはいないが、メモリ(揮発性及び不揮発性のぞれぞれ)に記憶され、アプリケーションの実行の再開に使用できる状態情報を有する、中断又は休止中のアプリケーション。 ● Although not performed, the memory (, respectively, respectively volatile and non-volatile) in the stored, having status information that can be used to resume execution of the application, the suspended or resting applications.

ここで用いている用語「閉じられたアプリケーション」とは、保持状態情報を持っていない(例えば、装置のメモリに記憶されていない閉じられたアプリケーションのための状態情報がメモリに記憶されていない)ソフトウェアアプリケーションを意味する。 Here, that the term "closed application" as used, does not have the holding state information (e.g., state information for the closed not stored in the memory of the device application is not stored in the memory) It means software applications. したがって、アプリケーションを閉じることは、そのアプリケーションのアプリケーション処理を停止及び/又は除去すること、装置のメモリからアプリケーションの状態情報を除去することを含む。 Therefore, the closing of the application to stop and / or remove the application processing of the application, and removing the application state information from the memory of the device. 一般に、第1アプリケーションが閉じられていない状態で第2アプリケーションを開いても、第1アプリケーションはと閉じられない。 In general, you open the second application with the first application is not closed, not closed first application and. 第2アプリケーションが表示され、第1アプリケーションの表示が中止されると、第1アプリケーションはバックグラウンドアプリケーションとなる。 The second application is displayed, the display of the first application is terminated, the first application is a background application.
1. 1. コンテキスト特化ユーザインターフェース Context-specific user interface

次に、ディスプレイ及びタッチ感知面を実装した多機能装置、例えば装置100、300、及び/又は500(図1A、図3A、及び/又は図5A)上で実施できるコンテキスト特化ユーザインターフェース(「UI」)及び関連する処理の実施形態に注目する。 Next, the display and the touch-sensitive surface multifunction device that implements, for example 100, 300, and / or 500 (FIGS. 1A, 3A, and / or FIG. 5A) context specific user interface can be implemented on ( "UI ") focus on embodiments and associated processing.

以下の実施例は、コンテキスト特化ユーザインターフェースの例示的な実施形態を示す。 The following examples illustrate exemplary embodiments of the context specialized user interface. ここでは、カスタマイズされたコンテキスト特化ユーザインターフェースに関連した全体的な概念について述べる。 Here de leaf, customized other context-specific user interface similar to the associated other the entire target name concept Nitsuite described. ここで述べているコンテキスト特化ユーザインターフェースは多数の方法で編集できることに留意されたい。 Here described in that context specific user interface is noted that can be edited in a number of ways. ユーザインターフェースは、時間に関する様々なタイプの情報を表示あるいは示すことができ、ユーザが情報のタイプはユーザによってカスタマイズ可能である。 The user interface may indicate display or various types of information regarding the time, the type of user information is customizable by the user. ユーザインターフェースは、色、表示密度、複雑性(又は複雑性のなさ)等の態様を含んでおり、これらもカスタマイズ可能である。 User interface, color, display density, includes aspects such complexity (or complexity in the name of), they can also be customized. 技術上受け入れられている意味と矛盾することなくここで用いているように、「複雑性」とは、時間と分を示すために使用されるもの(例えば、時計の針、又は時間/分の表示)以外のあらゆる時計文字盤特徴を意味する。 As used here Consistent with meaning accepted in the art, the term "complexity", shall be used to indicate the hours and minutes (e.g., the clock hands, or the time / min It means any watch dial features other than the display). 複雑性は、アプリケーションから入手したデータ等の異なるタイプの情報をユーザに提供することができ、また、複雑性によりユーザに伝達された情報も同様にカスタマイズ可能である。 Complexity, it is possible to provide different types of information of such data obtained from the application to the user, also, information communicated to the user can also be customized as well by complexity.

これらの特徴の組み合わせにより、少なくとも何千もの利用可能なコンテキスト特化ユーザインターフェースが生み出される。 The combination of these features, at least thousands available contextual specialization user interface is produced. これらの順列の各々について述べることは現実的でないため、特定のコンテキスト特化ユーザインターフェースを持つ態様について強調するが、具体的な態様は他のコンテキスト特化ユーザインターフェースにも使用でき、また、具体的なコンテキスト特化ユーザインターフェースは他の態様を有することができるので、上記のような例示的記述はこのような態様を上述のコンテキスト特化ユーザインターフェースに限定することを一切意図していない。 Because to describe each of these permutations is not practical, emphasize the aspects having a specific context specialized user interface, a specific embodiment can also be used in other contexts specialized user interface, also, specifically since such context specialized user interface can have other aspects, exemplary description described above is not intended at all to limit such embodiments to the above context specialized user interface. これらの実施形態は、提示された全体的な概念を例証することを意味するが、当業者は、ここで述べている技術の範囲内で多数のその他の実施形態が可能であることを認識するだろう。 These embodiments is meant to illustrate the overall concept presented, recognize that the skilled person is capable of numerous other embodiments within the scope of the techniques described herein right.

図6Aは、装置600上で動作できる例示的なコンテキスト特化ユーザインターフェースを示す。 Figure 6A illustrates an exemplary context specialized user interface for operating on device 600. いくつかの実施形態では、装置600は装置100、300、又は500であってよい。 In some embodiments, device 600 may be a 100, 300, or 500. 電子装置はディスプレイ(例えば、504)を有する。 The electronic device has a display (e.g., 504).

時間を追跡しているユーザは、特定のイベントからどのくらいの時間が経過したかについての何らかの感覚を得たいかもしれない。 User is tracking time may wish to obtain some sense of whether elapsed how much time the particular event. 例えば、ユーザは、最後に時間を見てからどのくらいの時間が経過したか、あるいは、特定の時間帯(例えば、朝)からどのくらいの時間が経過したかを知りたいかもしれない。 For example, the user, the end how much time has elapsed since a look at the time, or, specific time period (for example, in the morning) might want to know how much time has elapsed since. 時計文字盤を見ることに加えて、ユーザは、経過した時間の知覚を補強するための追加の視覚的合図を受信したいかもしれない。 In addition to looking at the watch dial, the user may want to receive additional visual cues to reinforce the perception of elapsed time.

図6Aに示すように、装置はユーザ入力602を表すデータを受信する。 As shown in FIG. 6A, device receives the data representing the user input 602. このデータの受信に応答して、装置はユーザインターフェーススクリーン604をディスプレイに表示する。 In response to receiving this data, the device displays a user interface screen 604 to the display. スクリーン604は時計文字盤606を含んでいる。 Screen 604 includes a clock face 606. 図6Aに示す実施例にて、現在時刻は7:00である。 In the embodiment shown in FIG. 6A, the current time is 7:00. 時計文字盤606は、現在時刻を示す前は第1時刻(図6Aに示すように10:05)を示している。 Clock face 606, before indicating the current time indicates the first time (10:05 as shown in FIG. 6A). 装置600は、時計文字版をアニメーション化してスクリーン604を更新することにより、第1時刻の表示から現在時刻の表示への移行を行う。 Apparatus 600, by updating the screen 604 animate the watch character plate, making the transition to the display of the current time from the display of the first time. 更新されたスクリーン604は、時計文字盤612を表示したスクリーン610のように示される。 Screen 604 that is updated is as shown in the screen 610 displaying a clock face 612. これで、時計文字盤612が更新され現在時刻を示す。 This shows the current time clock face 612 is updated. スクリーン604〜610のアニメーションは、第1時刻から現在時刻までの時間の経過を表す。 Animation of the screen 604 to 610 represents the passage of time to the current time from the first time. いくつかの実施形態では、スクリーン604及び/又は610は日付表示を更に含んでもよい。 In some embodiments, the screen 604 and / or 610 may further include a date display.

上述したように、図6Aで例示したコンテキスト特化ユーザインターフェースは、第1時刻を示した時計文字盤を最初に表示する。 As described above, the context specialized user interface illustrated in FIG. 6A, initially displays a clock face showing the first time. 第1時刻は異なる基準に基づいて決定することができる。 The first time may be determined based on different criteria. いくつかの実施形態では、装置は、ユーザが前回電子装置を移動させた時刻(例えば、装置が着用可能である場合にはユーザによる手首の下げ、又は、ユーザがもうディスプレイを能動的に見ていないことを表すその他の移動のような、装置移動の時刻)を表す第2データを受信する。 In some embodiments, the device, the time the user moves the last electronic device (e.g., lowering of the wrist by the user when the device is wearable or user watching the other display actively things like other mobile representing the absence, to receive second data representing the time) of the device moving. ユーザが前回電子装置を移動させた時刻は、ユーザ入力602を表すデータを受信する前に、ユーザが装置を最後に見た時刻、又は、装置のディスプレイが最後にオフにされた時刻であってよい。 Time the user moves the last electronic device, before receiving the data representing the user input 602, the time the user sees the device end, or, a time at which the display of the device was last turned off good. 次に、ユーザが前回電子装置を移動させた時刻が、第1時刻として時計文字盤によって示される。 Then, the time the user moves the last electronic device is indicated by a clock face as the first time. 例えば、図6Aでは、時計文字盤606が示す10:05は、ユーザが前回装置を移動させた時刻(即ち、前回のユーザ対話の時刻を示す)であってよい。 For example, in Figure 6A, 10:05 indicated by the clock face 606, the time the user moves the previous device (i.e., indicating the time of the last user interaction) may be. これらの実施例では、ユーザインターフェーススクリーンが更新されると、前回のユーザ対話(例えば、ユーザが最後に装置600を見た時刻)からどのくらいの時間が経過したかを示す表示がユーザに提供される。 In these embodiments, the user interface screen is updated, the previous user interaction (e.g., the user time viewed last device 600) display that indicates how much time has elapsed since the user is provided .

その他の実施形態では、第1時刻は所定の時間間隔に基づくことができる。 In other embodiments, the first time may be based on a predetermined time interval. 例えば、第1時刻は現在時刻よりも第1持続時間だけ先行してよく、また、第1持続時間は現在時刻以前の所定の持続時間であってよい。 For example, the first time may precede only the first duration than the current time, also, the first duration may be a current time before a predetermined duration. 即ち、時計文字盤が示す第1時刻は、ユーザ対話に基づくよりも、むしろ現在時刻以前の所定の又は固定の持続時間に基づいてよい。 That is, the first time showing clock face is, rather than based on a user interaction may be rather based on the current time duration of the previous predetermined or fixed.

いくつかの実施形態では、所定の持続時間は5時間である。 In some embodiments, the predetermined duration is 5 hours. ユーザ入力に応答して、時計文字盤が現在時刻よりも5時間前の時刻を表示し、次に、時計文字盤をアニメーション化して、第1時刻の表示から現在時刻の表示へ移行することができる。 In response to user input, a clock face displays a time of 5 hours before the present time, then animate the clock face, to be migrated to the display of the current time from the display of the first time it can. 例えば、現在時刻が6:00であれば、装置は、1:00から6:00への移行を行うために、ユーザ入力に応答して、1:00を示すアニメーション化された時計文字盤を表示することができる。 For example, if the current time is 6:00, the device 1: 00 in order to perform the transition to 6:00 in response to user input 1:00 to the animated clock face shown it can be displayed.

その他の実施形態では、第1時刻は所定の時間に基づいてよい。 In other embodiments, the first time may be based on a predetermined time. この場合、装置は、現在時刻に関係なく同一の時間帯(つまり第1時刻)を示すことでアニメーションを開始し、次に、現在時刻に到達するまで時計文字盤のアニメーション化を継続することができる。 In this case, the device is to start the animation by indicating the current the same time band regardless time (that first time), then, is to continue the animation of a clock face until it reaches the current time it can. 例えば、第1時刻は朝(例えば、午前8:00)であってよい。 For example, the first time in the morning (for example, 8:00 am) may be. この実施例では、現在時刻が6:00であれば、装置が、8:00から6:00への移行を行うために、ユーザ入力に応答して、8:00を示すアニメーション化された時計文字盤を表示することができる。 In this embodiment, if the current time is 6:00 devices, from 8:00 to make the transition to 6:00 in response to user input, 8: animated timepiece indicating the 00 it can be displayed on the dial.

いくつかの実施形態では、第1時刻がどのように決定されたかに関係なく、第1時刻と現在時刻の間の持続時間を示す暫くの間、時計文字盤をアニメーション化することができる。 In some embodiments, regardless of whether they were determined how first time, a while indicating the duration between the first time and the current time, it is possible to animate the clock face. 即ち、アニメーション化の長さはこの持続時間の長さとほぼ比例すると言える。 That is, the length of the animated said to substantially proportional to the length of the duration. アニメーション化の長さは第1持続時間と正確に比例しなくてもよいが、時間のおおよその長さをユーザに概括的に伝えるものであってよい。 The length of the animated may not proportionally exactly the first duration, but may be those generally convey the approximate length of time to the user. 上述の実施例を用いて例証するために、時計文字盤は、3:00から6:00へ移行する場合よりも8:00から6:00へ移行する場合に、より長い期間に亘ってアニメーション化することができる。 To illustrate using the above-described embodiment, a clock face 3: 00 to migrate between 8 than when shifting to 6:00 to 6:00 over a longer period of time animation it can be of. これは、持続時間がユーザ対話間の時間に基づく場合のように、持続時間が可変である場合に特には有用である。 This, as in the case duration based on the time between the user interaction, especially useful when the duration is variable. この場合、ユーザは、時計文字盤のアニメーション化が長ければ対話間の経過時間がより長く、時計文字盤のアニメーション化が短ければ対話間の時間が短いと即座に理解することができるだろう。 In this case, the user is, the elapsed time between the dialogue the longer the animation of the clock face is longer, it will be understood immediately that the short time between the dialogue is shorter animation of the clock face.

その他の実施形態では、時計文字盤が、第1期間に関係なく、ある期間アニメーション化される。 In other embodiments, a clock face, regardless of the first period is a period of time animated. 即ち、アニメーション化の長さは、第1時刻と現在時刻の間の持続時間と比例するものではない。 That is, the length of animated, not proportional to the duration between the first time and the current time. いくつかの実施形態では、アニメーション化の長さはアニメーションについて同じであってもよい。 Some mosquito Roh embodiment leaf emergence, animation mosquitoes field length Leaves animation Nitsuite same out there hand mourning good. 上述の実施例を用いて例証するために、時計文字盤は、3:00から6:00へ移行するか8:00から6:00へ移行するかに関係なく、同一期間だけアニメーション化することができる。 To illustrate using the above-described embodiment, a clock face 3: 00 regardless of whether the transition from either 8:00 proceeds to 6:00 to 6:00, to animate by the same period can. これは、ユーザがその移行を閲覧する時間の削減に役立つ。 This helps to reduce the time for the user to view the transition. あるいは、8:00から6:00へ移行する場合は3:00から6:00へ移行する場合とは異なる期間だけ時計文字盤をアニメーション化できるが、これらの期間は第1期間に関連していなくてよい。 Alternatively, from 8:00 when shifting to 6:00 can animate only clock face different periods from the case of the transition 3:00 to 6:00, but these periods are related to the first period or may not.

図6Bは、このコンテキスト特化ユーザインターフェースの任意選択的な特徴を示す。 6B shows an optional feature of this context specialized user interface. ユーザ入力620を表すデータに応答し、装置600が、時計文字盤624を含んだユーザインターフェーススクリーン622を表示する。 In response to data representing user input 620, device 600 displays a user interface screen 622 including a clock face 624. この実施例において、現在時刻は10:25である。 In this embodiment, the current time is 10:25. 時計文字盤624は第1時刻(この実施例では10:05)を示している。 Clock face 624 shows a (10:05 in this example) first time. 時計文字盤624は、第1時刻を表す山のシーンの画像を背景として更に表示している。 Clock face 624, further displaying the image of a mountain scene representing a first time as a background. 例えば、図6Bに示すように、時計文字盤624は朝の山のシーンの眺望を示している(例えば、空における太陽626の位置を参照されたい)。 For example, as shown in FIG. 6B, a clock face 624 shows a view of the scene morning mountain (see, eg, the position of the sun 626 in the sky). そのため、時計文字盤624を見ているユーザは、時計文字盤自体と、やはり時計文字盤が示す時刻を表す背景とに基づいて時刻を理解する。 Therefore, the user watching the clock face 624, a clock face itself, also understand time based on the background that represents the time indicated clock face is. これにより、ユーザは、表示された時刻が午後10:05ではなく午前10:05であることをシーンの表示によって理解するので、ユーザに追加情報が提供される点に留意されたい。 Thus, since the user understand by displaying a scene that time displayed is 10:05 am and not pm 10:05 should be noted that additional information is provided to the user.

いくつかの実施形態では、装置は、時計文字盤が示している時刻を表すシーンの画像にアクセスする。 In some embodiments, the device accesses the scene of an image representing a time at which the clock face is shown. 時刻を表すシーンの画像は、時計文字盤が示す時刻と併せて、類似の時間帯もユーザに対して暗示することができる。 Scene image representing a time, in conjunction with the time indicated by clock face is, the time zone of similarity can also be implied to the user. シーンの画像は時計文字盤が示すまさにその時刻を暗示する必要も、そのシーンにおける場所の時間帯に厳密に関連している必要もない(これについては以降でより詳細に述べる)。 The scene of the image is also necessary to imply exactly the time indicated by the clock dial, (described in more detail later about this) that there is no need to be strictly related to the time zone of the location in the scene. いくつかの実施形態では、シーンの画像は現在時刻と実質的に同じ時間帯(つまり、そのシーンの現場で画像を撮影した時間帯)にキャプチャされた画像である。 In some embodiments, the scene of the image is the current time substantially the same time zone (i.e., image time period taken at the scene of the scene) image captured on. その他の実施形態では、シーンの画像は、現在時刻と異なる時間帯にキャプチャされた画像である。 In other embodiments, the scene of the image is a captured image at different current time time zone.

いくつかの実施形態では、シーンの画像は、例えば、街、ビーチ、砂漠、公園、湖、山、又は渓谷を描写していてよい。 In some embodiments, the scene of the image is, for example, city, beach, desert, park, lake, mountain, or may not depict the valley. いくつかの実施形態では、シーンはヨセミテ渓谷やビッグベン等の、ユーザにとって認識可能な場所であってよい。 In some embodiments, the scene such Yosemite Valley and Big Ben may be recognizable location for the user.

次に、装置600はスクリーン630、640を表示する。 Next, device 600 displays a screen 630, 640. スクリーン630は以下で述べるように任意選択であり、第1時刻と現在時刻の間の時間を示している時計文字盤632を含む。 Screen 630 is optional, as described below, including the clock face 632, which indicates the time between the first time and the current time. この中間時間は、背景(例えば、沈む夕日634を参照)によって時計文字盤632上に更に表される。 This intermediate time, the background (for example, sinking see sunset 634) is further represented on clock face 632 by. スクリーン640は、現在時刻を示す時計文字盤642を含む。 Screen 640 includes a clock face 642 that indicates the current time. 時計文字盤642は、現在時刻を表す背景を更に表示する(例えば、月644を参照)。 Watch dial 642, further displays a background that represents the current time (see, for example, the moon 644).

そのため、いくつかの実施形態では、またユーザ入力620を表すデータの受信に応答して、装置は、第1時刻を表す第1シーン画像(例えば、時計文字盤624の背景)にアクセスし、現在時刻を表す第2シーン画像(例えば、時計文字盤642の背景)にアクセスし、更に、ユーザ入力を表すデータの受信に応答して、第1シーン画像と第2シーン画像を連続的に表示する。 Therefore, in some embodiments, also in response to receipt of data representing user input 620, the device accesses the first scene image representing a first time (e.g., the background of a clock face 624), the current the second scene image (e.g., the background of the clock face 642) indicating the time to access further responsive to receipt of data representing user input, continuously displaying the first scene image and a second scene image .

連続的な表示は、第1時刻から現在時刻までの時間の経過を示す。 Continuous display indicates the elapsed time to the current time from the first time. 装置は、各々が異なる時間帯を示す特定シーンの一連の画像(例えば、時間経過画像)を含んでよいため、時計文字盤が示すどの第1時刻又は現在時刻も、表示された時刻を表すシーン画像を有する。 Device, a series of images of a particular scene that shows each different time zones (for example, time lapse image) since it contains, represents what the first time or the current time is also displayed time indicates a clock face the scene having an image. いくつかの実施形態では、第1シーン画像と第2シーン画像が背景としてユーザインターフェーススクリーン上に表示される。 In some embodiments, the first scene image and a second scene image is displayed on the user interface screen as a background.

いくつかの実施形態では、装置は、第1時刻を表す第1シーン画像(例えば、時計文字盤の背景624)、第1時刻と現在時刻の間の1つ以上の時間を表す1つ以上の第2シーン画像(例えば、時計文字盤の背景632)、現在時刻を表す第3シーン画像(例えば、時計文字盤の背景642)を含んだ一連のシーン画像にアクセスする。 In some embodiments, the device first scene image representing a first time (e.g., background 624 of a clock face), one or more representing one or more times during the first time and the current time the second scene image (e.g., the background 632 of the clock face), a third scene image representing the current time (e.g., background 642 of a clock face) to access a set of scene images including. ユーザ入力620を表すデータの受信に応答して、装置が、第1時刻から現在時刻までの時間の経過を示す一連のシーン画像をアニメーション化することで、この一連のシーン画像を(例えば、フリップブック(パラパラ漫画)のように)表示する。 In response to receiving the data representing the user input 620, device, a series of scene images showing the elapsed time to the current time from the first time that animate, the series of scene images (e.g., flip book (Flipbook) Roh Yo d) Show. いくつかの実施形態では、シーンはユーザによって指定される(例えば、装置は異なるシーンについて1組の時間経過画像を記憶し、表示するシーンをユーザが選択することができる)。 In some embodiments, the scene (which may be, for example, the device stores a set of time lapse images for different scenes, the user selects a scene to be displayed) specified by the user.

図6Bに示すように、装置600は、表示されたそれぞれの背景をアニメーション化するために、スクリーン622、630、640を連続的に表示し、これにより、シーン画像を時間経過を示すフリップブックのようにアニメーション化する。 FIG. 6B similar show Yo two, device 600 leaves, the displayed data each field background wo animation mosquitoes to Tame two, screen 622,630,640 wo continuous target second display, and this Niyori, scene image wo time wo show flipbook Roh to animate so. いくつかの実施形態では、スクリーン620から630、更に640への移行も、時計文字盤の針を右回りに回転するようにアニメーション化する、及び/又は、シーン画像の表示をフリップブックのようにアニメーション化することによってアニメーション化することができる。 In some embodiments, 630 from the screen 620, even further transition to 640, to animate to rotate needle clock face clockwise, and / or, the display of the scene image as flipbook it can be animated by animated. 時計文字盤がデジタル時計の表現を代替的又は追加的に示す場合には、時間と分の数字表示を何らかの方法にてアニメーション化して経過時間を示すことができる。 If the clock face is shown alternatively or additionally a representation of a digital clock, it can show the elapsed time and animate the numerical display of hours and minutes in some way. アニメーション化された時計文字盤とアニメーション化されたシーン画像を表示することにより、装置は、明瞭で、第1時刻と現在時刻を容易に区別できる表示をユーザに提供する。 By displaying the animated timepiece dial and animated scene image, apparatus, clear, it provides an indication that the first time and the current time can be easily distinguished by the user.

いくつかの実施形態では、装置600は、位置センサ(例えば、GPSセンサ532及び/又はGPSモジュール135)を有し、装置は位置センサから現在位置を入手する。 In some embodiments, device 600 has a position sensor (e.g., GPS sensor 532 and / or GPS module 135), the device obtains the current position from the position sensor. 第1シーン画像は現在位置での第1時刻を表し、第2又は第3シーン画像(例えば、現在時刻を表すいずれか)は現在位置での現在時刻を表す。 The first scene image represents a first time at the current position, the second or third scene image (e.g., either indicating the current time) represents the current time at the current position. 即ち、示された時間経過は、現在位置での日中/夜間の時間を反映している。 In other words, the indicated time has elapsed, reflects the day / night of time at the current position. 例えば、ユーザが北極線付近のある場所にいる場合には、1日が24時間に近い日中時間を有することができる。 For example, if the user is in the location of the north polar line day it may have time during the day close to 24 hours. この実施例では、第1時刻と現在時刻が長時間離れていても、第1時刻と現在時刻を示す画像を全て日中のシーン画像(例えば、ヨセミテ渓谷)にすることができる。 In this embodiment, even if the first time and the current time is a long time away, the first time and all daytime scene images an image showing the current time (e.g., Yosemite Valley) can be. したがって、シーン画像は現在位置にて示された時間を表すことはできるが、シーンの場所にて示された時間を表すことはできない。 Therefore, the scene image may be representative of a time indicated by the current position, it can not represent the time indicated by the scene location. アニメーションが現在位置でのユーザの経験(例えば、時間の知覚)に基づいているため、この概念により、装置が現在位置での時間経過を示すコンテキスト特化ユーザインターフェースを表示できるようになり、ユーザと装置の対話が拡張される。 Because animation is based on a user's experience with the current position (e.g., the time perception), this concept, apparatus able to display the context specialized user interface showing the time course of the current position, the user dialogue of the device is expanded.

いくつかの実施形態では、装置は、ユーザインターフェースオブジェクトをユーザインターフェーススクリーン上の、第1時刻に基づく第1位置に表示する。 In some embodiments, the device displays a user interface object on the user interface screen, in a first position based on the first time. いくつかの実施形態では、この位置は、「時」表示(例えば、ディスプレイの下中央における6時の位置)のように、時計文字盤に沿った位置に基づいてよい。 In some embodiments, the position, "hour" indication (e.g., 6 o'clock position in the bottom center of the display) as shown in, or on the basis of the position along the clock face. いくつかの実施形態では、この位置は、太陽又は月の位置のように、水平線と交差する位置に基づくことができる。 In some embodiments, the position, as the position of the sun or the moon, can be based on a position that intersects a horizontal line. 例えば、図6Bでは、太陽626の位置は、シーン中の東の、正午までもう少しの位置にある太陽626を表すので、第1時刻を示している。 For example, in Figure 6B, the position of the sun 626 in the east in the scene, since they represent the sun 626 in some more positions noon shows a first time.

いくつかの実施形態では、装置は、ユーザインターフェースオブジェクトを、ユーザインターフェーススクリーン上の第1位置から、現在時刻に基づく第2位置へ移動させることによってアニメーション化する。 In some embodiments, the device, the user interface object, from a first position on the user interface screen, to animate by moving to the second position based on the current time. ユーザインターフェースオブジェクトを第1位置から第2位置へ移動させることにより、第1時刻から現在時刻への時間経過を示している。 By moving the user interface object from the first position to the second position shows the time course of the current time from the first time. 図6Bに示すように、太陽626は一連のシーン画像にて空を横切って移動する(太陽626と太陽634を参照)。 As shown in FIG. 6B, the sun 626 moves across the sky in a series of scene images (see sun 626 and the sun 634). 次に、ユーザインターフェースオブジェクトは夜空の現在時刻を表す位置にある月644を示す。 Next, the user interface object leaves the night sky field current time wo represents position two a month 644 wo show. いくつかの実施形態では、ユーザインターフェースオブジェクトは太陽の図形表象である(例えば、626、634)。 In some embodiments, the user interface object is a graphic representation of the sun (e.g., 626,634). いくつかの実施形態では、ユーザインターフェースオブジェクトは月の図形表象である(例えば、644)。 Some mosquito Roh embodiment leaf emergence, user interface objects leaf month Roh graphic representation de Al (Tatoeba, 644).

上述した実施形態のいずれにおいても、ユーザ入力は装置の移動を含んでよい。 In any of the embodiments described above, the user input may include a mobile device. 例えば、装置の移動は、手首の上げ(装置が着用可能な場合)、又は、ユーザが装置を見るために装置を上昇させたことを示すその他の移動であってよい。 For example, movement of the device, the wrist up the (if the device is wearable), or may be other mobile indicating that the user has increased the system to see the device. これらの移動は、例えば、加速度計(例えば、534)、ジャイロスコープ(例えば、536)、動きセンサ(例えば、538)、及び/又はこれらの組み合わせを使用して検出できる。 These movements, for example, an accelerometer (e.g., 534), a gyroscope (e.g., 536), a motion sensor (e.g., 538), and / or detected using these combinations. ここで述べているいずれのコンテキスト依存面においても、装置の移動は、ディスプレイを起動させるためのユーザ入力となり得る。 In either context-sensitive surface that is described here, the mobile device can be a user input for activating the display.

更に、ここで述べたいずれのコンテキスト依存面においても、ユーザの手首の下げや(装置が着用可能である場合)、ユーザがもう積極的に装置を見ていないことを示すその他の移動といった装置の移動、又は、ユーザの手首の上げや(装置が着用可能である場合)、ユーザがディスプレイを見るために装置を上昇させたことを示すその他の移動といった装置の移動の欠如は、装置にディスプレイをオフにするためのユーザ入力となり得る。 Furthermore, where in any of the context-dependent surface mentioned, (if the device is a wearable) wrist down and users of other mobile such apparatus indicating that the user is not looking at longer actively device moving, or, (if the device is a wearable) or raising of the user's wrist, the lack of movement of the other mobile such device that indicates that the user has increased the system to see the display, the display device It can be a user input to turn off.

他の実施形態では、装置はタッチ感知ディスプレイ又はタッチ感知面(例えば、図3のタッチパッド355、図4Bのタッチ感知面451、及び/又は、タッチスクリーン504)を有することができる。 In other embodiments, the device may have a touch sensitive display or touch-sensitive surface (e.g., a touch pad 355 of FIG. 3, the touch sensitive surface 451 in FIG. 4B, and / or touch screen 504).

次に、図7Aに示すコンテキスト特化ユーザインターフェースに注目する。 Next, paying attention to context specific user interface shown in Figure 7A. 図7Aは、装置700上で動作できる例示的なコンテキスト特化ユーザインターフェースを示す。 Figure 7A illustrates an exemplary context specialized user interface for operating on device 700. 装置700は、いくつかの実施形態における装置100、300、又は500であってよい。 Device 700, device in some embodiments 100 and 300, or a 500. 電子装置はタッチ感知ディスプレイ(例えば、タッチスクリーン504)を有する。 The electronic device leaves the touch-sensitive display (Tatoeba, touch screen 504) wo have.

ユーザは、時間を追いながら、更にストップウォッチ機能にアクセスしたいかもしれない。 The user, while following the time, you might want to further access to the stopwatch function. 例えば、「実行中」又は「循環中」等のコンテキストにおいて、ユーザは、時間を追いつつ、ストップウォッチの操作やラップの記録を行いたいかもしれない。 Tatoeba, "execution medium" Matawa "circulation medium" etc. Roh context Nioite, a user leaves, time wo follow Tutu, stopwatch field operation arrow wrap Roh record wo do you want duck may not.

図7Aに示すように、装置700は、ユーザインターフェーススクリーン702に示す通、現在時刻を示す時計文字盤をタッチ感知ディスプレイ上に表示する。 As shown in FIG. 7A, device 700, through showing the user interface screen 702 displays a clock face showing the current time on the touch-sensitive display. 時計文字盤は時針と分針704を含む。 Watch dial, including the hour hand and minute hand 704. 時計文字盤は、12時インジケータ706等の「時」単位のタイムスケールの1つ以上の表示(例えば、数字12、1、2、3、及び又は、時計文字盤上の対応する位置に表示された目盛マークやその他の視覚的インジケータ)を更に示す。 Clock face, the one or more display time scales of the "hour" unit such 12 o'clock indicator 706 (e.g., numbers 12,1,2,3, and or, are displayed in the corresponding position of the watch the dial further illustrate the tick marks or other visual indicator) was. 時計文字盤は、ストップウォッチ針708を更に含む(以下に述べるいくつかの実施形態では、これは秒針としても機能する。ここで用いている用語「秒針」とは、時計文字盤上の2本の針の「中古」という意味ではなく、時計文字盤上の秒を示す針を意味する)。 Clock face further includes a stopwatch needle 708 (in some embodiments described below, from this also functions as a second hand. The term is used herein, "second hand", two clock on the dial rather in the sense that "used" of the needle, which means the needle that indicates the seconds of the clock on the dial).

図7Aで例証したように、装置700はユーザ入力を受信するが、この場合のユーザ入力は開始アフォーダンス710上へのタッチ712である。 FIG. 7A de illustration and other Yo two, device 700 leaves the user input wo incoming moth, in this case Roh user input leaves start affordance 710 above fart Roh touch 712 out there. これに応答して、装置が、スクリーン720に示すように、12時インジケータ706をストップウォッチタイムスケールのインジケータ724に置き換える。 This secondary response to the hand, equipment moth, screen 720 similar show Yo two, 12:00 indicator 706 wo stopwatch time scale field indicator 724 similar to replace. ストップウォッチインジケータ724は、ストップウォッチタイムスケールが60秒間のタイムスケールであることを示している。 Stopwatch indicator 724 indicates that the stopwatch time scale is a time scale of 60 seconds. ストップウォッチ針のタイムスケールは、ストップウォッチ針が、表示された時計文字盤周り1回転を完了するために必要な時間量を意味する。 Stopwatch needle Roh time scale leaves, stopwatch needle moth, displayed other watch character panel around one turn wo completed, reservoir similar need name time amount wo meaning. スクリーン720上の時計文字盤は時針と分針722、及びストップウォッチ針726を含み、これらは時針と分針704、及びストップウォッチ針708と同一である。 Clock face on the screen 720 includes the hour and minute hands 722 and stopwatch needle 726, they are identical to the hour and minute hands 704 and stopwatch needle 708,.

更に、タッチ712に応答して、装置700が、時間の経過を反映するために、ストップウォッチ針726をスクリーン720と730を比較して示すようにアニメーション化する。 Furthermore, in response to the touch 712, device 700, in order to reflect the passage of time, to animate to indicate the stopwatch needle 726 compares the screen 720 and 730. スクリーン730上に示すように、ストップウォッチ針が時計文字盤上の秒位置へ移動し(ストップウォッチ針736の位置に留意されたい)、時間の経過を示している。 As shown on the screen 730, (note the position of the stopwatch needle 736) stopwatch hand is moved to the second position of the watch the dial indicates the passage of time. インジケータ734が60秒間のストップウォッチタイムスケールを示すとすると、ストップウォッチ針736の位置は25秒が経過したことを示している。 When the indicator 734 is to indicate the stopwatch time scale of 60 seconds, the position of the stopwatch needle 736 indicates that has elapsed 25 seconds. 図7Aに示すように、ユーザは、ラップアフォーダンス738上をタッチ740し、タッチ712からの経過時間を示す時間742を表示させることで、この情報にアクセスする。 As shown in FIG. 7A, the user touches 740 on lap affordance 738, by displaying the time 742 indicating the elapsed time from the touch 712, access to this information. 時針と分針732は、722、704と同一であり、これら2本の針はこれまでの25秒間にその位置を変えていない点に留意されたい。 Hour and minute hands 732 are the same as 722,704, these two needles is noted that it does not change its position in the 25 seconds before. この実施例では、スクリーン702、720、730を通し、時針と分針は同一時刻(例えば、10:10)を示す。 In this embodiment, through a screen 702,720,730, hour and minute hands are the same time (e.g. 10: 10) shows the.

他の方法で述べれば、装置は、時刻を時針と分針で示し、更にストップウォッチ針を示している。 Stated another way, the device indicates the time in hour and minute hands, and further shows a stopwatch needle. ユーザ入力を表すデータの受信に応答して、「時」表示が第1ストップウォッチ針の第1タイムスケール表示に置き換えられるが、時針と分針は、「時」表示の置き換え後にも時刻の表示を続ける。 In response to receipt of data representing user input, display "hour" is replaced with the first time scale display of the first stopwatch needle but, hour and minute hands are an indication of time even after replacement of the display "hour" to continue. これにより、ストップウォッチが開始し、ストップウォッチのタイムスケールを示している間にも、ユーザはストップと時刻を同時に閲覧できるようになる。 Thus, stopwatch started, even while showing the time scale of the stopwatch, the user can view the stop time and at the same time. データの受信に応答して、装置は、ストップウォッチ針をアニメーション化して時間の経過を反映する。 In response to receiving the data, device reflects the passage of time to animate the stopwatch needle.

いくつかの実施形態では、装置は、ストップウォッチ針をアニメーション化しながら時間経過を反映し、第2ユーザ入力を表す第2データを受信し、この第2データの受信に応答して、ストップウォッチ針のアニメーション化を中止することができる。 In some embodiments, the device reflects the time elapsed while animating the stopwatch needle receives the second data representing a second user input, in response to receiving the second data, stopwatch needle it is possible to stop the animated. 例えば、これはストップウォッチの「停止」機能と同様に機能できる。 For example, this can function in the same manner as "stop" function of the stopwatch.

いくつかの実施形態では、装置は、開始/停止機能を表す第1アフォーダンス(例えば、アフォーダンス710)をタッチ感知ディスプレイ上に表示することができる。 In some embodiments, the device first affordance representing the start / stop function (e.g., Affordance 710) can be displayed on the touch sensitive display to. 第1ユーザ入力(例えば、タッチ712)を表す第1データと、第2ユーザ入力を表す第2データの両方は、表示された第1アフォーダンスへの接触を示す。 The first user input (e.g., touch 712) a first data representative of both the second data representing a second user input indicates a contact to the first affordance displayed. 他の実施形態では、装置は、ストップウォッチ開始機能とストップウォッチ停止機能のための別々のアフォーダンスを表示する。 In other embodiments, the device displays a separate Affordance for stopwatch start function and the stopwatch stop function.

いくつかの実施形態では、装置は、ラップ機能を表す第2アフォーダンス(例えば、アフォーダンス738)をタッチ感知ディスプレイ上に表示することができる。 In some embodiments, the device, second affordance (e.g., affordance 738) representing a wrap function can be displayed on the touch-sensitive display to. 装置は、第1データの受信後(例えば、開始機能を呼び出した後)及び第2データの受信前(例えば、停止機能を呼び出す前)に、表示された第2アフォーダンスへの接触を表す第3データを受信する。 Device, after receiving the first data (for example, after calling the start function) to, and the second data reception prior to (e.g., before calling stop function), a third representative of the contact of the second affordance displayed to receive the data. この第3データの受信に応答して、装置は、第1データ受信と第3データ受信の間の経過時間を表す第3数字表示を表示する。 In response to receiving this third data, the device displays the third digit display indicating the elapsed time between the first data reception and the third data reception. 例えば、これは、開始機能呼び出しからの経過時間を表示させるための、ストップウォッチの「ラップ」機能と同様に機能することができる。 For example, this is for displaying the elapsed time from the start function call can function similarly to the stopwatch "wrap" function. 上述したように、この特徴はスクリーン730上に示される。 As described above, this feature is shown on the screen 730.

いくつかの実施形態では、装置は、ストップウォッチアプリケーションを表す第3アフォーダンス(スクリーン702上のアフォーダンス714として示す)をタッチ感知ディスプレイ上に表示できる。 In some embodiments, the device can display the third affordance representing a stopwatch application (shown as Affordance 714 on the screen 702) on the touch-sensitive display. 装置は、表示された第3アフォーダンスへの接触を表す第4データを受信し、この第4データの受信に応答して、ストップウォッチアプリケーションを起動する。 Apparatus receives the fourth data representative of the contact of the third affordance displayed, in response to receiving the fourth data, to start the stopwatch application. これにより、ユーザは、このコンテキスト特化ユーザインターフェースから、ストップウォッチ特徴に関連した追加情報及び/又は機能に直接アクセスできるようになる。 Thus, the user, from this context specialized user interface, so that direct access to additional information and / or functions associated with the stopwatch feature. 一実施形態では、ストップウォッチアプリケーションは次の関連出願で述べられているアプリケーションである。 In one embodiment, the stopwatch application is an application which is stated in the following related applications. 2014年9月2日出願の米国特許仮出願第62/044,979号「Stopwatch and Timer User Interfaces」。 2014 September 2, US Provisional Patent Application Serial No. 62 / 044,979, filed "Stopwatch and Timer User Interfaces".

いくつかの実施形態では、ストップウォッチ針の第1タイムスケールは60秒、30秒、6秒、3秒であってよい。 In some embodiments, the first time scale of 60 seconds stopwatch needle, 30 seconds, 6 seconds, may be 3 seconds. いくつかの実施形態では、ストップウォッチ針の移動は、ストップウォッチ針の第1タイムスケールに基づく速度でアニメーション化される。 In some embodiments, movement of the stopwatch needle is animated at a rate based on the first timescale stopwatch needle. 例えば、ストップウォッチ針は、タイムスケールが3秒である場合には、タイムスケールが60秒である場合よりも高速で動くことができる。 For example, stopwatch needle, when the time scale is 3 seconds, the time scale can move faster than 60 seconds. これにより、ストップウォッチ針が時計文字盤周りの1回転を、第1タイムスケールが示す時間量内で完了できるようになる。 Thus, a rotation around stopwatch needle clock face, will be able to complete in a amount of time indicated by the first timescale.

いくつかの実施形態では、装置は、「時」単位の1つ以上のインジケータを除去し、ストップウォッチ針の第1タイムスケール表示を表示し、表示されたストップウォッチ針の第1タイムスケールの表示を右回りの回転動作に変換することで、「時」単位の1つ以上のインジケータを、ストップウォッチ針の第1タイムスケールのインジケータに代えることができる。 In some embodiments, the device removes one or more indicators of "hour" unit, to display the first time scale display of the stopwatch hand, display of the first timescale stopwatch needle appears the by converting the clockwise rotation operation, one or more indicators of "hour" unit can be replaced by a first timescale indicator stopwatch needle. 例示的な実施例として、ディスプレイが「時」単位のタイムスケールの12個の数字表示を含み、ストップウォッチ針の第1タイムスケールが6秒のタイムスケールである場合には、装置は12個の数字を1つの数字6に置き換える。 As an illustrative example, the display includes 12 numerical display of the time scale of the "hour" unit, when the first timescale stopwatch needle is a time scale of the 6 seconds, the device 12 replace a number to one of the numbers 6. いくつかの実施形態では、これは、ユーザに代替と表示を知覚されないようにするために、以前に「6時」を示すために用いたインジケータと同じ数字6であってよい。 In some embodiments, this is in order to not be perceived and display alternative to the user, may be the same numerals 6 and indicators used to indicate the "6 o'clock" previously. 装置は、ストップウォッチ針の第1タイムスケールを示す数字6を時計文字盤上の6時の位置に表示して、この数字6を、時計文字盤の一番上に到達するまで時計文字盤周りを右回り動作にて並進移動させ、一番上に到達した時点で並進移動を停止することができる。 Device displays a number 6 showing a first timescale stopwatch needle 6 o'clock position of the watch on the dial, the numbers 6, clockwise face until it reaches the top of the clock face was translated in a clockwise operation, it can be stopped translation upon reaching the top. これは、時計文字盤が時と分の表示からストップウォッチ針の第1タイムスケールの表示へ移行したことをユーザに対して強調することで、コンテキスト特化インターフェースを向上させる。 This is because to emphasize to the user that the clock face has shifted from time and the minute display to display the first timescale stopwatch needle, to improve the context specialized interface.

図7Bに示すように、いくつかの実施形態では、装置は、ストップウォッチタイムスケールを変更するための任意選択の入力として使用される回転可能入力機構(例えば、506)を有する。 As shown in FIG. 7B, in some embodiments, the device comprises a rotatable input mechanism to be used as input optional for changing the stopwatch time scale (e.g., 506). 図7Bは、時計文字盤752を設けたスクリーン750を示しており、時計文字盤752は、時針と分針754、ストップウォッチタイムスケールインジケータ756(60秒のタイムスケールを示している)を含む。 Figure 7B shows a screen 750 in which a clock face 752, a clock face 752 includes, hour and minute hands 754, stopwatch time scale indicator 756 (indicating 60 seconds time scale). 回転可能入力機構の移動(例えば、移動758)を表す第5データの受信に応答して、装置700が、スクリーン770上の時計文字盤772の一部をストップウォッチタイムスケールインジケータ776で示すように、ストップウォッチタイムスケールを第2タイムスケールに変更する。 Movement of the rotatable input mechanism (e.g., mobile 758) in response to receiving the fifth data representative of the apparatus 700, as shown a portion of a clock face 772 on the screen 770 with a stopwatch time scale indicator 776 , stopwatch time scale wo the second time scale similar change to. スクリーン770は時針と分針774を表示し続けている点に留意されたい。 Screen 770 we should be noted that it continues to display the hour hand and minute hand 774. 第2ストップウォッチタイムスケールは第1ストップウォッチタイムスケールとは異なる。 The second stopwatch time scale is different from the first stopwatch time scale. これにより、ユーザは、回転可能入力機構を回転させることでタイムウォッチ針のタイムスケールをカスタマイズできるようになり、その結果、ユーザの所望のストップウォッチタイムスケールに応じたコンテキスト特化ユーザインターフェースが可能となる。 Thus, the user is able to customize the timescale of the time watch the needle by rotating the rotatable input mechanism, as a result, allows context specific user interface in accordance with the desired stopwatch time scale of the user Become.

いくつかの実施形態では、装置は、ストップウォッチ針の第1タイムスケールの表示を除去し、ストップウォッチ針の第2タイムスケールの表示を表示し、表示されたストップウォッチ針の第2タイムスケールの表示を右方向への回転動作にて並進移動させることにより、ストップウォッチ針の第1タイムスケールの表示をストップウォッチ針の第2タイムスケールの表示に置き換える。 In some embodiments, the device removes the display of the first timescale stopwatch needle, to view the display of the second timescale stopwatch needle, the displayed stopwatch needles of the second timescale by translating at rotation in the right direction display, it replaces the display of the first timescale stopwatch needle display stopwatch needle of the second time scale.

図7Bに示すように、ストップウォッチ針の第2タイムスケールのインジケータ760が、時計文字盤上の、第1タイムスケールにおけるその相対位置を示す位置に表示される。 As shown in FIG. 7B, the second time scale indicator 760 stopwatch needle, the clock on the dial, is displayed at a position indicating the relative position in the first timescale. 例えば、30秒タイムスケールのインジケータ760は、時計文字盤752上の、756で示す60秒タイムスケールに基づく位置に表示される。 For example, 30 seconds time scale of the indicator 760, on the clock face 752 is displayed in a position based on the 60-second time scale indicated by 756. 移動758を表すデータの受信に応答して、装置が756を除去し、760を表示し、更に、760を、ストップウォッチ針の第1タイムスケールのインジケータの元の位置(例えば、時計文字盤772上の位置776で示す、756の元の位置)に到達するまで、回転動作にて右方向へ並進移動させる。 In response to receiving the data representing the movement 758, device removes 756, display 760, further, the 760, the original position of the first timescale indicator stopwatch needle (e.g., a clock face 772 indicated by the position 776 of the above, until it reaches the original position) of the 756, is translated in rotation to the right.

いくつかの実施形態では、第1ユーザ入力を表す第1データの受信後に、装置が、基点周囲での回転動作を表すためにストップウォッチ針をアニメーション化し、基点周囲での回転動作に対しπ/2ラジアンの位置(例えば、12時の位置)にストップウォッチ針を表示するためにアニメーション化を中止する。 In some embodiments, after receiving the first data representing a first user input, device, a stopwatch needle animate to represent a rotation operation in the base point around, with respect to the rotation operation at base point around [pi / position of 2 radians (e.g., 12 o'clock) to stop the animate to show the stopwatch needle. 例えば、第1データを受信する以前には、ストップウォッチ針は時計文字盤の秒針として機能できる。 For example, the before receiving the first data, stopwatch needle can function as a second hand of a clock face. 第1データが受信されると、秒針は、12時位置に到達するまで、(例えば、時計文字盤の中心点の周囲を回転することを用いて)時計文字盤周りの回転を示すべくアニメーション化される。 When the first data is received, the second hand until it reaches the 12 o'clock position, (e.g., used to rotate around the center point of the clock face) animate to indicate clockwise rotation dial It is. これは、秒針がストップウォッチ針になったことをユーザに知らせるものである。 This is to inform the user that the second hand becomes stopwatch needle.

次に、図8に示すコンテキスト特化ユーザインターフェースに注目する。 Next, paying attention to context specific user interface shown in FIG. 図8は、装置800上で動作できる例示的なコンテキスト特化ユーザインターフェースを示す。 Figure 8 illustrates an exemplary context specialized user interface for operating on device 800. 装置800は、いくつかの実施形態における装置100、300、又は500であってよい。 Device 800, device in some embodiments 100 and 300, or a 500. 電子装置はタッチ感知ディスプレイ(例えば、タッチスクリーン504)を有する。 The electronic device includes a touch-sensitive display (e.g., touch screen 504).

図8〜図10は、ユーザが地理、月、天文に関する豊富な情報にアクセスしながら時間の経過を閲覧できるようにする、コンテキスト特化ユーザインターフェースを提供する。 8 to 10, the user geographic, month, to be able to view the passage of time while accessing the wealth of information on astronomy, to provide context specific user interface. 例えば、あるユーザは世界中に知り合いがおり、現在、世界のどの部分が日中又は夜間であるかを知りたいかもしれない。 For example, some users cage is know all over the world, currently, any part of the world might want to know whether it is day or night. また、あるユーザは月齢に興味があり、明日、来週、来月の月の形を知りたいかもしれない。 In addition, a user is interested in age, tomorrow, next week, you might want to know the shape of the next month of the month. また、あるユーザは天文学に興味があり、対象とする特定の時間(今日であってもよい)に惑星がどのように整列するかを知りたいかもしれない。 Further, a user is interested in astronomy, a particular time of interest might want to know the (A may today) planet how to align.

図8では、装置800は、第1アフォーダンス804を含んだユーザインターフェーススクリーン802を表示している。 8, device 800 is displaying a user interface screen 802 including a first affordance 804. 第1アフォーダンス804は、現在時刻に太陽に照らされている地球上の地域のシミュレーションを表す。 The first affordance 804, represents the simulation of parts of the globe that are illuminated by the sun to the current time. 例えば、第1アフォーダンス804は、現在、北、中央、南アメリカが日中で、太平洋地域が夜間であることを示し、これにより、現在時刻に太陽に照らされている地球上の地域をシミュレーションしている。 For example, the first affordance 804, currently, north, central, in South America the day, it shows that the Pacific Ocean region is at night, this way, to simulate the parts of the globe that are illuminated by the sun to the current time ing.

スクリーン802は、現在時刻を示す第2アフォーダンス806を更に表示している。 Screen 802 further displays the second affordance 806 indicating the current time. 第2アフォーダンス806は、現在時刻(10:09)を示し、また、曜日(水曜日)と日にち(25日)の表示を任意選択的に示す。 The second affordance 806 now indicates the time (10:09), also day Wednesday and shows the display of dates (25) optionally. スクリーン802は、更に、このスクリーンからアクセス可能な追加のコンテキスト特化ユーザインターフェースを呼び出すために使用される月アフォーダンス808及び太陽系アフォーダンス810を表示しており、これについては以下でより詳細に述べている。 Screen 802 teeth, further, this screen scolded accessible name added Roh context-specific user interface wo call reservoir similar use is the month affordance 808 Oyobi solar system affordance 810 wo display and weavers, this Nitsuite leaf squid out more detailed two-mentioned hand are .

いくつかの実施形態では、現在時刻に太陽に照らされている地球の第1地域のシミュレーションは、現在時刻における地球の写実的なレンダリングである。 In some embodiments, the first simulation regions of the earth that are sunlit the current time is a realistic rendering of the Earth at the current time. 例えば、地球のシミュレーションは具体的な地理的特徴を含んでよい。 For example, the simulation of the earth may include specific geographical features. いくつかの実施形態では、地球のシミュレーションは、現在時刻における天候パターンを反映するべく(雲量、又はその他の熱帯性暴風雨のような天候現象を示すことを用いて)更新される。 In some embodiments, the simulation of the earth, to reflect the weather pattern at the current time (using exhibit weather phenomena such as cloud cover, or other tropical storms) are updated. 装置は、Weather Channel、Accuweather、国立天候局、Yahoo! Device, Weather Channel, Accuweather, National weather stations, Yahoo! (商標)天候、Weather Underground、アメリカ海軍天文台、アメリカ海洋大気庁等の天候サービス又は外部サーバからデータを入手することで、地球規模の反映を行うべく地球を更新する。 (TM) weather, Weather Underground, that to get the United States Naval Observatory, the data from the weather service or an external server such as the National Oceanic and Atmospheric Administration, to update the Earth in order to perform a reflection of the global scale. いくつかの実施形態では、現在時刻に太陽に照らされている地球の第1地域のシミュレーションは、国際宇宙ステーションのリアルタイム測位(NASAが提供しているようなサービス又は外部サーバから入手)等のその他の地球規模のイベントを表示できる。 In some embodiments, the first simulation regions of the earth that are sunlit the current time, other like the International Space Station realtime positioning (available from service or an external server, such as NASA is providing) global scale of the event can be displayed in.

装置800はユーザ入力(この実施例ではスワイプ812)を受信し、このユーザ入力の受信に応答して、地球のシミュレーションを回転させ、現在時刻に太陽に照らされている地球の第2地域を表示させる。 Device 800 receives a user input (swipe 812 in this embodiment), in response to receiving the user input, rotating the simulation of the Earth, displaying the second region of the earth that are sunlit the current time make. これはスクリーン820に示され、スクリーン820は、第2アフォーダンス824で示す現在時刻に太陽に照らされている地球の第2地域を示す第1アフォーダンス822を表示している。 This is shown in screen 820, the screen 820 is displaying a first affordance 822 showing a second area of ​​the earth is sunlit the current time indicated by the second affordance 824. この特徴により、ユーザは、現在時刻以外の追加情報にこのコンテキスト特化ユーザインターフェースからアクセスできるようになる。 This feature, allow the users to access this context specialized user interface, additional information other than the current time. 例えば、ユーザは、地球のシミュレーションを回転させて、現在日中である地域と、現在夜間である地域とを表示させることができる。 For example, the user rotates the simulation of the earth, can be displayed and regional a current day being, a regional is currently night. この情報を地球のシミュレーションと結び付けることで、ユーザは、複雑な地理的で時間関連のデータに、即座に直感的で理解可能な方法でアクセスできるようになる。 This information is to link simulation of the earth, the user is complex geographic and time-related data, it will be able to access immediately intuitive and understandable way.

いくつかの実施形態では、現在時刻に太陽に照らされている地球の第1地域のシミュレーションを表す第1アフォーダンスは、ソーラーターミネータ(例えば、現在時刻における昼夜境界線)の表現を含む。 In some embodiments, the first affordance representing a simulation of the first region of the earth that are sunlit the current time, including a representation of the solar terminator (e.g., day and night boundary at the current time). アフォーダンス804、822によって示すように、地球のシミュレーションは、地球の現在日中である地域、地球の現在夜間である地域、及び/又は、2つの地域を分割しているソーラーターミネータを含んでよい。 As shown by Affordance 804,822, simulation of the earth, the region is in the current day of the earth, the region is currently night earth, and / or may comprise a solar terminator divides the two regions.

いくつかの実施形態では、ユーザ入力は、スワイプ812で示す、タッチ感知ディスプレイ上での第1スワイプ方向へのスワイプを含む。 In some embodiments, the user input is indicated by swiping 812 includes swipe the first swipe direction on the touch-sensitive display. これにより、ユーザは、地球のシミュレーションを回転させるべくディスプレイをスワイプできるようになる。 Thus, the user will be able to swipe the display to rotate the simulation of the earth. いくつかの実施形態では、地球の回転方向はスワイプ方向と同一である。 In some embodiments, the direction of rotation of the earth is the same as the swipe direction. いくつかの実施形態では、地球の回転方向はスワイプ方向と反対である。 In some embodiments, the direction of rotation of the earth is opposite to the swipe direction.

いくつかの実施形態では、ユーザは、異なる方向へのスワイプを用いて、地球のシミュレーションを2つ以上の方向に回転させることができる。 In some embodiments, the user may use a swipe in different directions, it is possible to rotate the simulation of the Earth in more than one direction. 例えば、1方向へのスワイプは地球の画像を1方向へ回転させ、これと反対の方向あるいは異なる方向への回転は、地球の表象を反対方向へ回転させる。 For example, the swipe in one direction by rotating the image of the earth in one direction, rotation in the opposite thereto in the direction or different directions, to rotate the representation of the Earth in the opposite direction. これにより、ユーザは、地球のシミュレーションの回転を案内するために各種方向へスワイプできるようになる。 Thus, the user will be able to swipe the various directions in order to guide the rotation of the earth simulation.

いくつかの実施形態では、図8に示すように、装置は回転可能入力機構(例えば、506)を有する。 In some embodiments, as shown in FIG. 8, the device having a rotatable input mechanism (e.g., 506). 装置800は、回転可能入力機構の移動(例えば、移動830)を表すユーザ入力を受信し、これに応答して、非現在時刻において太陽に照らされている地球の第1地域のシミュレーションを表す第1アフォーダンス822を更新する。 Device 800 includes a first movement of the rotatable input mechanism (e.g., mobile 830) receives user input representing, in response, it represents a simulation of the first region of the earth that are sunlit in the non current time update 1 affordance 822. これは、第1アフォーダンス842と第2アフォーダンス844を設けたスクリーン840に示されている。 This is shown with the first affordance 842 a second affordance 844 to the screen 840 provided. スクリーン820と840を比較すると、地球のシミュレーションが、現在時刻(824で示す10:09)における地球の地域を示すことから、非現在時刻(844で示す12:09)における地球の同じ地域を示すことへ更新された(822、842を参照)。 Comparing screen 820 and 840, the simulation of the earth, because it shows a region of the Earth at the current time (10:09 indicated by 824), shows the same area of ​​the Earth in the non-current time (12:09 indicated by 844) It has been updated to be (see 822,842). この特徴は、太陽で照らされている地球をユーザが一日に何度も閲覧できるようにすることによって、更に地理的及び時間関連の情報へのユーザアクセスを提供する。 This feature makes the earth that are illuminated by the sun users by allowing multiple times can also browse the day further provides a user access to geographical and time-related information.

いくつかの実施形態では、装置は、位置センサ(例えば、GPSセンサ532及び/又はGPSモジュール135)を有し、また、ユーザインターフェーススクリーンを表示する前に、電子装置の現在位置を位置センサから入手し、電子装置の現在位置を示すために、第1アフォーダンスで表された地球の第1地域を表示する。 In some embodiments, the device has a position sensor (e.g., GPS sensor 532 and / or GPS module 135), also available before displaying the user interface screen, the current position of the electronic device from the position sensor and, to indicate the current position of the electronic device, displaying a first area of ​​the earth represented by the first affordance. これにより、装置は、現在位置が地球のシミュレーションの目に見える部分となる方法で、地球を例えばデフォルト又はユーザ選択可能な状態として表示できるようになる。 This Niyori, equipment leaves, the current position moth Earth field simulation Roh eye two look the part door made way out, Earth wo Tatoeba default Matawa user-selectable name state Toshite can be displayed Yo two made. いくつかの実施形態では、第1アフォーダンスは、地球の表象上における現在位置の視覚的な印を含む。 In some embodiments, the first affordance includes visual indicia of the current location on the earth representational. これにより、ユーザは、地球のシミュレーション上での現在位置を容易に識別できるようになる。 Thus, the user will be able to readily identify the current position on the earth simulation.

いくつかの実施形態では、装置(例えば、装置800)は、地球の表象上に装置の現在位置を視覚的に印付けする(例えば、地球の画像上の適切な位置にシンボルを表示する、及び/又は現在位置を文字で表示する)。 In some embodiments, apparatus (e.g., device 800) is visually marked the current position of the device on the Earth representation (e.g., displays a symbol in the correct location on the earth image, and / or to display the current position with the character). いくつかの実施形態では、視覚的な印は一時的であってよく、例えば、視覚的な印は短時間表示された後に消滅又はフェードアウトされてよい。 In some embodiments, visual indicia may be temporary, for example, visual indicia may be eliminated or fade after being displayed briefly. いくつかの実施形態では、ユーザが現在位置にいる間、装置は現在位置の視覚的な印を繰り返し表示しない。 In some embodiments, a user while in the current position, the device does not repeatedly displayed visual indicia of the current location. しかし、ユーザが位置を変更した場合には、ユーザが位置を変更した後、最初にディスプレイを見た時に、装置が地球の表象上の新たな現在位置に、上述した通に視覚的な印付けを行う。 However, if the user changes the position, after the user changes the position, when the first saw the display, the new current position on the device representation of the earth, visual marking in passing the above I do. いくつかの実施形態では、装置は、ユーザによる装置の移動を検出し(例えば、装置が着用可能な場合にはユーザが手首を上げた等の装置の移動、又は、ユーザがディスプレイを閲覧していることを示すその他の移動)、これに応答して、電子装置の現在位置を位置センサから入手する。 In some embodiments, device, mobile device, such as a user increases the wrist when detecting the movement of the device by a user (e.g., device wearable or user to view the display other movement) indicating that you are, in response, to obtain the current location of the electronic device from the position sensor. 次に、装置は、現在位置が、最後にユーザが装置を移動させた時の装置位置と同じであるかどうかを判定する。 Then, the device determines whether the current position, the end user is the same as device position when moving the device. 最後にユーザが装置を移動させた時から現在位置が変更したとの判定に従って、装置は、地球の表象上の現在の位置に視覚的な印付けを行うことができる。 According to the judgment of the last user changes the current position from the time of moving the device, the device can perform visual marking the current position on the Earth representation.

いくつかの実施形態では、装置は、地球の表象上における連絡先の位置(例えば、連絡先の電子装置の位置)に対応した接触位置(例えば、現在位置)に視覚的に印付けする(例えば、地球の画像上の適切な位置にシンボルを表示する、及び/又は、連絡先の位置を文字で表示する)。 In some embodiments, the device, the position of the contacts on the earth representational (e.g., the position of the electronic device contact) contact position corresponding to (e.g., current location) visually marked (e.g. , it displays a symbol in the correct location on the earth of the image, and / or indicate the positions of the contact in the letter). この連絡先は、例えば装置に記憶したり、無線通信(Wi−Fi、Bluetooth(商標)、近距離通信(「NFC」)、あるいは、ここで述べたセルラ及び/又はその他の無線通信技術のいずれか)によって装置に接続した外部装置に記憶することができる。 This contact, for example, to store in the device, wireless communication (Wi-Fi, Bluetooth (TM), near field communication ( "NFC"), or any of the cellular and / or other wireless communication techniques described herein or) makes it possible to store in the external device connected to the device. いくつかの実施形態では、連絡先は、「Find My Friends」アプリケーション等を介して装置800のユーザに位置データを提供することに合意したユーザに関連した連絡先であってよく、連絡先の電子装置の位置を示すデータは、装置800に記憶されている連絡先の位置を提供するサーバから提供されてよい。 In some embodiments, contact may be a contact associated with the user who has agreed to provide location data to the user of the device 800 via the "the Find My Friends" applications, etc., contact electronic data indicating the position of the device may be provided from a server that provides the position of the contacts stored in the device 800. これにより、装置800のユーザに、連絡先の現在位置を知らせるためのパッと見てわかる視覚照会が提供される。 Thus, the user of the device 800, the visual query can be seen the package to inform the current position of the contact is provided. いくつかの実施形態では、ユーザは、連絡先の旅行情報を更に入力できる(例えば、飛行機で旅行する連絡先のフライトデータ、列車データ、船旅又は船舶のデータ等)。 In some embodiments, the user may contact travel can be further input (e.g., contact flight data to travel by plane, train data, data of voyage or vessel or aircraft). 装置は、連絡先の現在位置又は予測される位置を表すデータを入手し(例えば、フライトデータの例では、航空会社のサーバにより提供される)、この入手したデータに基づいて連絡先の位置の視覚的な印を更新することができる。 Device, to obtain the data representing the current position or predicted location of contact (e.g., in the example of flight data, provided by the server of the airline), the position of the contact on the basis of the available data it is possible to update the visual indicia.

いくつかの実施形態では、装置は、ユーザによる装置の移動を検出する(例えば、装置が着用可能な場合には、ユーザの手首の上げ等の装置の移動、又は、ユーザがディスプレイを閲覧中であることを示すその他の移動)。 In some embodiments, the device detects the movement of the device by a user (e.g., when the device is wearable, mobile devices up of the user's wrist, or the user in browsing display other movement indicating that). 装置は、この移動を検出すると、スクリーン上の第1アフォーダンスを表示されているユーザインターフェーススクリーンの中央に向かって並進移動させることで、地球のシミュレーションを表す第1アフォーダンスをアニメーション化する。 Device detects this movement, by translating toward the center of the user interface screen that is displayed first affordance on the screen, to animate the first affordance representing a simulation of the earth. えば、装置は、ユーザの移動を検出すると、ディスプレイの側部又は縁からディスプレイの中央まで回転する地球のシミュレーションをアニメーション化する。 Eg to device detects the movement of the user, to animate the simulation of the rotating Earth from the side or edge of the display to the center of the display.

いくつかの実施形態では、装置は、ユーザインターフェーススクリーン上に、月を表す第3アフォーダンス(アフォーダンス808、826、846で示す)を表示する。 In some embodiments, the device on the user interface screen to display the third affordance (indicated by Affordance 808,826,846) representing the month. いくつかの実施形態では、第3アフォーダンスは、月の図形的又は様式化された表象、例えば月のアイコン、記号、文字表示であってよい。 In some embodiments, the third affordance, representations that are graphical or stylized month, for example, moon icon, symbol, or a character display. いくつかの実施形態では、第3アフォーダンスは、実際の月の特徴を描写した、現在時刻に地球から見た月の写実的なレンダリングであってよい。 In some embodiments, the third affordance, depicting the characteristics of the actual month, the current time may be a realistic rendering of the moon as viewed from Earth.

装置は、表示された第3アフォーダンス上への接触を検出し、この接触の検出に応答して、現在時刻における地球から見た月のシミュレーションを表す第4アフォーダンスと、現在時刻を示す第5アフォーダンスとを表示することにより、ユーザインターフェーススクリーンの表示を更新する。 Device detects the contact on the third affordance displayed, in response to the detection of the contact, the fifth affordance showing a fourth affordance representing a simulation of the moon as viewed from the earth at the current time, the current time by displaying the bets, and updates the display of the user interface screen. いくつかの実施形態では、ユーザインターフェーススクリーンの表示を更新することは、太陽で照らされている地球の第1地域のシミュレーションを表す第1アフォーダンスをズームアウトにてアニメーション化することを含む。 In some embodiments, updating the display of the user interface screen includes animating the first affordance representing a simulation of the first region of the earth that are illuminated by the sun at a zoom-out. このアニメーション化により、ユーザは、天文学規模及び/又は遠近法が変更されたことを認識できる。 This animated, the user can recognize that astronomy scale and / or perspective is changed.

これにより、ユーザインターフェースが、地球のシミュレーションを用いて本日中の現在時刻についての情報を提供することから、月のシミュレーションを用いて今月内の現在時刻についての情報を提供することへ移行する。 Thus, the user interface, the process proceeds to provide information from the providing information about the current time in today using a simulation of the earth, for the current time in the month using the simulation of the moon. 図8を参照して述べたコンテキスト特化ユーザインターフェースが日中/夜間状態についての世界規模のカスタマイズ可能な地理的情報を提供するのに対し、図9では、ユーザによりカスタマイズ可能な月齢及びその他の月の特徴についての情報をユーザに提供するコンテキスト特化ユーザインターフェースを示している。 During context specific user interface described with reference the day 8 / to provide a worldwide customizable geographical information about the nighttime state, in FIG. 9, customizable age and other by user It shows a context specific user interface that provides information about the characteristics of the month to the user.

図9は、装置900上で動作できる例示的なコンテキスト特化ユーザインターフェースを示す。 Figure 9 illustrates an exemplary context specialized user interface for operating on device 900. いくつかの実施形態では、装置900は装置100、300、又は500であってよい。 In some embodiments, device 900 may be a 100, 300, or 500. 電子装置はタッチ感知ディスプレイ(例えば、タッチスクリーン504)を有する。 The electronic device includes a touch-sensitive display (e.g., touch screen 504).

上述したように、装置900はディスプレイが更新された装置800である。 As described above, device 900 is a device 800 the display is updated. 装置900は、アフォーダンス904を含んだスクリーン902を表示している。 Device 900 is displaying a screen 902 containing Affordance 904. アフォーダンス904は、現在時刻に地球から見た月(例えば、現在の月齢)のシミュレーションを表す。 Affordance 904 represents a simulation of the moon as seen from the Earth to the current time (for example, the current age). いくつかの実施形態では、第4アフォーダンス904は、実際の月の特徴を描写した、現在時刻に地球から見た月の写実的なレンダリングである。 In some embodiments, the fourth affordance 904 depicting the features of an actual month, a realistic rendering of the moon as viewed from the earth to the current time. 第4アフォーダンス904で示すように、現在の月齢は逆三日月である。 As shown in the fourth affordance 904, the current age is reversed crescent. 図9は月を表象するための様式化された三日月を示しているが、これは例証のみを目的とした略図である。 9 is shown a stylized crescent for representation the month, which is a schematic diagram for the purpose of illustration only. 第4アフォーダンス904は、実際に夜空に現れる月の様子と類似した月の写実的なレンダリングを示すことができる。 The fourth affordance 904 may indicate actually realistic rendering of the month that is similar to how the moon appears in the sky. スクリーン904は、現在時間を現在の日付、曜日、月を示すことによって示す第5アフォーダンス906を更に含んでいる。 Screen 904 is the current time of the current date, day, further comprising a fifth affordance 906 shown by the month. いくつかの実施形態では、906は現在の日付を示す。 In some embodiments, 906 denotes the current date.

装置900は、ユーザ入力(例えば、回転可能入力機構の移動912)を受信し、このユーザ入力の受信に応答して、月のシミュレーションを回転させ、現在時刻に地球から見た月を、スクリーン920上のアフォーダンス922(更新された第5アフォーダンス924で示す非現在時刻における月を表す)で示すように表示させる。 Device 900, a user input (e.g., move 912 of the rotatable input mechanism), and in response to receiving the user input, rotating the simulation of the month, the month as viewed from the earth to the current time, the screen 920 It is displayed as shown in affordance 922 above (the month in the non current time indicated by the fifth affordance 924 updated). 非現在時刻は今月又はその他の月の時刻であってよい。 Non-current time may be a time of the month or any other month.

これは、図8について述べた地球のシミュレーションとのユーザ対話といくらか類似している。 This is somewhat similar to the user interaction with the simulation of the Earth described for FIG. 図9で例示したコンテキスト特化ユーザインターフェースにより、ユーザが、様々な時における月の外観(例えば、月齢、又は地球から月のどの領域を見ることができるか)についての情報にアクセスできるようになる。 The context specialized user interface illustrated in FIG. 9, the user will be able to access information about the appearance of the moon in at different times (e.g., age, or can see which regions of the moon from the earth) . いくつかの実施形態では、表示された月のシミュレーションのサイズは、示された現在又は非現在時刻における地球と月の間の相対距離を表すもの、又は、示された現在又は非現在時刻において、地球から知覚される月の視覚的サイズを表すものであってよい。 In some embodiments, the size of the simulation of the displayed month, represents the relative distance between the indicated current or non-earth at the current time and the moon, or the present or non-present time is indicated, it may be one that represents the visual size of the moon perceived from the earth. 装置は、このような情報を、例えばNASAが提供しているようなサービス又は外部サーバより入手できる。 Device, such information, for example available from service or an external server, such as NASA has to offer.

いくつかの実施形態では、ユーザは、タッチ感知ディスプレイをスワイプすることで、月の表象を回転させ、対応する時間を閲覧することができる。 In some embodiments, the user, by swiping a touch-sensitive display, to rotate the representation of the moon, can view the corresponding time. いくつかの実施形態では、ユーザ入力は、タッチ感知ディスプレイ上での第1スワイプ方向へのスワイプを含んでよい。 In some embodiments, the user input may include swipe to first swipe direction on the touch-sensitive display. いくつかの実施形態では、ユーザ入力の受信に応答して、地球から見た月のシミュレーションが第1回転方向へ回転される。 In some embodiments, in response to receiving a user input, a simulation of the moon as viewed from Earth is rotated in the first rotational direction. いくつかの実施形態では、第1回転方向は少なくとも一部が第1スワイプ方向に基づいてよい。 In some embodiments, the first rotational direction at least partially be based on the first swipe direction. ここで用いている用語「月の回転」は、月の異なる領域(例えば、地球から見えない月の領域)を示すための月の自転、及び/又は、対象とする特定の時刻に地球から見た月の外観を、月、地球、太陽の相対位置の回転に基づいて更新すること(例えば、表示された月相を更新すること)を含む。 As used herein, the term "rotation of the month" is different regions of the month (for example, areas of the moon invisible from Earth) rotation of the moon to indicate, and / or, viewed from the Earth at a particular time of interest the appearance of the moon was, including moon, the Earth, be updated based on the rotation of the relative position of the sun (for example, updating the displayed month phase).

いくつかの実施形態では、装置は、第2ユーザ入力を受信し、この第2ユーザ入力の受信に応答して、地球から見た月のシミュレーションを第1方向とは異なる第2方向へ回転させる。 In some embodiments, the device receives a second user input, in response to receiving the second user input, rotating the second direction different from the first direction to simulate moon as viewed from Earth . このユーザ入力には、例えば、タッチ感知ディスプレイ上での第1方向とは異なる第2スワイプ方向へのスワイプが含まれる。 This user input may be, for example, the first direction on the touch-sensitive display includes swipe to different second swipe direction.

これにより、ユーザは、月の回転方向と第5アフォーダンスが示す時刻との両方を、スワイプに応答して誘導することができる。 Thus, the user, both the time indicated by the rotation direction and the fifth affordance month, can be induced in response to swipe. 例えば、ユーザは1方向へスワイプすることで、月を特定の方向へ回転させて、今月内の後の時間における月を見ることができ、また、別の方向へスワイプすることで、月を反対方向へ回転させて、今月内の前の時間における月を見ることができる。 For example, the user by swiping one direction, by rotating the month to a specific direction, it is possible to see the moon in the time after the month, also by swiping the other direction, opposite to the month is rotated to the direction, it is possible to see the moon in the previous time in this month.

いくつかの実施形態では、図9に示すように、ユーザは月の表象を回転させることができ、回転可能入力機構を回転させることによりこれに対応した時間を閲覧できる。 In some embodiments, as shown in FIG. 9, the user can rotate the representation of the moon, can view the time corresponding thereto by rotating the rotatable input mechanism. そのため、いくつかの実施形態では、装置は回転可能入力機構(例えば、506)を有し、ユーザ入力は回転可能入力機構の第1回転方向(例えば、回転912)への移動を含んでよい。 Therefore, in some embodiments, the device includes a rotatable input mechanism (e.g., 506), the user inputs the first rotational direction of the rotatable input mechanism (e.g., rotating 912) may include transfer to. いくつかの実施形態では、ユーザ入力の受信に応答して、地球から見た月のシミュレーションが第1回転方向へ回転される。 In some embodiments, in response to receiving a user input, a simulation of the moon as viewed from Earth is rotated in the first rotational direction. いくつかの実施形態では、第1回転方向は、回転可能入力機構の移動の方向に少なくとも一部基づいてよい。 In some embodiments, the first rotational direction may be based at least in part on the direction of movement of the rotatable input mechanism.

いくつかの実施形態では、装置は、第2ユーザ入力を受信し、この第2ユーザ入力の受信に応答して、地球から見た月のシミュレーションを第1方向とは異なる第2方向へ回転させる。 Some mosquito Roh embodiment leaf emergence, equipment blade, the second user input Wo received, the second user input Roh received similar response by hand, Earth scolded seen other month field simulation wo first direction door blade different from the second direction fart rotated to . このユーザ入力には、例えば、回転可能入力機構の第1回転方向とは異なる第2回転方向への移動が含まれてよい。 The user inputs, for example, may include moving to a different second rotational direction from the first rotational direction of the rotatable input mechanism.

これにより、ユーザは、月の回転方向と第5アフォーダンスが示す時刻との両方を、回転可能入力機構の回転に応答して誘導することができる。 Thus, the user, both the time indicated by the rotation direction and the fifth affordance month, can be induced in response to rotation of the rotatable input mechanism. 例えば、ユーザは回転可能入力機構を1方向へ動かすことで、月を特定の方向へ回転させて、今月内の後の時間における月を見ることができ、また、回転可能入力機構を別の方向へ動かすことで、月を反対方向へ回転させて、今月内の前の時間における月を見ることができる。 For example, the user by moving the rotatable input mechanism in one direction, by rotating the month to a specific direction, it is possible to see the moon in the time after the month, also the direction the rotatable input mechanism apart by moving to, to rotate the month in the opposite direction, it is possible to see the moon in the previous time in this month.

ここで述べた実施形態のいずれにおいても、表示された月のシミュレーションは、特別な月(例えば、ブルームーン、ブラックムーン、レッドムーン、月食、及びその他)、月と地球の間の距離(上述の通。例えばスーパームーンの場合)等の、1つ以上の追加の月属性を示してよい。 In any of the embodiments described herein, the simulation of the displayed month, a special month (e.g., Blue Moon, Black Moon, Red Moon, lunar eclipse, and others), the distance between the moon and earth (above of passing. for example, in the case of the Super Moon) such as, it may indicate one or more additional month attribute. いくつかの実施形態では、追加の月属性は、表示された月のシミュレーションの外観を変化させることによって示すことができる(例えば、表示された月のシミュレーションの色、サイズ、及び/又は傾斜を変更する)。 In some embodiments, change the additional month attributes, which can be indicated by changing the appearance of the simulation of the displayed month (e.g., the color of the simulation displayed month, size, and / or tilt to). いくつかの実施形態では、追加の月属性は文字で示されてよい。 In some embodiments, the additional month attribute may be indicated by the letter. いくつかの実施形態では、追加の月属性は現在の月属性に対応していてよい。 In some embodiments, the additional month attribute may not correspond to the current month attribute. いくつかの実施形態では、追加の月属性は、現在表示されている日付における月属性に対応していてよい(例えば、上述したように、今月内の前の又は後の時間における月を見るためにユーザが月を回転させた場合)。 In some embodiments, the additional month attributes month attribute of the date that is currently displayed may correspond (e.g., as discussed above, to see the moon in time before or after the month If the user rotates the month). 例えば、いくつかの実施形態では、その月又はその年の異なる時間における月を示すために月のシミュレーションを回転させている間に、月のシミュレーションを、表示された月のシミュレーションによって現在示されている時間における1つ以上の追加の月属性を反映するように更新することができる。 For example, in some embodiments, while rotating the simulation of the month to the month at different times that month or the year, the simulation of the moon, indicated currently by simulation of the displayed month it can be updated to reflect the one or more additional month attributes in there time.

いくつかの実施形態では、装置は、ユーザ入力に応答して追加の月情報を表示することができる。 In some embodiments, the device may display additional month information in response to user input. 追加の月情報は、例えばスクリーン902又は920の一部として、あるいは、スクリーン902又は920の代わりのユーザインターフェーススクリーン(月情報アプリケーション等)上に表示することができる。 Additional month information, for example as part of the screen 902 or 920, or may be displayed on the user interface screen instead of the screen 902 or 920 (monthly information application, etc.). 追加の月情報は、月相の名称、地球から月までの距離、(例えば、本日の、及び/又は、ユーザの現在位置での)月の出及び/又は月の入り、等を非限定的に含んでよい。 Additional month information, moon phase name, the distance from the earth to the moon, (e.g., today, and / or, at the current location of the user) Moonrise and / or moon, non-limiting, etc. it may be included in. いくつかの実施形態では、追加の月情報は、現在の月情報(例えば、現在の月相、月までの距離、月の出/月の入りの時間、等)に対応したものであってよい。 In some embodiments, the additional month information, current month information (e.g., current month phase, the distance to the moon, time out / moonset moon, etc.) may be those corresponding to . いくつかの実施形態では、上述したように、例えばユーザが今月内の前又は後の時間における月を見るために月を回転させた場合には、追加の月情報は、現在の表示されている日付の情報に対応したものであってよい。 In some embodiments, as described above, for example, when the user rotates the month to see the month in the time before or after the month, the additional month information is currently displayed it may be those corresponding to the date of the information.

例えば、いくつかの実施形態では、装置はユーザ入力(例えば、タッチ感知ディスプレイ上での第1接触及びタッチ感知ディスプレイ上での第2接触を含む、タッチ感知ディスプレイ上でのユーザのダブルタップ)を検出できる。 For example, in some embodiments, the device user inputs (e.g., including a first contact and touch sensing second contact on a display on the touch-sensitive display, the user double taps on the touch sensitive display) It can be detected. 例示的な実施形態において、また、ユーザのダブルタップに応答して、装置は、第1接触と第2接触が所定の時間間隔内に受信されたかどうかを判定することができる。 In the exemplary embodiment, also, in response to the double tap of the user, the device may first contact and the second contact to determine whether it has been received within a predetermined time interval. ユーザのダブルタップの検出に応答して、また、第1接触と第2接触が所定の時間間隔内に受信されたとの判定に従って、装置は、追加の月情報を表示することができる。 In response to the detection of a double tap of the user and in accordance with the determination of the first contact and the second contact is received within a predetermined time interval, the device may display additional month information.

いくつかの実施形態では、ユーザインターフェーススクリーンは、月のシミュレーションを示すようにディスプレイを更新した後に、地球を示すアフォーダンスを表示する(例えば、910又は928)。 In some embodiments, the user interface screen, after updating the display to indicate a simulation of the month, and displays the affordances showing the earth (e.g., 910 or 928). ユーザがこの地球アフォーダンスに接触すると、図8を参照して述べたコンテキスト特化ユーザインターフェースに戻ることができる。 When the user contacts the earth affordances can return to context specific user interface described with reference to FIG. いくつかの実施形態では、地球アフォーダンスは地球の図形的又は様式化された表象、例えば地球のアイコン、記号、文字表示であってよい。 In some embodiments, the earth affordance representations that are graphical or stylized earth, for example, globe icon, symbol, or a character display. いくつかの実施形態では、地球アフォーダンスは地球の写実的なレンダリングであってよい。 In some embodiments, the earth Affordances may be a realistic rendering of the Earth.

いくつかの実施形態では、装置900は、太陽系を表す6個のアフォーダンス(アフォーダンス810、828、848、908、926で示す)をユーザインターフェーススクリーン上に表示する。 In some embodiments, device 900 displays six Affordance representing the solar system (indicated by Affordance 810,828,848,908,926) on the user interface screen. いくつかの実施形態では、6番目のアフォーダンスは、太陽系の図形的又は様式化された表象、例えば太陽系を示すアイコン、記号、文字表示であってよい。 In some embodiments, the sixth affordance, graphical or stylized representation of the solar system, an icon indicating the example solar system, the symbols may be a character display. いくつかの実施形態では、6番目のアフォーダンスは太陽系の写実的レンダリングであってよい。 In some embodiments, the sixth affordance may be a realistic rendering of the solar system.

装置900は、表示された6番目のアフォーダンス上への接触を検出し、この接触の検出に応答して、現在時刻にそれぞれの位置に並んだ太陽、地球、及び1つ以上の地球以外の惑星を表象を設けた7番目のアフォーダンスと、現在時刻を示す第8アフォーダンスとを表示することにより、ユーザインターフェーススクリーンの表示を更新する。 Device 900 detects the contact with the sixth affordances displayed, in response to the detection of the contact, solar arranged in respective positions to the current time, the earth, and one or more earth than planets and seventh affordances provided with a representation of, by displaying the eighth affordance indicating the current time, and updates the display of the user interface screen. いくつかの実施形態では、ユーザインターフェーススクリーンの表示を更新することは、太陽に照らされた地球の第1地域のシミュレーションを表す第1アフォーダンスをアニメーション化すること、又は、地球から見た月のシミュレーションを表す第4アフォーダンスをアニメーション化することを含む。 In some embodiments, updating the display of the user interface screen to animate the first affordance representing a simulation of the first areas of the earth sunlit, or simulation of the moon as viewed from Earth a fourth affordance representing a comprises animated. このアニメーション化により、ユーザは、天文学規模及び/又は遠近法が変更されたことを認識できる。 This animated, the user can recognize that astronomy scale and / or perspective is changed.

これにより、ユーザは、月のシミュレーションを使って今月内の現在時刻についての情報を見ることから、太陽系のシミュレーションを使用して今年内の現在時刻についての情報を見ることへ移行する。 As a result, the user, from looking information about the current time in a month using a simulation of the month, the process proceeds to able to see the information about the current time in this year using a simulation of the solar system. 図9を参照して述べたコンテキスト特化ユーザインターフェースは、月の状態についてのユーザによるカスタマイズが可能な情報を提供する一方で、図10では、太陽系についての、及び地球とその他の惑星の相対位置についてのユーザによるカスタマイズが可能な情報を提供するコンテキスト特化ユーザインターフェースを例証する。 Context specialized user interface described with reference to FIG. 9, while providing a user-customizable capable information about the state of the month, in Figure 10, for the solar system, and the relative position of the Earth and other planets It illustrates a context specific user interface that provides customizable information by the user about.

図10は、装置1000で動作できる典型的なコンテキスト特化ユーザインターフェースを示す。 Figure 10 illustrates an exemplary context specialized user interface for operating the apparatus 1000. 装置1000は、いくつかの実施形態では装置100、300、又は500であってもよい。 Device 1000, in some embodiments may be an apparatus 100, 300, or 500. 電子装置は、タッチ感知ディスプレイ(タッチスクリーン504等)を有する。 The electronic device includes a touch-sensitive display (touch screen 504, etc.).

上記のように、装置1000は、更新されるディスプレイを備える装置800及び/又は装置900である。 As described above, device 1000 is a device 800 and / or device 900 comprises a display to be updated. 装置1000は、第7のアフォーダンス1004を含むスクリーン1002を表示する。 Device 1000 displays a screen 1002 including the affordance 1004 of the seventh. 第7のアフォーダンス1004は、太陽1006の表現、地球1008の表現、並びに水星、金星、及び土星(例えば、土星は惑星1010によって示される)の表現を含む。 Seventh Roh affordance 1004 leaves, the sun 1006 field representation, Earth 1008 field representation, Narabini Mercury, Venus, Oyobi Saturn (Tatoeba, Saturn leaves planet 1010 Niyotte shown is) Roh expressed wo contain. 1006、1008、及び1010は、第8のアフォーダンス1012で指示した現在の日付(この例では、2014年5月25日)におけるそれぞれの位置に示される。 1006, 1008, and 1010 (in this example, May 25, 2014) the current date which is indicated by Affordance 1012 eighth shown in respective positions in the. いくつかの実施形態では、第8のアフォーダンス1012は更に、現在の時刻を指示する。 In some embodiments, affordance 1012 eighth further instructs the current time.

オプションとして、いくつかの実施形態では、太陽系は八つ全ての惑星を描写する。 Optionally, in some embodiments, solar system depicts the eight all planets. いくつかの実施形態では、太陽系は、4つの内惑星を描写する。 In some embodiments, solar system, depicting four inner planets. いくつかの実施形態では、太陽系は、小惑星又は小惑星帯、1つ以上の惑星の1つ以上の衛星(例えば、月)、人工衛星又は他の宇宙探査機、彗星、冥王星等の他の天文学的フィーチャを描写する。 In some embodiments, solar system, asteroids or asteroid belt, one or more satellites of one or more planets (e.g., monthly), satellite or other spacecraft, comets, other astronomical such Pluto to describe the feature.

装置1000は、第7のユーザ入力(例えば、回転可能入力機構の移動1018)を受け取る。 Apparatus 1000, the user inputs the seventh (e.g., movement 1018 of the rotatable input mechanism) receive. それに応じて、装置1000は、第7のアフォーダンスを更新し、現在の日付以外の太陽、地球、及び1つ以上の地球以外の惑星の各位置を描写する。 Accordingly, device 1000 updates the seventh affordance depicts sun other than the current date, the earth, and one or more respective positions of the other planets. これは、スクリーン1020上の第7のアフォーダンス1022によって示される。 This is indicated by a seventh affordance 1022 on the screen 1020. 第7のアフォーダンス1022は、太陽1024の表現、地球1026の表現、水星、金星、及び土星(例えば、土星は惑星1028で示される)の表現を、現在の日付以外で、それらの各位置に含み、その日付は、第8のアフォーダンス1030で描写したように、2014年11月25日である。 Affordance 1022 of the seventh, the expression of sun 1024, the representation of the Earth 1026, Mercury, Venus, and Saturn (e.g., Saturn represented by the planet 1028) a representation of, other than the current date, including their respective positions , the date is, as depicted in affordance 1030 of the eighth, which is November 25, 2014. いくつかの実施形態では、第8のアフォーダンス1030は、現在の時刻も描写する。 In some embodiments, affordance 1030 eighth also depicts the current time.

このコンテキスト特化ユーザインターフェースによって、ユーザは、現在の日付以外で、地球と1つ以上の地球以外の惑星の各位置についての情報にアクセスでき、その日付は、当年以内であっても異なる年であってもよい。 This context specialized user interface, the user, other than the current date, can access information about each position of the Earth and the one or more earth than planets, on that date, even different years be within the year it may be. いくつかの実施形態では、太陽、地球、及び1つ以上の地球以外の惑星は、写実的レンダリングとして描写される。 In some embodiments, sun, earth, and one or more earth than the planet is depicted as photorealistic rendering. いくつかの実施形態では、太陽、地球、及び1つ以上の地球以外の惑星は、定型化された又は抽象的レンダリングとして描写される。 In some embodiments, sun, earth, and one or more earth than the planet is depicted as a stylized or abstract rendering.

いくつかの実施形態では、ユーザは、タッチ感知ディスプレイ上をスワイプすることで太陽系の表現を回転できる。 In some embodiments, the user can rotate the solar system expressed by swiping over the touch-sensitive display. 従って、いくつかの実施形態では、ユーザ入力は、タッチ感知ディスプレイ上のスワイプを含んでいてもよい。 Thus, in some embodiments, the user input may include a swipe on the touch sensitive display. いくつかの実施形態では、スワイプの検出に応じて、地球と1つ以上の地球以外の惑星は、第1の回転方向で太陽の周りで回転される。 In some embodiments, in response to the detection of the swipe, Earth and one or more other planets is rotated around the sun in a first rotational direction. いくつかの実施形態では、第1の回転方向は、第1のスワイプ方向に少なくとも部分的に基づいていてもよい。 In some embodiments, the first rotational direction may be based at least in part on the first swipe direction.

いくつかの実施形態では、異なる方向でのタッチ感知ディスプレイ上のスワイプの検出に応じて、装置は、第1の方向とは異なる第2の回転方向に、太陽の周りで地球と1つ以上の地球以外の惑星を回転させる。 In some embodiments, in response to detection of a touch sensitive swipe on the display in different directions, the device in a second rotational direction different from the first direction, the earth and one or more around the sun rotating the other planets. これによって、ユーザは、地球と1つ以上の地球以外の惑星の回転方向と、第8のアフォーダンスで指示した時刻との両方を、スワイプに応じて誘導できる。 Thus, the user, the direction of rotation of the Earth and the one or more earth than planets, both the time instructed by Affordance eighth can be derived in accordance with the swipe. 例えば,ユーザは、一方向にスワイプし、地球と1つ以上の地球以外の惑星を所定の方向に回転させ、地球と1つ以上の地球以外の惑星を、その年の間の(又は異なる年の)後の日付で見ることもでき、ユーザは、別の方向にスワイプし、地球と1つ以上の地球以外の惑星を逆方向に回転させ、地球と1つ以上の地球以外の惑星を、その年の間の(又は異なる年の)前の日付で見ることもできる。 For example, the user may swipe one direction, Earth and rotates the one or more earth than the planet in a predetermined direction, the earth and the one or more earth than the planet (or different years during that year can also be seen in the date of) after a user to swipe in different directions, by rotating the earth and one or more earth than planets in the reverse direction, the earth and one or more earth than the planet, It can also be viewed at the date of (or in different years) before of during the year.

いくつかの実施形態では、図10に示すように、ユーザは、回転可能入力機構(例えば、506)を回転させることで、太陽系の表現を回転できる。 In some embodiments, as shown in FIG. 10, the user is rotatably input mechanism (e.g., 506) by rotating the can rotate the solar system representation. これらの実施形態では、ユーザ入力は、第1の回転方向での回転可能入力機構の移動(例えば、移動1018)を含んでいてもよい。 In these embodiments, the user input, the movement of the rotatable input mechanism in a first rotational direction (e.g., move 1018) may be included. いくつかの実施形態では、ユーザ入力の受け取りに応じて、地球と1つ以上の地球以外の惑星は、第1の回転方向で太陽の周りを回転される。 In some embodiments, in response to receiving the user input, the earth and one or more other planets is rotated around the sun in a first rotational direction. いくつかの実施形態では、第1の回転方向は、回転可能入力機構の移動方向に少なくとも部分的に基づいていてもよい。 In some embodiments, the first rotational direction, the moving direction of the rotatable input mechanism may be based at least in part.

いくつかの実施形態では、装置は第2のユーザ入力を受け取り、第2のユーザ入力の受け取りに応じて、装置は、第1の方向とは異なる第2の回転方向に、太陽の周りで地球と1つ以上の地球以外の惑星を回転させる。 In some embodiments, the device receives a second user input, in response to receipt of a second user input, the device, in a second rotational direction different from the first direction, the earth around the sun rotating the one or more earth than planets. このユーザ入力は、例えば、第1の回転方向とは異なる第2の回転方向での回転可能入力機構の移動を含むことができる。 The user input can comprise, for example, the movement of the rotatable input mechanism at different second rotational direction from the first rotational direction.

これによって、ユーザは、地球と1つ以上の地球以外の惑星の回転方向と、第8のアフォーダンスで指示した時刻の両方を、回転可能入力機構の回転に応じて誘導できる。 This Niyotte, a user leaves, the Earth door 1 Tsu ERROR Roh Earth mussels Roh planet field rotation direction door, eighth Roh affordance out instructions to other time Roh both wo, rotatable input mechanism Roh rotating twin depending hand induction possible. 例えば、ユーザは、回転可能入力機構を一方向に移動させ、地球と1つ以上の地球以外の惑星を所定の方向に回転させ、その年の後の時刻で地球と1つ以上の地球以外の惑星を見ることもでき、ユーザは、回転可能入力機構を別の方向に移動させ、地球と1つ以上の地球以外の惑星を逆方向に回転させ、地球と1つ以上の地球以外の惑星を、その年の前の時刻で見ることもできる。 For example, a user of the rotatable input mechanism is moved in one direction, the earth and one or more other planet Earth rotates in a predetermined direction, the time other than the earth and one or more earth after the year can also be seen planets, the user moves the rotatable input mechanism in another direction rotates the earth and one or more earth than planets in the reverse direction, the earth and one or more earth than planets , it can also be seen in front of the time of the year.

いくつかの実施形態では、地球の表現は更に、太陽の周りの地球の軌道の表現を含んでいてもよい。 In some embodiments, more earth representation may include a representation of the earth's orbit around the sun. いくつかの実施形態では、1つ以上の地球以外の惑星の表現は更に、太陽の周りの1つ以上の地球以外の惑星の軌道の表現を含んでいてもよい。 In some embodiments, more representations of one or more earth than planets may include one or more representations of the trajectory of the other planets around the sun. 軌道の表現は、ライン又はリング等のグラフィック表現であってもよい。 Trajectory representation may be a graphical representation of the line or ring, and the like. いくつかの実施形態では、軌道の表現は、定型化されていてもよい。 In some embodiments, the trajectory of the representation may be stylized. いくつかの実施形態では、軌道の表現は、太陽の周りの惑星の軌道の実際の寸法に基づいていてもよい。 In some embodiments, the trajectory of the representation may be based on the actual dimensions of the orbit planets around the sun.

いくつかの実施形態では、ユーザは、地球と1つ以上の地球以外の惑星の表現に関連した位置で、タッチ感知ディスプレイにコンタクトできる。 In some embodiments, the user is at a location associated with the representation of the Earth and the one or more earth than the planet can contact the touch-sensitive display. 例えば、コンタクトは、惑星自体の表示される表現において又はその近傍であってもよく、コンタクトは、惑星の軌道の表示される表現において又はその近傍であってもよい。 For example, the contact may be at or near the representation displayed planet itself, the contact may be or near the representation displayed orbit of the planet. いくつかの実施形態では、装置は、コンタクト位置に最も近い惑星の表示される表現又は惑星の軌道の表示される表現の決定に基づいて、選択した惑星を決定できる。 In some embodiments, the device based on the determination of the displayed the representation of the trajectory of the expression or planet displayed closest planet to the contact position, can determine the selected planet. いくつかの実施形態では、コンタクトは、ディスプレイ上のプレス及びホールド型コンタクトであってもよい。 In some embodiments, the contact may be a press and hold type contact on the display. コンタクトの検出時に、装置は、選択した惑星の表現及び/又は選択した惑星の軌道の表現を視覚的に区別できる(例えば、表示される惑星及び/又は軌道の色及び/又は輝度を変更すること、惑星及び/又は軌道の輪郭又は他の視覚的境界を表示すること、惑星及び/又は軌道をアニメーション化すること等で)。 Upon detection of the contact, the device visually distinct representations of the trajectory of the expression and / or selected planet selected planets (e.g., changing the color and / or brightness of the planet and / or track is displayed , displaying a contour or other visual boundaries planet and / or track, in such that animate the planet and / or track). いくつかの実施形態では、コンタクトの受け取りを続けている間、装置は、コンタクトの継続期間が、所定の閾値を超えるかどうかを決定することもでき、コンタクトが所定の閾値を超えたことの決定に従って、装置は、選択した惑星の表現及び/又は選択した惑星の軌道の表現を視覚的に区別できる。 In some embodiments, while continuing to receive the contact, the device determines the duration of contact, it is also possible to determine whether more than a predetermined threshold value, the contact exceeds a predetermined threshold value according, apparatus, visually distinct representations of the trajectory of the expression and / or selected planet selected planet. ユーザがコンタクトを離すと、装置は、所定の惑星についての情報を表示できる。 When the user releases the contact, the device can display information about a given planet. このような情報は、惑星のサイズ、惑星と太陽の間の距離(例えば、現在の距離、平均距離等)、惑星と地球(選択した惑星が地球でない場合)の間の距離(現在の距離、平均距離等)惑星が地球から見えるとき(選択した惑星が地球ではない場合)の時刻及び/又は天空上の位置、惑星の表面温度、惑星を周回する衛星の数、現在惑星を周回するか又は近傍にある宇宙船の数及び/又は識別子、惑星の詳細(例えば、惑星が地球型であるかガス型であるか、惑星の発見日、惑星の名前についての情報等)、太陽系の他のオブジェクトと惑星の特定の配置の時刻(過去、現在、又は未来)等を、無制限に含んでいてもよい。 Such information, the size of the planet, the distance between the planets and the sun (e.g., current distance, average distance and the like), planets and the distance (current distance between the earth (If the selected planet not Earth), time and / or position on the sky when the average distance, etc.) planet visible from Earth (If the selected planet is not Earth), planet surface temperature, number of satellites orbiting the planet, or currently orbiting planets the number and / or identifier of the spacecraft in the vicinity, planet details (e.g., the planet is a gas-type or a terrestrial planet discoveries date, etc. information about the name of the planet), other objects in the solar system the time of the particular arrangement of the planet (past, present, or future), and the like, may contain an unlimited number.

惑星についての情報を見た後、ユーザは、その情報を終了させたいか、又は別の惑星についての情報を見たい場合がある。 After looking at information about the planet, the user may want to see information about what you want to terminate the information, or another planet. いくつかの実施形態では、ユーザはタップしてその情報を終了させることも、スワイプして別の惑星を選択することもできる。 In some embodiments, the user may be terminated the information by tapping, it is also possible to select another planet swipe. 例えば、第1の方向でのスワイプは、その軌道が前の惑星に対して太陽から更に遠い次の惑星を選択でき、逆方向のスワイプは、その軌道が前の惑星に対して太陽により近い次の惑星を選択できる。 For example, a swipe in the first direction, can choose the more distant the next planet from the sun that orbit with respect to the front planet reverse swipe closer to the sun the orbit with respect to the front planet next the planet can be selected. いくつかの実施形態では、コンタクトに関連した地球又は1つ以上の地球以外の惑星についての情報を表示した後、装置は、ユーザ入力を受け取り、ユーザ入力が、タッチ感知ディスプレイ上のタップを表現するかスワイプを表現するかを決定できる(例えば、コンタクト/動きモジュール130を用いてユーザのジェスチャを検出することで)。 In some embodiments, after displaying the information about the associated planet or one or more earth than planets in the contact, the device receives user input, the user input is to express the tap on the touch-sensitive display swipe can decide whether to express or (e.g., by detecting a gesture of a user with the contact / motion module 130). ユーザ入力がタップを表現することの決定に従って、装置は、惑星について表示される情報を除去できる。 As determined that the user input representing a tap, the device can remove the information displayed for the planet. ユーザ入力がスワイプを表現することの決定に従って、装置は、惑星について表示される情報を、第1の惑星とは異なる第2の惑星(例えば、ユーザコンタクトに関連していない惑星)についての情報と置換できる。 As determined that the user input representing a swipe device, information of the information displayed on the planet, the second planet different from the first planet (e.g., planets not associated with the user contacts) It can be replaced.

いくつかの実施形態では、ユーザインターフェーススクリーンは、太陽系のシミュレーションを示すために表示を更新した後、月(例えば、1016又は1034)を指示するアフォーダンス及び/又は地球(例えば、1014又は1032)を指示するアフォーダンスを表示する。 In some embodiments, the user interface screen after updating the display to indicate a simulation of the solar system, month (e.g., 1016 or 1034) instructing Affordance and / or earth instructing (e.g., 1014 or 1032) to affordance to display. いくつかの実施形態では、月及び/又は地球のアフォーダンスは、アイコン、シンボル、又はテキスト等の地球又は月のグラフィック表現又は定型化された表現であってもよい。 In some embodiments, the month and / or earth affordance, icons, symbols, or a graphic representation or stylized representation of the earth or the moon, such text. いくつかの実施形態では、月及び/又は地球のアフォーダンスは、月又は地球の写実的レンダリングであってもよい。 Some mosquito Roh embodiment leaf emergence, month and / Matawa Earth Roh affordance leaf, month Matawa Earth Roh photorealistic rendering target out there hand mourning good. 地球のアフォーダンスにコンタクトしたとき、ユーザは、図8を参照しながら説明したコンテキスト特化ユーザインターフェースに戻ることができる。 When in contact with the earth affordance, the user can return to the context specialized user interface described with reference to FIG. 月のアフォーダンスにコンタクトしたとき、ユーザは、図9を参照しながら説明したコンテキスト特化ユーザインターフェースに戻ることができる。 When contacted affordance month, the user can return to the context specialized user interface described with reference to FIG.

図8〜図10に示したコンテキスト特化ユーザインターフェースのいずれかのいくつかの実施形態では、ユーザは、回転可能入力機構を移動(例えば、回転)させ、表示される時刻指示を時刻的に前後にスクロールできる。 Figure 8 in any of a number of embodiments of the context specialized user interface shown in Figure 10, the user moves the rotatable input mechanism (e.g., rotation) is, the time to before and after the time instructions that appear You can scroll to. 当然のことながら、このような機能は、本明細書で説明されるコンテキスト特化ユーザインターフェースのいずれに適用してもよいが、説明を簡略化するために、この機能は、図8〜図10を参照しながら説明する。 Of course, such a feature may be applied to any context specific user interface described herein, in order to simplify the description, this functionality is 8 to 10 It refers to the will be described. 米国特許出願第14/476,700、「装着型電子装置のクラウン入力(Crown Input for a Wearable Electronic Device)」、出願日2014年9月3日で説明されているもの等、回転可能入力機構の移動をスクロールの距離又は速度にマッピングする任意のモデルが用いられ、それは、ここで参照によって全体として組み込まれる。 U.S. Patent Application No. 14 / 476,700, "crown input wearable electronic device (Crown Input for a Wearable Electronic Device)", such as those described in filed Sep. 3, 2014, the rotatable input mechanism moving any models are used to map the distance or speed of the scrolling, and it is incorporated in its entirety by reference herein. 例えば、加速度、速度等を用いて、表示される時刻指示のスケーリングの速度量を決定できる。 For example, acceleration, using the velocity and the like, can determine the rate of scaling time instructions.

いくつかの実施形態では、ユーザは、回転可能入力機構を移動させ、スクリーン802、820、及び/又840に表示される時刻指示をスクロールできる。 In some embodiments, the user moves the rotatable input mechanism can scroll the time on-screen instructions 802,820, and / or 840. 回転可能入力機構の移動(例えば、移動830)の検出に応じて、装置は、例えば、地球の回転をシミュレートすることで、地球の表示される表現を更新し、異なる時刻に太陽で照らされるように地球を表示できる(822と842を比較)。 Movement of the rotatable input mechanism (e.g., mobile 830) in response to the detection of the apparatus, for example, to simulate the rotation of the earth, and updates the representation displayed earth, it is illuminated with the sun at different times You can display the earth as (822 and compared with 842). いくつかの実施形態では、装置は、表示される時刻指示を更新し、異なる時刻を指示できる(824と844を比較)。 In some embodiments, the apparatus updates the time instructions that appear, (compare 824 and 844) different times can be instructed. 同様に、図9に示すように、入力機構の移動(例えば、移動912)の検出に応じて、装置は、月の表示されるシミュレーションを更新し、異なるタイムオブマンスにおける異なる月相を表示することも(例えば、904と922を比較)、及び/又は表示される時刻指示を更新し、異なる時刻を示すこともできる(例えば、906と924を比較)。 Similarly, as shown in FIG. 9, the movement of the input mechanism (e.g., mobile 912) in response to the detection of the apparatus, and updates the simulation are displayed in the month, display different lunar phase at different time-of-Month it (e.g., 904 and 922 compare), and / or update the time indication to be displayed, may also indicate different times (e.g., compare 906 and 924). 同様に、図10に示すように、回転可能入力機構の移動(例えば、移動1018)の検出に応じて、装置は、地球と1つ以上の地球以外の惑星の表示される位置を更新し、異なるタイムオブイヤーにおける太陽に対する異なる位置を表示することも(例えば、1008及び1010と1026及び1028を比較)、表示される時刻指示を更新し、異なる時刻を示すこともできる(例えば、1012と1030を比較)。 Similarly, as shown in FIG. 10, the movement of the rotatable input mechanism (e.g., move 1018) in response to the detection of the apparatus, and updates the position that appears the Earth and the one or more earth than the planet, it may show different positions relative to the sun at different times of year (for example, compare 1008 and 1010 and 1026 and 1028), and updates the time indication to be displayed, it may also indicate different times (e.g., 1012 and 1030 Compare). いくつかの実施形態では、地球と月の表現、及び/又は地球と1つ以上の地球以外の惑星の位置は、回転可能入力機構の移動の方向に基づいて、一方向で回転できる。 In some embodiments, the representation of the Earth and the Moon, and / or Earth and planetary positions other than the one or more earth, based on the direction of movement of the rotatable input mechanism, can rotate in one direction. いくつかの実施形態では、地球と月の表現、及び/又は地球と1つ以上の地球以外の惑星の位置は、例えば、上で参照したモデルのいずれかに従って、回転可能入力機構の移動の速度及び/又は量に基づいて、所定の速度で回転できる。 In some embodiments, the rate of expression of the Earth and the Moon, and / or Earth and planetary positions other than the one or more earth, for example, in accordance with any of the models referred to above, the movement of the rotatable input mechanism and / or based on the amount, it can be rotated at a predetermined speed. 当然のことながら、表示されるコンテキスト特化ユーザインターフェースに依存して、回転可能入力機構の移動は、表示される時刻指示を異なるタイムスケールで更新させてもよい。 Of course, depending on the context specialized user interface displayed, the movement of the rotatable input mechanism, a time indication to be displayed may be updated at different time scales. 例えば、同じ程度及び/又は速度の回転で、図8に示したコンテキスト特化ユーザインターフェースを時間毎に更新させてもよいが、図9に示したコンテキスト特化ユーザインターフェースは、日又は週毎に更新することもでき、図10に示したコンテキスト特化ユーザインターフェースは、月又は年毎に更新できる。 For example, in the rotation of the same degree and / or rate, but may be updated context specialized user interface shown in FIG. 8 every time the context specialized user interface shown in FIG. 9, a daily or weekly update to the ancient capital mourning can be, as shown in FIG. 10 similar shows other context-specific user interface leaves, month Matawa year every two that can be updated.

図8〜図10に示したいずれかのコンテキスト特化ユーザインターフェースのいくつかの実施形態では、装置は、上記のように、国際宇宙ステーションの実時間の位置等の、他のグローバルな又は天文学的フィーチャ又はオブジェクトを指示できる。 Figure 8 In some embodiments of any of the context specialized user interface shown in Figure 10, the apparatus, as described above, the position of the real-time of the International Space Station, other global or astronomical You can direct a feature or object. いくつかの実施形態では、ユーザは、ディスプレイ上をタップすることもでき(例えば、宇宙空間に対応する位置)、タップの検出に応じて、装置は、例えば、現在宇宙にいる人々の数、現在宇宙にある宇宙船の数及び/又は名前等、他のグローバルな又は天文学的フィーチャ又はオブジェクトについての別の情報を提供できる。 In some embodiments, the user may also touch on the display (e.g., the position corresponding to the space), in response to the detection of the tap, the device, for example, the number of people in the current space, now the number and / or name, etc. of the spacecraft in space, providing an additional information about other global or astronomical feature or object.

図11Aは、装置1100で動作できる典型的なコンテキスト特化ユーザインターフェースを示す。 11A shows an exemplary context specialized user interface for operating the apparatus 1100. 装置1100は、いくつかの実施形態では、装置100、300、又は500であってもよい。 Device 1100, in some embodiments, device 100 or 300, or a 500. 電子装置は、タッチ感知ディスプレイ(例えば、タッチスクリーン504)を有する。 The electronic device includes a touch-sensitive display (e.g., touch screen 504).

ユーザは、昼間及び夜間の時刻というコンテキストで所定の時刻を観察したい場合がある。 The user may wish to observe a predetermined time in the context of day and night time. 例えば、ユーザは、夜明け又は夕暮れの時刻を知りたい、又は日没までにどのくらいの時間が残っているかの簡単な視覚的指示にアクセスしたい場合がある。 For example, a user may want to access the dawn or want to know the twilight of time, or a simple visual indication is left is how much time until sunset.

図11Aに示すように、装置1100は、ユーザインターフェーススクリーン1102を表示する。 As shown in FIG. 11A, device 1100 displays a user interface screen 1102. ユーザインターフェーススクリーン1102は、昼間を指示する第1の部分1104と夜間を指示する第2の部分1106の2つの部分を有する。 User interface screen 1102 leaves, daytime wo instruction to the first mounting portion 1104 door at night wo instruction to the second mounting portion 1106 Roh 2 star Roh part wo have. 更に、スクリーン1102は、サイン波1108を表現するユーザインターフェースオブジェクトを表示する。 Furthermore, the screen 1102 displays a user interface object that represents the sine wave 1108. サイン波1108は、数学的精度又は正確さなしにサイン波の一般的な外見を表現してもよい。 Sine wave 1108 may represent a general appearance of a sine wave without mathematical precision or accuracy. しかし、重要なことは、サイン波1108は、ほぼ一日の期間を有し、その日を通して太陽の経路を指示する。 Importantly, however, sine wave 1108 has a period of approximately one day, to direct the path of the sun throughout the day. 図11Aに示すように、1108のトラフは、正子(24時間離れた2つの正子に対応する)を表現し、1108のピークは、その日の正午を表現する。 As shown in FIG. 11A, 1108 trough is Masako (corresponding to 2 horns Masako away 24 h) represent the peak of 1108, representing the noon of the day. スクリーン1102には、第1のアフォーダンス1110も表示され、それは、現在の時刻を指示する位置で、サイン波1108に沿った位置に表示される。 The screen 1102, the first affordance 1110 is also displayed, it is a position that indicates the current time, is displayed at a position along the sine wave 1108. 更に、スクリーン1102は、ディスプレイの昼間部分と夜間部分を分割するオプション機能である水平ライン1112を表示する。 Furthermore, the screen 1102 displays the horizontal line 1112 is an optional feature to divide the day part and night portion of the display. 図のように、水平ライン1112は、2つの点でサイン波1108と交差し、日出と日没を表現する。 As shown, the horizontal line 1112 intersects the sine wave 1108 in two points to represent the sunrise and sunset. 最後に、スクリーン1102は、現在の時刻を指示する第2のアフォーダンス1114を表示する。 Finally, the screen 1102, displaying a second affordance 1114 that instructs the current time.

その日の過程を通して、1114は現在時刻(この例では、午前5:30)を表示し、第1のアフォーダンス1110は、サイン波に沿って進む。 Throughout the course of the day, 1114 the current time (in this example, 5:30 am) to display the first affordance 1110 proceeds along a sine wave. 1110が昼間部分1104にあるとき、現在時刻は昼間である。 When the 1110 is in the daytime part 1104, the current time is daytime. 1110が夜間部分1106にあるとき、現在時刻は夜間である。 When the 1110 is in the nighttime portion 1106, the current time is at night. 午前5:30では、第1のアフォーダンス1110はなおスクリーン1102の夜間部分にあるので、ちょうど夜明け前である。 At 5:30 am, because it is in the night portion of the first affordance 1110 thong screen 1102, which is just before dawn. このコンテキスト特化ユーザインターフェースの機能は、ユーザに簡単で直感的な方法を提供し、現在時刻を追跡し、例えば、日没又は日出までどれくらいあるかを理解できる。 The function of the context specific user interface provides a simple and intuitive way to the user, and tracks the current time, for example, you can understand whether there much to sunset or sunrise. いくつかの実施形態では、第1のアフォーダンス1110で指示すように、ディスプレイの夜間部分(例えば、1106)内に完全にある位置のとき、太陽を表現するアフォーダンスは中空(リング状等)に見える。 In some embodiments, as to instruct the first affordance 1110, nighttime portion of the display (e.g., 1106) when the position that is completely within, affordance representing the sun looks hollow (ring-shaped, etc.) . これは更に、現在は夜明け前であることをユーザに強く意識させる。 This further, now to be strongly aware of the user that is before dawn.

例えば、スクリーン1120は、第2の時刻を指示し、第1のアフォーダンス1122、サイン波1124、及び第2のアフォーダンス1126を含む。 For example, screen 1120 instructs the second time, including the first affordance 1122, sine wave 1124, and the second affordance 1126. 第2のアフォーダンス1126で指示すように、今は午前7:00の日出である。 As to the instructions in the second affordance 1126, now is the sunrise of 7:00 am. 波1124に沿っての第1のアフォーダンス1122の位置は、第1の部分と第2の部分の間にあり、夜間から昼間への遷移を指示する。 Position of the first affordance 1122 along the wave 1124 is between the first and second portions to make a transition to the daytime from nighttime. これは更に、ディスプレイの2つの部分を分けるライン1128にアフォーダンス1122を位置合わせすることで、スクリーン1120に示される。 This further by aligning the affordances 1122 to the line 1128 that separates the two parts of the display, as shown in screen 1120. これは更に、アフォーダンス1122自体の外見によって示され、それは、アフォーダンスが、ディスプレイの第1の部分及び第2の部分と交差する位置にあるとき、オプションとして半分まで塗りつぶされる。 This further indicated by the appearance of Affordance 1122 itself, it affordance is, when in the position that intersects the first portion and the second portion of the display, is filled up to half as optional.

スクリーン1130は、第3の時刻を示し、第1のアフォーダンス1132、サイン波1134、及び第2のアフォーダンス1136を含む。 Screen 1130 illustrates a third time, including the first affordance 1132, sine wave 1134, and the second affordance 1136. 第2のアフォーダンス1136で指示すように、今は午後2:00である。 As to the instructions in the second affordance 1136, it is now a 2:00 pm. 波1134に沿っての第1のアフォーダンス1132の位置は、ディスプレイの第1の部分にあり、昼間を指示する。 Position of the first affordance 1132 along the wave 1134 is in a first portion of the display, indicating the daytime. これは更に、アフォーダンス1132自体の外見によって描写され、それは、そのアフォーダンスが完全に第1の部分の位置のとき、オプションとして塗りつぶされる。 This further delineated by the appearance of Affordance 1132 itself, it is at that time affordance is located completely the first portion is filled as an option.

いくつかの実施形態では、第1の及び/又は第2の部分の色は、昼間(例えば、暖かい又は明るい色で)又は夜間(例えば、暗い又は冷たい色で)を指示できる。 In some embodiments, the color of the first and / or second portion may instruct the daytime (for example, warm or bright color) or night (for example, dark or cold color). いくつかの実施形態では、第1の部分及び第2の部分は、同じ色であってもよく、現在の光状態を表現することができる。 In some embodiments, the first and second portions may be the same color, it is possible to express the current light conditions. これらの実施形態では、ユーザは更に、サイン波、オプションの水平ライン及び/又は太陽のアフォーダンスのオプションの外見(例えば、塗りつぶし、半分まで塗りつぶし、又は中空)によって現在の光状態を教えることもできる。 In these embodiments, the user may further sine wave, optional horizontal lines and / or solar optional appearance Affordance (e.g., fill, fill up half or hollow) by also teaching the current light conditions. いくつかの実施形態では、サイン波は2つ以上の色を含んでいてもよく、これらの色は、昼間及び夜間部分を指示できる(例えば、昼間部分の波の一部が1つの色であってもよく、夜間部分の波の一部が別の色であってもよい)。 In some embodiments, the sine wave may comprise two or more colors, these colors can indicate the day and night moiety (e.g., a part of the wave of the day portion was at one color at best, some of the waves at night portion may be a different color). 更に、2つの部分は、任意の形状であってもよい(長方形には限定されない)。 Moreover, two parts (not limited to a rectangle) which may be a any shape. 例えば、昼間部分は、サイン波を取り囲む明るくした円として見え、夜間部分は円の周りの全てのように見えてもよい。 For example, during the day part, it appears as a circle was bright surrounding the sine wave, nighttime portion may appear to be all around the circle.

いくつかの実施形態では、装置1100は、位置センサ(例えば、GPSセンサ532及び/又はGPSモジュール135)を有してもよい。 In some embodiments, device 1100, a position sensor (e.g., GPS sensor 532 and / or GPS module 135) may have. これらの実施形態では、装置1100は、位置センサから装置の現在位置を獲得し、表示される第1の部分及び第2の部分の割合によって、現在位置及び現在時刻における昼間と夜間の時間を指示できる。 In these embodiments, device 1100 may obtain the current location of the device from the position sensor, the ratio of the first portion and a second portion displayed, instructing the daytime and nighttime at the current position and the current time it can. つまり、ディスプレイの昼間部分及び夜間部分のサイズは、現在の位置及び日付における昼間の時間に対して調整される。 In other words, the size of the day part and night part of the display is adjusted for daytime time at the current location and the date. 図の例として、現在位置が夏の間の北極圏に近い場合、昼間部分は、スクリーンの全て又はほぼ全てを含むことができ、表示されるサイン波の全て又はほぼ全ては昼間部分にある。 As illustrated example, when the current position near the Arctic during the summer, daytime moiety, all of screen or can include substantially all, in all or nearly all the daytime portion of a sine wave that appears. 他の例として、ユーザが地球を緯度方向に移動したとすると、アフォーダンス1110、1122、又は1132の位置は(例えば、)変化しないが、昼間と夜間部分の比率、及びそれぞれの内のサイン波の相対的な量は、現在の位置を反映するように調整される。 As another example, if the user has moved the earth latitudinally, the position of the affordance 1110,1122, or 1132 (for example) does not change, daytime and nighttime portion of the ratio, and the sine wave of the respective the relative amounts are adjusted to reflect the current position. これは、時刻のより写実的描写をユーザに提供し、ユーザインターフェースを向上させる。 This more provides realistic depiction to the user of the time, improving the user interface.

いくつかの実施形態では、表示されるサイン波の振幅は、現在位置及び現在時刻において水平線に対する太陽の高さに基づく。 In some embodiments, the amplitude of the sine wave to be displayed, based on the height of the sun relative to the horizontal at the current position and the current time. 例えば、波は、平坦であるか、若しくは振幅を小さくでき、その位置及び現在の日付(例えば、冬の極により近い位置)で、太陽が空のより低い経路を通ることを反映できる。 For example, the waves are either flat, or can reduce the amplitude, the position and the current date (e.g., position closer to the winter pole), the can reflect that the sun passes through the lower path of the sky.

ここで、注意を図11Bに向けると、それは、ユーザがやり取り可能な機能を提供し、追加の昼/夜情報を見ることができるこのコンテキスト特化ユーザインターフェースの一例を示す。 Here, Turning attention to FIG. 11B, it is the user to provide for interaction function capable illustrates an example of the context specialized user interface that can be seen an additional day / night information. 図11Bは、装置1100に表示されるユーザインターフェーススクリーン1140を示す。 Figure 11B illustrates a user interface screen 1140 displayed on the device 1100. スクリーン1140は、第1のアフォーダンス1142を含み、それは、サイン波1144に沿って現在時刻における太陽の位置を表現する。 Screen 1140 includes a first affordance 1142, which expresses the position of the sun at the current time along the sine wave 1144. スクリーン1140は更に、第2のアフォーダンス1146を表示し、それは、更に現在時刻(午前10:09)を指示する。 Screen 1140 further displays a second affordance 1146, it further instructs the current time (AM 10:09). 装置1100は、表示される第1のアフォーダンス1142において、タッチ1148で示されるユーザコンタクトを受け取る。 Apparatus 1100, in the first affordance 1142 that appears receives user contacts indicated by the touch 1148.

装置1100で検出されるように、ユーザは、第1のアフォーダンス1142にタッチし、連続的なジェスチャで(タッチ1166で指示すように)サイン波に沿って第2の位置までそのアフォーダンスをドラグする。 As detected by the device 1100, the user touches the first affordance 1142, to drag the Affordance a continuous gestures (as instructs a touch 1166) to a second position along the sine wave . それに応じて、スクリーン1160に示すように、装置1100は、サイン波1164に沿っての第2の位置に、第1のアフォーダンス1162を表示する。 Accordingly, as shown in screen 1160, device 1100 is in a second position along the sine wave 1164, and displays the first affordance 1162. 装置1100は更に、第2のアフォーダンス1168を更新し、現在以外の時刻を指示する。 Apparatus 1100 further updates the second affordance 1168, instructs the time other than the current. この新しい時刻(12:09)は、アフォーダンス1162の第2の位置によって示される時刻に対応する。 The new time (12:09) corresponds to the time indicated by the second position of Affordance 1162. 従って、ユーザは、アフォーダンス1148及び/又は1166を移動させるだけで、サイン波に沿っての任意の位置で表される時刻を見ることができる。 Accordingly, the user simply moves the affordance 1148 and / or 1166, you can see the time represented by any position along the sine wave.

当然のことながら、コンタクトの移動は、サイン波上の位置で開始及び終了できるが、移動自体が正確にサイン波を追跡する必要はない。 Of course, the movement of the contacts and may start and end at a position on the sine wave need not move itself to track the precise sine wave. つまり、ユーザは、サイン波に沿って正確にコンタクトを追跡する必要はない。 In other words, the user does not need to keep track of contacts accurately along the sine wave. 装置は、表示される第1のアフォーダンスにおいてユーザコンタクトを単に受け取ってもよく、ユーザコンタクトの受け取りを続けながら、タッチ感知ディスプレイでのユーザコンタクトの中断なく、第1の位置から第2の位置へのコンタクトの移動を検出する(例えば、ユーザはタッチ感知ディスプレイから指を持ち上げない)。 Device may simply receive a user contact in a first affordance displayed, while continuing to receive the user contact, without interruption of user contact with the touch-sensitive display, from the first position to the second position detecting the movement of the contact (e.g., the user does not lift the finger from the touch-sensitive display).

第2の位置におけるコンタクトの検出に応じて、装置は、サイン波を追跡しながら、スクリーン上の第1のアフォーダンスを第2の位置に平行移動できる。 In response to detection of the contact at the second position, the device, while tracking a sine wave, it can be moved parallel to the first affordance on the screen to the second position. 従って、ユーザコンタクトはサイン波を追跡する必要はないが、装置はそれでも、サイン波に沿って第1のアフォーダンスを追跡することで、第1の位置から第2の位置に第1のアフォーダンスを平行移動させる。 Thus, the parallel is not necessary to keep track of user contacts sine wave, the device nevertheless, by tracking the first affordance along sine wave, the first affordance from the first position to the second position so moved. いくつかの実施形態では、装置は、第2のアフォーダンスによって示されるように、時刻を連続的に更新できる。 In some embodiments, the device, as indicated by the second affordance, time, can be continuously updated. 若しくは、装置は、連続的なコンタクトが第2の位置に停止したとき、第2のアフォーダンスによって示される時刻を更新できる。 Or apparatus, when continuous contact is stopped in the second position, it updates the time indicated by the second affordance. 代替え的な実施形態では、第1の位置でのコンタクトの検出後、装置は、回転可能入力機構の回転に応じて、スクリーン上の第1のアフォーダンスをサイン波上の第2の位置に平行移動できる。 In alternative embodiments, after the detection of the contact in the first position, the device in accordance with the rotation of the rotatable input mechanism, translates the first affordance on the screen to a second location on the sine wave it can.

図11Bは、このコンテキスト特化ユーザインターフェースのオプション機能を示す。 Figure 11B shows an optional feature of this context specialized user interface. スクリーン1140に示すように、アフォーダンス1142におけるユーザタッチ1148の受け取りに応じて、装置1100はアフォーダンス1150と1152を表示し、それらはそれぞれ日出と日没を描写する。 As shown in screen 1140, in response to receipt of a user touch 1148 in Affordance 1142, device 1100 displays the Affordance 1150 and 1152, they depict sunrise and sunset, respectively. 波が、昼間を指示する第1の位置と、夜間を指示する第2の位置の間の境界と交差する2つの点で、アフォーダンス1150と1152は、波1144に沿って表示される。 Waves, a first position, the two points of intersection with the boundary between the second position designated at night to direct daylight, Affordance 1150 and 1152, are displayed along the wave 1144. この境界は、オプションの水平ライン1154と共にスクリーン1140に境界を定める。 This boundary defines a boundary on the screen 1140 with horizontal line 1154 of options. 水平ライン1154が表示されると、アフォーダンス1150と1152は、ライン1154が波1144と交差する2つの点に表示される。 When the horizontal line 1154 is displayed, Affordance 1150 and 1152, line 1154 is displayed in two points intersecting the waves 1144. いくつかの実施形態では、アフォーダンス1150と1152は更に、現在の日の日出と日没時刻のそれぞれの数値表示を含んでいてもよい。 In some embodiments, Affordance 1150 and 1152 may further include a respective numerical display of sunrise and sunset times for the current day. いくつかの実施形態では、これらのアフォーダンスは、装置1100が第2の位置においてユーザコンタクトを受け取る間も表示される。 In some embodiments, these affordances are also displayed while the apparatus 1100 receives the user contact at the second position.

アフォーダンス1142におけるユーザコンタクト1148の受け取りに応じて、スクリーン1140にはアフォーダンス1156と1158も表示される。 In response to receiving the user contacts 1148 in Affordance 1142, Affordances 1156 on the screen 1140 and 1158 are also displayed. アフォーダンス1156と1158は、夜明けと夕暮れにそれぞれ対応する位置で、波1144に沿って表示される。 Affordance 1156 and 1158, at positions corresponding to at dawn and dusk, is displayed along the wave 1144. いくつかの実施形態では、これらのアフォーダンスは、装置1100が第2の位置においてユーザコンタクトを受け取る間も表示される。 In some embodiments, these affordances are also displayed while the apparatus 1100 receives the user contact at the second position. これらの表示されるアフォーダンスは、最初の及び最後の光がいつ発生するかをユーザに指示し、ユーザは、アフォーダンス1142からの距離によって、それらがいつ発生するか、又はどれくらい前に発生したかを視覚的に評価できる。 Affordance by these display instructs the first and last or light is always generated to the user, the user, the distance from Affordance 1142, whether they are time occurs or how much occurred before visually it can be evaluated. いくつかの実施形態では、夜明けの時刻は、天文薄明、航海薄明、又は市民薄明であってもよい。 In some embodiments, the time of the dawn, astronomical twilight may be voyage twilight, or civil twilight. いくつかの実施形態では、夕暮れの時刻は、天文薄暮、航海薄暮、又は市民薄暮であてもよい。 In some embodiments, twilight time, astronomical twilight, nautical twilight, or addressed by civil twilight.

いくつかの実施形態では、装置1100は、表示される第1のアフォーダンスにおけるコンタクト、コンタクトの移動、及びコンタクトの中断を検出する。 In some embodiments, device 1100 may contact the first affordance displayed, movement of the contacts, and detects the interruption of the contact. コンタクトの中断の検出に応じて、装置は現在時刻を指示する位置に戻すように第1のアフォーダンスを平行移動させ、第2のアフォーダンスを更新し、現在時刻を指示してもよい。 In response to the detection of the contact of the interruption unit moves parallel to the first affordance to return to the position indicating the current time, and updates the second affordance may indicate the current time. これによって、ユーザは、所定の位置にアフォーダンスをドラグし、その位置に対して示された時刻を見て、コンタクトを離し、現在位置に「スナップバック」できる。 This allows the user to drag the affordances in place, looking at the time indicated for that position, release the contact, can "snap-back" to the current position.

図11Cは、このコンテキスト特化ユーザインターフェースの別のオプション機能を示す。 Figure 11C illustrates another optional feature of this context specialized user interface. いくつかの実施形態では、特にユーザインターフェーススクリーンが小さなサイズのディスプレイに表示される場合、視認性のために各要素をできるだけ大きく表示することが望ましい。 In some embodiments, especially when the user interface screen is displayed in a small size of the display, it is desirable to maximize display each element for visibility. スクリーン1170は、第1のアフォーダンス1172、サイン波1174、及び第2のアフォーダンス1176を表示する。 Screen 1170, the first affordance 1172, displays a sine wave 1174, and a second affordance 1176. 図のように、アフォーダンス1176は、波1174と交差する。 As shown, affordance 1176 intersects the waves 1174. 現在時刻が2:00に到達すると、スクリーン1180に示すように、波1184に沿って2:00を指示するアフォーダンス1182の位置は第2のアフォーダンスと交差する。 When the current time reaches 2:00, as shown in screen 1180, the position of affordance 1182 that instructs 2:00 along the wave 1184 intersects the second affordance. 装置1100は、第1のアフォーダンスの位置が第2のアフォーダンスと交差するかどうか(例えば、第2のアフォーダンスと重複する、それによって覆い隠される、若しくはそれに近づいて見える位置)を決定できる。 Apparatus 1100, whether the position of the first affordance intersects the second affordance (e.g., overlapping the second affordance, thereby obscured, or position looks close to) can be determined. アフォーダンスが交差することの決定に応じて、装置は、交差しないディスプレイ上の別の位置に第2のアフォーダンスを表示できる。 Affordance in response to determining that intersect, the device can display a second affordance to another location on the display that do not intersect. スクリーン1180に示すように、アフォーダンス1186の位置は、1176とは異なるが、それは、スクリーン上の1176の相対的な位置が、第1のアフォーダンス1182と交差するためである。 As shown in screen 1180, the position of affordance 1186 is different from the 1176, it relative position 1176 on the screen, in order to intersect the first affordance 1182. この調節によって、装置は、表示される要素間の視覚的干渉なしに、情報豊かなスクリーンを表示できる。 This regulation device, without visual interference between the elements displayed, can display information rich screen.

ユーザは、スクリーン1180にタッチ1188を備えているタッチ感知ディスプレイにコンタクトすることもできる。 The user can also contact the touch-sensitive display that includes a touch 1188 on the screen 1180. このコンタクトは、例えば、現在時刻で太陽を表現する第1のアフォーダンスの位置以外の、ディスプレイ上の任意の位置であってもよい。 This contact may, for example, other than the position of the first affordance representing the sun at the current time, may be any position on the display. コンタクトの検出に応じて、装置1100はスクリーン1190を表示し、それは、日出時刻1192、日没時刻1194、及びアフォーダンス1196を含み、昼間と夜間のテキスト以外の指示を提供する。 In response to detection of contact, device 1100 displays a screen 1190, it is sunrise time 1192, includes a sunset time 1194, and affordance 1196, provides an indication other than daytime and nighttime text. これによって、ユーザは、任意のユーザインターフェーススクリーンから日出及び日没時刻にアクセスできる。 Thus, the user can access the sunrise and sunset time from any user interface screen.

ユーザは、このコンテキスト特化ユーザインターフェースによって時刻のリマインダを設定することもできる。 The user can also set the time for the reminder this context specialized user interface. 例えば、装置が回転可能入力機構(例えば、506)を有する場合、ユーザは、回転可能入力機構を回転させ、リマインダを設定できる。 For example, if the device has a rotatable input mechanism (e.g., 506), the user rotates the rotatable input mechanism can be set a reminder. 回転可能入力機構の移動の検出に応じて、装置は、現在の時刻ではないことを指示する第3の位置に第1のアフォーダンスを平行移動できる。 In response to the detection of movement of the rotatable input mechanism, device can translate the first affordance a third position indicating that not the current time. ユーザは、第3の位置に表示される第1のアフォーダンスにコンタクトし、コンタクトの検出に応じて、装置は、指示された時刻にユーザリマインダを設定できる。 The user contacts the first affordance displayed in the third position, in response to detection of contact, the apparatus can set the user reminders indicated time.

例えば、装置は、ユーザプロンプトを表現する別のアフォーダンスを表示し、指示された時刻にアラートを設定できる。 For example, the device displays a different affordance representing the user prompts, can set an alert to the designated time. リマインダは、視覚的アラートであってもよい。 Reminder may be a visual alert. この例では、装置は、その時刻が近づくと表示される視覚的アラートを表示できる。 In this example, the device can display a visual alert that is displayed when the time approaches. 若しくは、装置は、サイン波に沿って第3の位置を示す視覚的アフォーダンスを常に表示し、指示された時刻が現在時刻からどのくらい離れているかをユーザに理解させるのに役立つ。 Or, the device always displays a visual affordance showing a third position along the sine wave, designated time helps to understand how far from the current time to a user. いくつかの実施形態では、ユーザリマインダは、指示された時刻に到達したか、又はすぐに到達するとき、ユーザに音声で通知する音声アラートを含むことができる。 In some embodiments, the user reminders, or reaches the designated time, or when the immediate reach, may include an audio alert to notify by voice the user. いくつかの実施形態では、ユーザリマインダは触覚アラートを含むことができる。 In some embodiments, the user reminders may include a tactile alert. 装置は、指示された時刻が近づいて得るとき、ユーザへの触覚信号を生成できる(例えば、触覚フィードバックモジュール133と触知出力生成器167を用いて)。 Device, when designated time may approach can generate a tactile signal to the user (e.g., using a haptic feedback module 133 and the tactile output generator 167).

これらの機能によって、ユーザは、このコンテキスト特化ユーザインターフェースを更にカスタマイズできる。 These features, user, the context specific user interface can further customize. 当然のことながら、この機能は、所定の時刻に特定のアラートを生成せず、むしろ、特定の日付に結び付けられていない時刻に共通アラートを設定できる。 Of course, this feature does not generate a specific alert at a given time, but rather, may set a common alert time that is not tied to a specific date. 例えば、ユーザは、家の窓を通る日光等所定の照明効果を通知し、それが発生する時刻にこの効果を見ることができるようにリマインダを設定したい場合がある。 For example, a user may want to set a reminder so that it is possible to see this effect at the time to notify the sunlight or the like predetermined lighting effects through the window of the house, it is generated. 昼間/夜間情報のコンテキスト内では、これによって、ユーザはユーザインターフェースをカスタマイズし、日出、日没、夜明け、夕暮れ等だけでなく、指定したい時刻を含めることもできる。 Within the context of the day / night information, which allows the user to customize the user interface, sunrise, sunset, dawn, not only the evening, etc., it can also be included in the time you want to specify.

図12は、装置1200で動作できる典型的なコンテキスト特化ユーザインターフェースを示す。 Figure 12 illustrates an exemplary context specialized user interface for operating the apparatus 1200. 装置1200は、いくつかの実施形態では、装置100、300、又は500であってもよい。 Device 1200, in some embodiments, device 100 or 300, or a 500. いくつかの実施形態では、電子装置は、タッチ感知ディスプレイ(例えば、タッチスクリーン504)を有する。 In some embodiments, the electronic device includes a touch-sensitive display (e.g., touch screen 504).

ユーザは、元の画像をできるだけ保持しながら、ユーザインターフェーススクリーンで所定の背景画像を見たい場合がある。 The user, while retaining as much as possible the original image, which may want to see a predetermined background image on the user interface screen. 従って、画像上に表示されるインターフェースオブジェクトとしてだけでなく、画像自体から生じるように見えるインターフェースオブジェクトとして時刻及び/又は日付を表示するコンテキスト特化ユーザインターフェースを提供し、時刻と日付の視覚的指示をなお提供しながら、ユーザの画像の視野を最大化すること望ましい。 Therefore, not only as an interface object displayed on the image, to provide context specific user interface that displays the time and / or date as interface objects that appear to result from the image itself, a visual indication of time and date while still providing it desirable to maximize the field of view of the user of the image. ユーザインターフェースが小さなサイズのディスプレイに表示される場合、これは特に当てはまる場合がある。 If the user interface is displayed in a small size of the display, this may especially true.

図12に示すように、装置1200は、背景1204を含むユーザインターフェーススクリーン1202を表示している。 As shown in FIG. 12, device 1200 is displaying a user interface screen 1202 that includes a background 1204. 背景1204は、海辺の画像に基づく。 Background 1204 is based on the seaside of the image. いくつかの実施形態では、画像は写真であってもよい。 In some embodiments, the image may be a photograph.

ここで使用される際、技術的にその許容された意味に従って、語句「背景」は、ユーザインターフェーススクリーンに同様に表示されるテキスト及びユーザインターフェースオブジェクから視覚的に区別可能なユーザインターフェーススクリーンの背景を指す。 As used herein, in accordance with technically its allowed meant, the phrase "background" is a visually distinct user interface screen background text and user interface objects are similarly displayed on the user interface screen points. 背景を画像に基づかせることは、表示されるスクリーンの背景として画像を表示することを単に意味する。 Basing the background image, simply means displaying an image as a background screen to be displayed. いくつかの場合、画像と背景は同一であってもよい。 In some cases, the image and the background may be the same. 他の場合、背景として画像を表示することは、画像の1つ以上のアスペクトを修正し、画像サイズ、画像トリミング、画像解像度等、ディスプレイに適合させることを含んでいてもよい。 In other cases, to display an image as a background, to modify one or more aspects of the image, image size, image cropping, image resolution, etc., may include be adapted to the display.

更に、スクリーン1202は、ユーザインターフェースオブジェクト1206と1208を含む。 Furthermore, the screen 1202 includes a user interface object 1206 and 1208. 1206は日付(23日)を指示するが、1208は時刻(10:09)を指示する。 1206 instructs the date (23 days), but the 1208 instructs the time (10:09). いくつかの実施形態では、装置は、現在の日付及び/又は現在の時刻を指示できる。 In some embodiments, the device can indicate the current date and / or current time.

表示される背景1204は、複数の画素を含む。 Background 1204 displayed includes a plurality of pixels. これらの画素のサブセットは、画像に対する外見を修正し、そのサブセットが、ユーザインターフェースオブジェクト1206とユーザインターフェースオブジェクト1208のうちの1つ以上を表現するようにする。 A subset of these pixels, modifies the appearance to the image, a subset is, so as to represent one or more of the user interface object 1206 and the user interface object 1208. つまり、これらのユーザインターフェースオブジェクトの少なくとも1つは、背景を修正することで表示される。 In other words, at least one of these user interface objects are displayed by modifying the background. 例えば、画素のサブセットは、色及び/又は強度を変化させることで修正できる。 For example, a subset of pixels can be modified by changing the color and / or intensity.

いくつかの実施形態では、画素のサブセットは、色混合によって修正できる。 In some embodiments, the subset of pixels can be modified by color mixing. いくつかの実施形態では、画素のサブセットは、色ぼかしによって修正できる。 In some embodiments, the subset of pixels can be modified by the color blur. いくつかの実施形態では、画素のサブセットは、グラジエントを適用することで修正できる。 In some embodiments, the subset of pixels can be modified by applying a gradient. 重要なことは、これらの例は、画素のサブセットの外見が、ユーザインターフェースオブジェクトの位置における背景画像と、ユーザインターフェースオブジェクトそれら自体の両方に影響されることを示す。 Importantly, these examples show that the appearance of a subset of pixels, the background image at the position of the user interface objects, are affected by both of the user interface objects themselves. これによって、ユーザは、ユーザインターフェースオブジェクトの視認性を維持しながら、画像をより明瞭に見ることができる(ユーザインターフェースオブジェクトは、画像上に単に表示されず画像を妨げないので)。 Thereby, the user, while maintaining the visibility of the user interface object, an image can be seen more clearly (user interface objects, simply does not interfere with the image not displayed on the image).

いくつかの実施形態では、ユーザインターフェースオブジェクト1206と1208の一方は、背景を修正することで表示され、他方は、背景に依存せずに表示される(例えば、背景画素のサブセットを修正することで生成されない固定の色及び/又は強度)。 In some embodiments, one of the user interface object 1206 and 1208 are displayed by modifying the background, the other is displayed independently of the background (e.g., to modify the subset of the background pixel color and / or intensity of not generated fixed). これらの実施形態では、装置は、表示されるユーザインターフェースオブジェクト(例えば、1206又は1208)の位置において背景色を表現するデータを受けることもでき、表示されるユーザインターフェースオブジェクトの色は、この背景色と異なっていてもよい(例えば、異なる色及び/又は強度)。 In these embodiments, the device includes a user interface objects displayed (e.g., 1206 or 1208) can also receive data representing the background color at the position of, the color of the user interface objects displayed, the background color It may be different (e.g., different color and / or intensity). 例えば、表示されるユーザインターフェースオブジェクトの位置における背景色は、その位置において最も一般的な色を含んでいてもよい。 For example, the background color at the location of the user interface objects displayed may include the most common color at that position. この機能は、ユーザインターフェースオブジェクトの1つが所定の色である場合、背景色の外見を問わず、それが背景上に明瞭に表示されることを保証する。 This feature, when one of the user interface object is a predetermined color, regardless of the appearance of the background color, it ensures that it is clearly displayed on the background.

いくつかの実施形態では、背景が基づく画像は、装置1200に格納される。 In some embodiments, the background is based image is stored in the device 1200.

他の実施形態では、背景が基づく画像は、外部装置に格納され、外部装置は、無線通信(例えば、Wi−Fi、Bluetooth(商標)、近距離通信(NFC)、又は任意の他のセルラ及び/又は本明細書で説明される他の無線通信技術)を介して、装置1200に結合される。 In other embodiments, the background is based images are stored in the external device, the external device, a wireless communication (e.g., Wi-Fi, Bluetooth (TM), near field communication (NFC), or any other cellular and / or via other wireless communication technology) described herein are coupled to device 1200. これらの実施形態では、スクリーン1202を表示する前に、装置1200は、外部装置から背景を表現するデータを(無線通信を介して)受け取ることができる。 In these embodiments, before displaying the screen 1202, the device 1200 may receive data representing a background from an external device (via wireless communication). これらのデータを用いて、装置1200は、その後、背景を表示できる。 Using these data, device 1200 can then display the background.

オプションとして、画像が外部装置に格納される場合、装置1200は、外部装置の現在の背景に基づいて背景を表示できる。 Optionally, if the image is stored in the external device, the device 1200 may display a background based on the current background of the external device. 例えば、装置は、外部装置から現在の背景を表現するデータを(無線通信を介して)受け取り、外部装置の現在の背景に対応する背景を含むユーザインターフェーススクリーンを表示する。 For example, the device data representing the current background from an external device (via wireless communication) receives and displays the user interface screen comprising a background which corresponds to the current background of the external device. それから、装置は、外部装置からの背景の画素のサブセットを修正し、日付を指示するユーザインターフェースオブジェクトと、時刻を指示するユーザインターフェースオブジェクトのうちの1つ以上を表現する。 Then, the device modifies a subset of the pixels of the background from the external device, to represent the user interface object that instructs the date, one or more of the user interface object to indicate the time. いくつかの実施形態では、装置1200は更に、特に外部装置と装置1200が異なる表示寸法及び/又は解像度を有する場合、例えば、画像サイズ、画像トリミング、画像解像度等のうちの1つ以上を変化させることで、外部装置からの背景を変更できる。 In some embodiments, device 1200 further, especially when having an external device and the device 1200 is different from the display size and / or resolution, for example, image size, image cropping, altering one or more of such image resolution that is, you can change the background from an external device.

図12を参照すると、ユーザは、画像フォルダから画像を選択し、背景として機能させたい場合がある。 Referring to FIG. 12, the user selects an image from the image folder, it may be desired to serve as a background. したがって、装置1200は、2つ以上の画像(例えば、スクリーン1202と1210に示した画像)を含むフォルダにアクセスし、第1の画像を選択し、第1の画像に基づく背景(例えば、背景1204)を含むユーザインターフェーススクリーンを表示できる。 Thus, device 1200 includes two or more images (e.g., image shown in screen 1202 and 1210) to access the folder that contains the, by selecting the first image, the background based on the first image (e.g., the background 1204 ) can display a user interface screen comprising a. 上記のように、この背景は、画像に対して外見的に修正された画素のサブセットを含み、日付を指示するユーザインターフェースオブジェクト(例えば、1206)と、時刻を指示するユーザインターフェースオブジェクト(例えば、1208)を表現する。 As described above, the background includes a subset of pixels apparently modified the image, the user interface object to indicate the date (e.g., 1206), a user interface object for instructing the time (e.g., 1208 ) to express.

オプションとして、図12に示すように、スクリーン1202を表示した後、装置1200は、ユーザ入力を表現するデータを受け取ることができる。 Optionally, as shown in FIG. 12, after displaying the screen 1202, the device 1200 may receive data representing the user input. それに応じて、装置1200は、背景1204を表現するデータを獲得し、第1の画像とは異なる第2の画像をフォルダから選択し、第2の画像に基づく背景1212を含むスクリーン1210を表示する。 Accordingly, apparatus 1200 acquires the data representing the background 1204, select from a folder different from the second image from the first image, and displays a screen 1210 that includes a background 1212 based on the second image . 図12に示すように、背景1204と1212は、それぞれ海辺のシーンと山のシーンという異なる画像に基づく。 As shown in FIG. 12, the background 1204 and 1212, respectively based on the different image of maritime scenes and mountain scene. この機能は、ユーザが表示される背景の変更を決定したとき、装置が、ユーザ入力前に表示された画像に比べて異なる画像を表示することを保証する。 This feature, when determining the change of the background that the user is displayed, apparatus, ensures that displays an image different than the image displayed before the user input.

図12に示すように、スクリーン1210は更に、日付を指示するユーザインターフェースオブジェクト1214と、時刻を指示するユーザインターフェースオブジェクト1216を含む。 As shown in FIG. 12, including the screen 1210 further includes a user interface object 1214 that instructs the date, the user interface object 1216 that instructs the time. これらのユーザインターフェースオブジェクトの少なくとも1つは、上記のように、表示されるユーザインターフェースオブジェクトの位置で、背景1212の画素のサブセットを修正することで表示される。 At least one of these user interface objects, as described above, at the position of the user interface objects displayed are displayed by modifying the subset of pixels of the background 1212. このサブセットは、色混合、ぼかし、グラジエント等、上記のいずれかの方法で修正される。 This subset, color mixing, blur, gradient, etc., are modified by any of the above methods. いくつかの実施形態では、ユーザインターフェースオブジェクトの1つは、背景に依存しない色であってもよく、装置1200は、この色を修正し、上記のように背景に適合させてもよい。 In some embodiments, one of the user interface object may be a color that does not depend on the background, device 1200 modifies the color may be adapted to the background as described above. 背景が基づく画像は、装置1200に格納することも、上記のように、外部装置に格納することもできる。 Background based image, also stored in the device 1200, as described above, can be stored in an external device.

様々なユーザ入力は、背景を変更するためのユーザ入力として機能させてもよい。 Various user input, may function as a user input to change the background. いくつかの実施形態では、ユーザ入力は、ディスプレイ上のタッチ、回転可能入力機構の回転、押下げ及び回転可能入力機構の押下げ、又はディスプレイ上のスワイプであってもよい。 In some embodiments, user input, a touch on the display, the rotation of the rotatable input mechanism, depressing the pressing and a rotatable input mechanism, or a swipe on the display. いくつかの実施形態では、ユーザ入力は、電子装置のユーザ移動(例えば、装置が装着型の場合、ユーザの手首を上げること等の装置の移動、又はユーザがディスプレイを見ていることを示す他の移動)であってもよい。 In some embodiments, other indicating that user input, the user moves the electronic device (e.g., if the device is a wearable, mobile devices, such as raising the wrist of the user, or the user is viewing the display it may be a movement). 好ましくは、この機能によって、装置は、ディスプレイを見る毎に異なる画像を表示でき、見る毎にカスタマイズされた表示をユーザに提供し、装置とのユーザ対話を向上させる。 Preferably, this feature, the device can display a different image for each viewing the display, provides an indication that is customized for each view to a user, to improve the user interaction with the device. 上記のように、装置のユーザ移動は、例えば、加速度計(例えば、534)、ジャイロスコープ(例えば、536)、動きセンサ(例えば、538)、及び/又はそれらの組み合わせを用いることで検出される。 As described above, the user moves the device, for example, an accelerometer (e.g., 534), a gyroscope (e.g., 536), a motion sensor (e.g., 538) is detected by, and / or using a combination thereof .

いくつかの実施形態では、ユーザは、フォルダから画像を除外するように選択し、それがもはや背景として選択されないようにできる。 In some embodiments, the user may select from the folder to exclude images, it can be so no longer selected as the background. これらの例では、装置は、フォルダからの画像のユーザ禁止を表現するデータを受け取ることができる。 In these examples, the device may receive data representing a user prohibited image from the folder. このような禁止は、図12に示したユーザインターフェースを介して受け取ることも、2つ以上の画像を含むフォルダを介して受け取ることもできる(例えば、フォルダは、ユーザが、より多くの画像を選択し、画像をフォルダにドラグし、フォルダから画像を削除し、及び/又は画像を背景として使用することを禁止できる機能を含んでいてもよい)。 Such prohibition may choose to also receive through the user interface shown in FIG. 12, it may also be received via the folder that contains the two or more images (e.g., folder, user, more images and, to drag the image in a folder, delete the image from the folder, and / or image may include the ability to prohibit the use as background). データの受け取りに応じて、装置は、先々のユーザ入力に応じて、背景としての画像の表示を妨げることができる。 In response to receiving the data, the device according to wherever the user input, it is possible to prevent the display of an image as a background.

図13Aは、装置1300で動作できる典型的なコンテキスト特化ユーザインターフェースを示す。 13A shows an exemplary context specialized user interface for operating the apparatus 1300. 装置1300は、いくつかの実施形態では、装置100、300、又は500であってもよい。 Device 1300, in some embodiments, device 100 or 300, or a 500. 電子装置は、タッチ感知ディスプレイ(例えば、タッチスクリーン504)を有する。 The electronic device includes a touch-sensitive display (e.g., touch screen 504).

ユーザは、入力に応じて、電子装置で表示されるアニメーションを見たい場合がある。 The user, in response to an input, which may want to see the animation displayed by the electronic device. ユーザは、一日に何度も電子装置を見る場合があるので、特にユーザが時刻計測のために装置に依存している場合、ディスプレイを見る毎に、異なる経験をユーザに提供することが望ましい。 The user, because it may see many times electronic device a day, especially if the user relies on the device for time measurement, it is desirable to provide for each view the display, different experience to the user . これは、ユーザの電子装置に対する興味及び関与を維持する。 This maintains the interest and involvement with electronic device of the user.

図13Aに示すように、装置1300は、10:09において、ユーザ入力1304の検出に応じて、ユーザインターフェーススクリーン1302を表示する。 As shown in FIG. 13A, device 1300, 10: in 09, in response to detection of the user input 1304, to display the user interface screen 1302. スクリーン1302は、時刻を指示するユーザインターフェースオブジェクト1306、並びに蝶を描写するユーザインターフェースオブジェクト1308を含む。 Screen 1302 includes a user interface object 1308 that describes the user interface object 1306, as well as the butterfly to direct time. スクリーン1302を表示した後、装置1300は、互いに全て異なる3つのアニメーション化シーケンスを連続的に表示することで、蝶1308をアニメーション化する。 After displaying the screen 1302, device 1300, by continuously display all three different animated sequences to one another, to animate the butterfly 1308. 第1のアニメーション化シーケンスは、蝶1308によって示され、羽を開いている蝶を描写する。 First animated sequence is indicated by the butterfly 1308 depicts the butterfly open wings. 次に、スクリーン1310は、第2のアニメーション化シーケンスを表示し、ディスプレイの右から左に飛ぶ蝶1314を描写する。 Then, the screen 1310, the second to display the animated sequence, depicting a butterfly 1314 to fly from the right of the display to the left. なお、スクリーン1310は、時刻を指示するユーザインターフェースオブジェクト1312も表示する。 Note that the screen 1310, the user interface object 1312 that instructs the time is also displayed. 最後に、スクリーン1320は、第3のアニメーション化シーケンスを表示し、羽を閉じている蝶1324を描写する。 Finally, the screen 1320 displays the third animated sequence, depicting a butterfly 1324 closing the wings. スクリーン1320は再び、時刻を指示するユーザインターフェースオブジェクト1322を表示する。 Screen 1320 again displays the user interface object 1322 that instructs the time.

その日の内に、図13Bに示すように、装置1330は、第2のユーザ入力1332を検出する。 On the same day, as shown in FIG. 13B, device 1330 detects a second user input 1332. それに応じて、装置1300は、前に表示したアニメーション化シーケンス(つまり、蝶1314によって示されるシーケンス)を表現するデータにアクセスする。 Accordingly, device 1300 is animated sequence which previously displayed (i.e., the sequence indicated by the butterfly 1314) to access data representing a. 装置1300は、スクリーン1330を表示する。 Apparatus 1300 displays a screen 1330. スクリーン1330は、時刻が今2:09であることを指示するユーザインターフェースオブジェクト1334と、蝶を描写するユーザインターフェースオブジェクト1336を含む。 Screen 1330, the user interface object 1334 indicates that the time is now 2:09, including user interface object 1336 depicting butterflies.

それから、装置1300は、3つのアニメーション化シーケンスを連続的に表示することで、蝶1336をアニメーション化する。 Then, device 1300, by continuously displaying a three animated sequence, animate butterfly 1336. スクリーン1330上の蝶1336は、スクリーン1302上の蝶1308と同じシーケンスを用いてアニメーション化され、羽を開いている蝶を示す。 Butterfly 1336 on the screen 1330, is animated with the same sequence as the butterfly 1308 on the screen 1302, showing the butterfly open wings. 次に、スクリーン1340は蝶1334を示し、ディスプレイ上を左から右に飛ぶようにアニメーション化される。 Then, the screen 1340 indicates a butterfly 1334, is animated to fly to the right across the display from left. 蝶1334のアニメーション化シーケンスは、スクリーン1310上の蝶1314のアニメーション化シーケンスと異なっている(蝶1314のシーケンスを表現するデータは既にアクセスされている)。 Animated sequence butterfly 1334 is different from the animated sequence butterfly 1314 on the screen 1310 (data representing the sequence of butterflies 1314 have already been accessed). これは、ユーザが、最後のユーザ入力と比べて、異なるアニメーションを見ることを保証する。 This is, the user, as compared to the last user input, to ensure that see different animation. この変動は、アニメーション化されるユーザインターフェースオブジェクトによりランダムで生き生きとした品質を与えるので、これは、アニメーションをユーザにとってより写実的で及び/又は興味を引くものにする。 This variation because it provides a quality with vivid random by the user interface object to be animated, which those catching more realistic and and / or interest to the user an animation.

最後に、スクリーン1350は蝶1354を示し、それは、スクリーン1320上の蝶1324と同じシーケンス(羽を閉じている蝶)を用いてアニメーション化される。 Finally, the screen 1350 indicates a butterfly 1354, it is animated using the same sequence as the butterfly 1324 on the screen 1320 (butterfly closed wings). スクリーン1340と1350は更に、時刻を指示するユーザインターフェースオブジェクト1342と1342を表示する。 Screen 1340 and 1350 further displays a user interface object 1342 and 1342 to indicate the time.

図13Aと図13Bは、ユーザ入力に応じて表示される2つの蝶(1336と1308)を示す。 Figure 13A and 13B show two butterflies that are displayed in response to user input (1336 and 1308). 蝶1336は1308に関連しているが、同一である必要はない。 Butterfly 1336 is related to 1308 but need not be identical. いくつかの実施形態では、ユーザインターフェースオブジェクト1336は、ユーザインターフェースオブジェクト1308と同じであってもよい。 In some embodiments, the user interface object 1336 may be the same as the user interface object 1308. 他の実施形態では、ユーザインターフェースオブジェクト1336は、ユーザインターフェースオブジェクト1308に関連しているが、同一ではないオブジェクトであってもよい。 In other embodiments, the user interface object 1336 is related to the user interface object 1308 may be an object that is not the same. 例えば、これらのユーザインターフェースオブジェクトは、一般的な種類は同じであるが、外見が異なる(例えば、異なる色、異なる姿勢、異なる種等の)動物であってもよい。 For example, these user interface objects is common type is the same, the appearance is different (e.g., different colors, different poses, different species, etc.) may be an animal.

アニメーション化されるユーザインターフェースオブジェクトは、蝶又はクラゲ等の動物であっても、花等の植物であってもよい。 User interface object to be animated, even an animal, such as a butterfly or jellyfish, or a plant flowers or the like. いくつかの実施形態では、それは、無生物、単細胞生物、漫画、人間等であってもよい。 In some embodiments, it is inanimate, unicellular organism, cartoon, it may be a human or the like. このコンテキスト特化ユーザインターフェースは、特定のアニメーション化されるユーザインターフェースオブジェクトによっては限定されない。 This context specific user interface is not limited by the user interface object that is specific animated. アニメーション化シーケンスは、表示されるオブジェクトに固有であってもよい。 Animated sequence may be specific to objects displayed. 例えば、クラゲは、スクリーンを横切って様々な方向に泳ぐことができ、花は開いたり、閉じたり風に吹かれたり等してもよい。 For example, jellyfish, across the screen can swim in various directions, the flowers open or may or blowing in the closed or the wind or the like.

蝶1308と蝶1324、又は蝶1336と蝶1354を比較することで示すように、第3のアニメーション化シーケンスは、第1のアニメーション化シーケンスの逆に基づいていてもよい。 Butterfly 1308 and Butterfly 1324, or as shown by comparing the butterfly 1336 and butterflies 1354, third animated sequence may be based on the inverse of the first animated sequence. 例えば、第1のシーケンスが羽を開いている蝶を描写する場合、第3のシーケンスは、羽を閉じている蝶を描写できる。 For example, if the first sequence depicts the butterfly open wings, third sequence can depict butterfly closing the wings. これらのシーケンスは全アニメーション化シーケンスを両側から挟むので、この機能は、全体のシーケンスにまとまった感覚を与える。 Since these sequences sandwiching the whole animated sequence from both sides, this function gives the feeling that together the entire sequence. いくつかの実施形態では、第1のアニメーション化シーケンスの始まりにおけるユーザインターフェースオブジェクトの状態(例えば、蝶1308は羽を閉じており、その後、開くようにアニメーション化される)は、第3のアニメーション化シーケンスの終わりのユーザインターフェースオブジェクトの状態に対応し(例えば、蝶1324は羽を閉じて終わるようにアニメーション化される)、1つのシームレスなアニメーションの印象をユーザに提供する。 In some embodiments, the state of the user interface object at the beginning of the first animated sequence (e.g., butterflies 1308 is closed wings, then animated to open), the third animated It corresponds to the state of the user interface object at the end of the sequence (e.g., butterflies 1324 is animated to end closing the wings) to provide the impression of a single seamless animation to the user.

様々なユーザ入力が、図13に例示されるスクリーンを表示するためのユーザ入力として機能できる。 Various user input, can function as a user input to display the screen illustrated in FIG. 13. いくつかの実施形態では、ユーザ入力は、ディスプレイ上のタッチ、回転可能入力機構の回転、押下げ及び回転可能入力機構の押下げ、又はディスプレイ上のスワイプであってもよい。 In some embodiments, user input, a touch on the display, the rotation of the rotatable input mechanism, depressing the pressing and a rotatable input mechanism, or a swipe on the display. いくつかの実施形態では、ユーザ入力は、電子装置のユーザ移動(例えば、装置が装着型の場合、ユーザが手首を上げること等の装置の移動、又はユーザがディスプレイを見ていることを示す他の移動)であってもよい。 In some embodiments, other indicating that user input, the user moves the electronic device (e.g., if the device is a wearable, mobile devices, such as the user raises the wrist, or the user is viewing the display it may be a movement). 好ましくは、この機能によって、装置は、ディスプレイが見られる毎に、異なるアニメーションを見かけ上は表示できる。 Preferably, this feature, the device each time the display is viewed, can be displayed apparently different animations.

いくつかの実施形態では、ユーザ入力に応じて表示されるユーザインターフェースオブジェクトは、各入力後に同じであってもよい。 In some embodiments, the user interface object that is displayed in response to user input, may be the same after each input. いくつかの実施形態では、ユーザインターフェースオブジェクトは、毎回異なっていてもよい。 In some embodiments, the user interface object may be different every time. 例えば、ユーザインターフェースオブジェクトを反射(例えば、水平及び/又は垂直軸の周りで)、反転及び/又は回転させ、新しいユーザインターフェースオブジェクトを生成できる。 For example, reflecting a user interface object (e.g., about a horizontal and / or vertical axis), inverted and / or rotated, can generate a new user interface objects. これは、表示されるユーザインターフェースオブジェクト及びアニメーション化シーケンスの多様性の情報源となる。 This is a diversity of information sources of the user interface objects and animated sequences to be displayed. 例えば、単一のオブジェクトを水平方向に、垂直方向に、並びに水平及び垂直に回転させることで、4つの新しいオブジェクトを生成し、オブジェクトの移動を導くアニメーションと結合させると、更に多くの変化を生成する。 For example, in a horizontal direction a single object, the vertical direction, and is rotated horizontally and vertically, to produce four new objects, generated when the combined animation for guiding the movement of the object, the more change to. これらのアスペクトは、組み合わせの可能性を加え、単一のオブジェクトで利用可能なアニメーションの数を著しく増やし、事前にプログラムされるアニメーション化シーケンスの数を低減する。 These aspects are the possibility of combination added to increase significantly the number of animation available in a single object, reducing the number of animated sequences to be programmed in advance. それは更に、クラゲ等、本来の形状及び/又は移動がより少ないオブジェクトのアニメーション化に役立つ。 It further jellyfish, etc., serve to animate the original shape and / or movement fewer objects.

ユーザは、表示されるユーザインターフェースオブジェクトを変更することもできる。 The user can also change the user interface objects displayed. 例えば、装置1300は、タッチ感知ディスプレイ上のコンタクトを検出し、それに応じて、装置1300は、表示されるユーザインターフェースオブジェクトを第2のユーザインターフェースオブジェクトに置換できる。 For example, apparatus 1300 may detect a contact on the touch-sensitive display, accordingly, the device 1300 may replace the user interface objects to be displayed on the second user interface object. この第2のユーザインターフェースオブジェクトは、第1のものと関連していてもよい(例えば、ユーザは、前のものが青かった場合、オレンジ色の蝶を選択できる)。 The second user interface object may be associated with the first one (for example, a user, when the previous ones was blue, can be selected orange butterfly).

いくつかの実施形態では、図13Aと図13Bに示すように、時刻を指示するユーザインターフェースオブジェクトは、時間と分の数値指示を備えるデジタルクロックの表現であってもよい(例えば、オブジェクト1306、1312、1322、1334、1342、及び1352参照)。 In some embodiments, as shown in FIGS. 13A and 13B, the user interface object for instructing the time, may be a representation of a digital clock with a numerical indication of hours and minutes (e.g., objects 1306,1312 , 1322,1334,1342, and see 1352). いくつかの実施形態では、ユーザインターフェースオブジェクトは、ユーザ入力に応じて現在の時刻を表示できる。 In some embodiments, the user interface objects may display the current time in response to user input.

図14Aは、装置1400で動作できる典型的なコンテキスト特化ユーザインターフェースを示す。 14A shows an exemplary context specialized user interface for operating the apparatus 1400. 装置1400は、いくつかの実施形態では、装置100、300、又は500であってもよい。 Device 1400, in some embodiments, device 100 or 300, or a 500. 電子装置は、タッチ感知ディスプレイ(例えば、タッチスクリーン504)を有する。 The electronic device includes a touch-sensitive display (e.g., touch screen 504).

ユーザは、インタラクティブ時計文字盤で時刻を管理したい場合がある。 The user may want to manage the time in an interactive clock face. 例えば、ユーザは、装置とのインタラクションに興味を持ち続けるために、ディスプレイを見る毎にアニメーションを見たい場合や、色を変える時計文字盤を見たい場合がある。 For example, the user, in order to continue to have an interest in interaction with the device, there is a case you want to see and if you want to see the animation for each view the display, the watch dial to change the color. ユーザは、モノグラム等の個別のコンプリケーション、又はアプリケーションデータを表示する個別のウィジェットを備えるように、時計文字盤をカスタマイズしたい可能性がある。 The user, to comprise individual widget that displays individual complications monogram or the like, or application data, may wish to customize the clock face.

図14Aに示すように、装置1400は、オフにしたディスプレイ1402を有する。 As shown in FIG. 14A, device 1400 includes a display 1402 off. 装置1400のユーザ移動(例えば、動き1404)の検出に応じて、装置1400は、時計文字盤のアニメーション化明示部を表示する。 User movement of the device 1400 (e.g., motion 1404) in response to detection of device 1400 displays the animated explicit part of the clock face. スクリーン1410では、装置1400は、時計文字盤外周1412を表示し、時計回りに塗りつぶし又は描写されるようにアニメーション化される。 In screen 1410, the device 1400 displays a clock face the outer circumference 1412 is animated as filling or depicted in a clockwise direction. スクリーン1420では、装置1400は、完全な時計文字盤外周1422と時針と分針1424を表示する。 In screen 1420, device 1400, to display the full clock face the outer periphery 1422 and the hour hand and minute hand 1424. スクリーン1430では、装置1400は、完全な時計文字盤外周1432、時針と分針1434、及び時刻指示1436と1438(12時及び1時の時間をそれぞれ指示する)を表示する。 In screen 1430, device 1400, the complete clock face periphery 1432, hour and minute hands 1434, and time indication 1436 and 1438 (to indicate 12 o'clock and 1 o'clock time respectively) Show. これらの時間指示は、スクリーン1430と1440を比較することで示されるように、時計回りに次第に表示される。 These time indication, as shown by comparing the screen 1430 and 1440 are gradually displayed clockwise.

スクリーン1440では、装置1400は、時計文字盤外周1442、時針と分針1444、及び12時の指示1446で表されるように、12時間の指示を表示する。 In screen 1440, device 1400, a clock face the outer periphery 1442, as represented by the hour and minute hands 1444, and 12 instructions o'clock 1446, displays an instruction of 12 hours. スクリーン1450では、装置1400は、時計文字盤外周1452、時針と分針1454、12時間の指示(12時の指示1456で表されるように)、分の指示1458、及び以降で更に詳しく説明するモノグラム1460を表示する。 In screen 1450, device 1400, a clock face the outer periphery 1452, (as represented by 12 instructions o'clock 1456) instructs the hour and minute hands 1454,12 hours, described in more detail minute instruction 1458, and later monogram 1460 to display. したがって、図14に例示されるように、時計文字盤は、その形状を次第に明示するようにアニメーション化される。 Therefore, as illustrated in Figure 14, a clock face is animated to clearly show the shape gradually.

図14Aには、数値時間指示(例えば、時間指示1436、1446、及び1456で示されるように、3、6、9、及び12)と、シンボル時間指示(例えば、スクリーン1440と1450の数値指示の間の表示される目盛)の二種類の時間指示が描写される。 FIG 14A, the numerical time indication (e.g., as indicated by the time indication 1436,1446, and 1456, 3, 6, 9 and 12) and the symbol time indication (e.g., a screen 1440 and 1450 numeric indication of the two kinds of time indication of the scale) to be displayed between is depicted. どちらの種類の指示も、単独で又は組み合わせて使用できる。 Both types of instructions may be used alone or in combination. いずれの種類のシンボルも時間指示として使用されるが、シンボルそれ自体ではなく、時計文字盤の周りの位置が、どの時間を指示しているかをユーザに伝える。 Are used as any type of symbol and time indication, rather than the symbol itself, the position around the clock face is, tell instructs any time to the user. 時間指示及び/又は分の指示の数字(又はその欠如)は更に、ユーザによってカスタマイズされるが、それは以降で更に詳しく説明する。 Time indication and / or numbers of minute indication (or lack thereof) will be further customized by the user, it will be described in more detail later.

図14Aは、1つ以上の時間指示が、時計回りに次第に表示されることを示す(例えば、スクリーン1430と1440に描写されるように、時計回りの方向に連続的に出現できる)。 Figure 14A is one or more time indication indicates that it is gradually displayed clockwise (e.g., as depicted in the screen 1430 and 1440, can be continuously appeared in a clockwise direction). 同様に、時計の外周も、オプションとして時計回りの方向に出現できる。 Similarly, the outer periphery of the timepiece can also appear in a clockwise direction as options. これは、ユーザの向きを定めることに役立つ。 This helps to define the user's orientation. オプションとして、分の指示は、時計回りに次第に出現できる。 As an option, the minute indication may gradually appear in a clockwise direction. 時針と分針(及びオプションとして、秒針)は、放射状等に同様にアニメーション化できる(例えば、時計文字盤の中心から始まり、外周に向かって外向きに延びるように出現する)。 (And as optional, second hand) hour and minute hands can be similarly animate radially etc. (e.g., beginning from the center of the clock face, appear to extend outwardly toward the outer periphery). いくつかの実施形態では、時針と分針は、まず時間指示、その後、分の指示に続いて出現できる。 In some embodiments, the hour hand and minute hand, first time indication, then, can appear following the minute indication. いくつかの実施形態では、時計文字盤は、現在時刻を示す。 In some embodiments, the watch dial, indicating the current time.

いくつかの実施形態では、時計文字盤は、色を含んでいてもよい。 In some embodiments, clock face may comprise a color. 時計文字盤の背景、時計文字盤の外周、秒針、時間指示、分の指示、時針、分針等の機能は、任意の色で表示される。 Clock face background, the outer circumference of the clock face, hand, time indication, the minute indication, hour hand, the function of the minute hand or the like is displayed in any color. いくつかの実施形態では、装置1400は、色を連続的に変化させることで、時間的に時計文字盤に表示される色を更新し、ユーザは、色変化によって時間経過を認識する。 In some embodiments, device 1400, by continuously changing the color, and updates the color displayed in time clock face, the user recognizes the elapsed time by a color change. この色は、例えば、背景色、時計文字盤自体の色、及び/又は秒針の色(例えば、秒針全体、又はポインタ、ドット、又は他のオプションの機能等の秒針の一部)であってもよい。 This color, for example, the background color, the color of the clock face itself, and / or second hand color (e.g., a whole hand or pointer, dots or other features such as the second hand part of the options) even good. 一例として、色は、色のグラジエントを繰り返してもよく、全サイクルは、1分、1時間、1日等続く。 As an example, the color may be repeated color gradients, total cycles, 1 minute, 1 hour, followed by such a day.

いくつかの実施形態では、装置1400は、装置のユーザ移動を検出できる。 In some embodiments, device 1400 may detect the user mobile device. 上記のように、装置のユーザ移動は、例えば、加速度計(例えば、534)、ジャイロスコープ(例えば、536)、動きセンサ(例えば、538)、及び/又はそれらの組み合わせを用いることで検出される。 As described above, the user moves the device, for example, an accelerometer (e.g., 534), a gyroscope (e.g., 536), a motion sensor (e.g., 538) is detected by, and / or using a combination thereof . 電子装置のユーザ移動は、装置が装着型の場合、ユーザが手首を上げること等の装置の移動、又はユーザがディスプレイを見ていることを示す他の移動を含むことができる。 User movement of the electronic device, if the device is a wearable, can be moved in the device such that the user raises the wrist, or the user include other mobile indicating that viewing the display. ユーザ移動の検出に応じて、装置1400は、異なる色(例えば、背景色、時計文字盤自体の色、及び/又は秒針の色)を表示できる。 In response to detecting the user moving, device 1400 may display different colors (e.g., background color, the clock face itself color, and / or second hand color). いくつかの実施形態では、この機能を用いて、ユーザは、時計文字盤に表示される静的な色を変化させることができる。 In some embodiments, using this feature, the user can change the static color displayed on the clock face. 他の実施形態では、この機能を用いて、ユーザは、上で例示すように、連続的に変化する色を変化させることができる。 In another embodiment, by using this feature, the user, as shown examples above, can be changed continuously varying color.

いくつかの実施形態では、装置1400は、時計文字盤に(例えば、時計文字盤自体内に、又はディスプレイ上の時計文字盤に隣接して)コンプリケーションを表示できる。 In some embodiments, device 1400, the clock face (e.g., the clock face in itself, or adjacent to the clock face on the display) can display complications. 本明細書で用いる際、その技術的に許容される意味に従って、コンプリケーションは、ある時刻の時間及び分を指示するために用いられるもの(例えば、時計の針又は時間/分の指示)ではなく、任意の時計文字盤の機能を指す。 When used herein, in accordance with the meaning which is the technically acceptable, complications are those used to indicate the hours and minutes of a certain time (e.g., a needle or time / minute instruction clock) instead refers to the function of any of the watch dial. 例えば、アフォーダンスが、時計文字盤として表示される。 For example, affordance is displayed as a clock face. 以降で更に詳しく説明するように、アフォーダンスはアプリケーションを表現することもでき、アフォーダンス上のコンタクトの検出に応じて、装置1400は、そのアフォーダンスによって表されるアプリケーションを起動することもできる。 As will be described in more detail below, Affordances also possible to express applications in response to the detection of the contact of the Affordance, device 1400 may also launch the application represented by that Affordance.

ここで図14Aを参照すると、いくつかの実施形態では、モノグラムがコンプリケーションとして表示される。 Referring to Figure 14A, where in some embodiments, monogram is displayed as complications. スクリーン1450は、時計文字盤コンプリケーションとして表示されるモノグラムアフォーダンス1460を示す。 Screen 1450, shows the monogram affordance 1460 that is displayed as a clock face complications. 装置1400は、名前を表現するデータを受け取り、そのデータの受け取りに応じて、モノグラムを生成し、アフォーダンス1460としてモノグラムを表示できる(この例では、「MJ」)。 Apparatus 1400 receives the data representing the name, in response to receiving the data, generates a monogram, can display monogram as Affordance 1460 (in this example, "MJ"). 装置1400は、保存されたコンタクトエントリ、Vカード、モノグラムを含む画像(例えば、ユーザによって撮影又はアップロードされた画像)等の、1つ以上の情報源からこのデータを受け取ることができる。 Apparatus 1400 includes stored contact entry, V card, image including the monogram (e.g., images taken or uploaded by the user), such as, can receive the data from one or more sources. いくつかの実施形態では、装置1400は、モノグラム編集用のユーザインターフェースを有し、それは、図14で説明したユーザインターフェースの機能、装置1400上の別個のユーザインターフェース、又は装置1400と無線通信中の外部装置上のユーザインターフェースであってもよい。 In some embodiments, device 1400 includes a user interface for Monogram editing, it is the function of the user interface described in FIG. 14, a separate user interface on the device 1400, or devices 1400 and in wireless communication it may be a user interface on the external device. 当然のことながら、これらのアスペクト(例えば、コンプリケーション、モノグラム、及び/又は色)は、本明細書で説明される他のコンテキスト特化ユーザインターフェースのいずれに適用してもよい。 Of course, these aspects (e.g., complications, monograms, and / or color) may be applied to any other context specific user interface described herein. これらの機能は、ユーザが1つ以上の時計文字盤を個別化するために含めたい場合があるカスタマイズ可能な要素を提供し、ユーザのインタラクタビリティを改善することでユーザインターフェースを向上させる。 These features provide a customizable elements that may want to include in order to separate the one or more clock face user, to improve the user interface by improving interactor capability of the user.

図14Bは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン14602を示す。 Figure 14B, apparatus 14000 shows an exemplary user interface screen 14602 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 電子装置は、タッチ感知ディスプレイ(例えば、タッチスクリーン504)を有する。 The electronic device includes a touch-sensitive display (e.g., touch screen 504).

ユーザは、電子装置に依存して、その日を通して時刻を管理する。 The user, depending on the electronic device, manages time throughout the day. パーソナル電子装置とのユーザ対話を促進するインタラクティブなユーザインターフェースをユーザに提供することが、ますます望ましくなっている。 Providing an interactive user interface to facilitate the user interaction with the personal electronic device users has become increasingly desirable. キャラクタベースのユーザインターフェースによって時刻を指示することで、装置とのユーザ対話を改善できる。 By instructing the time by the character-based user interface, it can improve the user interaction with the device. キャラクタのインタラクティビティのレベルを増大し、キャラクタによって表示される自然な動きの印象を向上させることで、キャラクタの生き生きとした外見を向上させ、装置とのユーザ対話を改善し、引き延ばす。 Increase the level of interactivity character, by improving the impression of natural motion to be displayed by a character, improve vivid appearance of the character, and improve the user interaction with the device, stretching. キャラクタベースのインターフェースで、時刻を管理するだけでなく、他のイベントに関連した情報を提供できることで、より生き生きとしたキャラクタベースのユーザインターフェースを伝えることで、装置とのユーザ対話を改善する。 A character-based interface, not only manages the time, it can provide information related to other events, by transmitting more vivid character-based user interface, to improve the user interaction with the device.

従って、本明細書では、キャラクタユーザインターフェースオブジェクトを含むコンテキスト特化ユーザインターフェースが提供される。 Accordingly, in the present specification, context specific user interface including a character user interface object is provided. ユーザは、このようなキャラクタベースのユーザインターフェースオブジェクトに、より自然で生き生きとした外見を取り入れたい場合がある。 The user, in such a character-based user interface object, there is a case where wished lively appearance more natural. 更に、ユーザは、キャラクタベースのユーザインターフェースオブジェクトが、よりダイナミックに動作し、ユーザとやり取りし、イベント関連情報をユーザに提供して欲しい場合がある。 Furthermore, the user, a character-based user interface object, operates more dynamic, interacts with the user and may want to provide event-related information to a user.

装置14000は、キャラクタユーザインターフェースオブジェクト14604等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 14604 on the display. キャラクタユーザインターフェースオブジェクト14604は、肢体部14606と14608の表現を有する。 Character user interface object 14604 has a representation of the limb portions 14606 and 14608. ユーザインターフェーススクリーン14602に示すように、キャラクタユーザインターフェースオブジェクト14604は、肢体部14606と14608の位置によって、例えば、7:50等の時刻を指示できる。 As shown in the user interface screen 14602, the character user interface object 14604 is the position of the limb portions 14606 and 14608, for example, 7: it can instruct the time of 50, and the like.

キャラクタユーザインターフェースオブジェクトは、例えば、人間又は擬人化されたキャラクタ等の、キャラクタの任意の表現を含んでいてもよい。 Character user interface objects, for example, such as human or anthropomorphic character, it may include any representation of the character. いくつかの実施形態では、キャラクタは、漫画キャラクタであってもよい。 In some embodiments, the character may be a cartoon character. いくつかの実施形態では、キャラクタは写実的な人物であってもよい。 In some embodiments, the character may be a realistic person. いくつかの実施形態では、キャラクタは、人間、動物、植物、他の生物、又は他のオブジェクトであってもよい。 In some embodiments, the character, human, animal, plant, or may be other organisms or other objects. いくつかの実施形態では、キャラクタは、漫画キャラクタ等の一般的なキャラクタであってもよい。 In some embodiments, the character may be a general character such as cartoon characters.

キャラクタユーザインターフェースオブジェクト14604は、第1の肢体部(例えば、肢体部14606)で時間を指示し、第2の肢体部(例えば、肢体部14608)で分を指示することで、時刻を指示できる。 Character user interface object 14604, the first limb portion (e.g., limb unit 14606) indicates the time, the second limb portion (e.g., limb portion 14608) by instructing minute, can indicate the time. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトは、異なる時刻に更新可能な静止画であってもよい。 In some embodiments, a character user interface object may be a still image can be updated at different times. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトは、アニメーション化され、移動を描写できる。 In some embodiments, a character user interface object is animated, can depict movement. 例えば、キャラクタユーザインターフェースオブジェクトは、アニメーション化され、瞬き、体重移動、及び/又は表情の変化(例えば、顔の表情)を表現することができる。 For example, a character user interface object is animated, it can be expressed blink, weight shift, and / or expression of the change (e.g., facial expressions).

本明細書で説明されるように、キャラクタユーザインターフェースオブジェクトは、精度を変えることによって時刻を指示できる。 As described herein, a character user interface object can be instructed time by changing the accuracy. 図14Bに示すように、ユーザインターフェーススクリーンは、時刻値の1つ以上の数値指示、つまり、時計文字盤に時間、分、又は秒の値を指示する数字を含んでいてもよい。 As shown in FIG. 14B, the user interface screen, one or more numeric indication of the time value, that is, time clock face, minute, or the value may include numbers indicating the seconds. しかし、ユーザは時計文字盤を認識することに慣れているので、時刻値の数値指示はオプションであるが、それは、時計の針に似ている2つのオブジェクトの相対的な位置が、このような数値指示がなくてもおおよその時刻を指示できるためである。 However, since the user is accustomed to recognizing clock face, but numerical indication of the time value is optional, it is the relative position of two objects that are similar to clock hands are, like this even if there is no numerical indication is because it can indicate the approximate time.

本明細書で説明されるユーザインターフェーススクリーンの任意のものは、日付の指示、ストップウォッチ、クロノグラフ、アラーム等の、1つ以上のコンプリケーションを含んでいてもよい。 Any of the user interface screens described herein, instruction date, stopwatch, chronograph, etc. Alarms may include one or more complications.

更に、キャラクタユーザインターフェースオブジェクトの肢体部は、様々な方法でユーザに時刻を指示できる。 Furthermore, limb portion of the character user interface object may instruct the time to the user in a variety of ways. 例えば、肢体部(腕部又は脚部等)は、ディスプレイ上のその相対的な位置によって、又はベクトルに沿ったディスプレイ上の位置を「指し示すこと」によって時刻を指示できる。 For example, limb portions (arms or legs, etc.) by its relative position on the display, or the position on the display along the vector can be instructed time by "to point". 肢体部は、指部の表現等の、方向指示器を表示することで時刻を指示することもでき、指部は、その相対的な位置によって、又は上記のように、ベクトルに沿って指し示すことで、時刻に対応するディスプレイ上の位置を指示する。 Limb portion, of the expression or the like of the fingers, can instruct the time by displaying direction indicator, the finger part, by its relative position, or as mentioned above, that point along a vector in, indicating the position on the display corresponding to the time. 肢体部は、時刻指示において正確である必要はない。 Limb portion need not be accurate in the time indication.

装置14000は、キャラクタユーザインターフェースオブジェクトを更新し、第1の及び第2の肢体部の役割を反転させることで、つまり、第2の肢体部で第2の時間を指示し、第1の肢体部で第2の分を指示することで、第2の時刻を指示してもよい。 Device 14000 updates the character user interface object, by inverting the roles of the first and second limb portions, i.e., the second limb portion instructs the second time, the first limb portion in that instructs the second minute, it may instruct the second time. 例えば、図14Bは、装置14000が表示できるユーザインターフェーススクリーン14610を示す。 For example, Figure 14B illustrates a user interface screen 14610 which device 14000 can display. ユーザインターフェーススクリーン14610は、キャラクタユーザインターフェースオブジェクト14612を含む。 The user interface screen 14610 includes a character user interface object 14612. キャラクタユーザインターフェースオブジェクト14612は、キャラクタユーザインターフェースオブジェクト14604と同じキャラクタユーザインターフェースオブジェクトであってもよいが、異なる時刻を表現する。 Character user interface object 14612 may be the same character user interface object and a character user interface object 14604, but represent different times.

ユーザインターフェーススクリーン14610に示すように、キャラクタユーザインターフェースオブジェクト14612は、肢体部14614と14616の位置によって、例えば、8:20等の時刻を指示している。 As shown in the user interface screen 14610, the character user interface object 14612 is the position of the limb portions 14614 and 14616, for example, 8: it instructs the 20 like time. キャラクタユーザインターフェースオブジェクト14604と14612を比較すると、両方が第1の肢体部(それぞれ肢体部14606と肢体部14614)及び第2の肢体部(肢体部14608と14616)を有する。 With a comparison of the character user interface object 14604 and 14612, both first limb portion (each limb portion 14606 and the limb portion 14 614) and a second limb portion (limb portion 14608 and 14616). しかし、キャラクタユーザインターフェースオブジェクト14604の第1の肢体部(肢体部14606)は、時間を指示し、キャラクタユーザインターフェースオブジェクト14612の第1の肢体部(肢体部14614)は分を指示している。 However, the first limb portion of the character user interface object 14604 (limb portion 14606) instructs the time, the first limb portion of the character user interface object 14612 (limb portion 14614) is indicated minute. 同様に、キャラクタユーザインターフェースオブジェクト14604の第2の肢体部(肢体部14608)は分を指示し、キャラクタユーザインターフェースオブジェクト14612の第2の肢体部(肢体部14616)は時間を指示している。 Similarly, a second limb portion of the character user interface object 14604 (limb portion 14608) instructs the minute, the second limb portion of the character user interface object 14612 (limb portion 14616) are indicated time.

いくつかの実施形態では、装置14000は、ユーザインターフェースオブジェクトを更新し、第1の肢体部を伸ばし、第2の肢体部を引っ込めることで、第2の時刻を表示できる。 In some embodiments, device 14000 updates the user interface object, extending the first limb portion, by retracting the second limb portion, it can display a second time. ユーザは、時針が分針より短い標準的な時計文字盤に慣れている場合があるので、それらの役割が逆になるとき、肢体部の拡大/収縮を変えることで、ユーザが指示された時刻をより簡単に追跡できるようにする。 The user, because it may hour hand is accustomed to short standard clock face than the minute hand, when those roles are reversed, by changing the expansion / contraction of the limbs unit, a time at which the user is instructed to more easily tracked.

キャラクタユーザインターフェースオブジェクトが、逆の役割を備える四肢を用いて時刻を指示可能にすることは、キャラクタが、常に自然な外見を維持できるようにすることによって、キャラクタユーザインターフェースオブジェクトを表示するフレキシビリティを向上させる。 Character user interface objects, allowing direct the time by using the limb with an opposite role, by the character, always to be able to maintain a natural appearance, the flexibility of displaying character user interface object Improve. 若しくは、四肢の役割が固定されると、キャラクタは、所定の時刻、例えば、12:30及び12:40の間で不格好なようにねじ曲げられる可能性がある。 Or, when the role of the extremities are fixed, the character, a predetermined time, for example, 12: there are 30 and likely to be twisted as misshapen between 12:40. キャラクタが肢体部の役割を切り替えできるようにすることで、キャラクタの姿勢及び位置により多くのオプションを与え、より自然な外見を表現することができ、それによって、より生き生きとしたキャラクタユーザインターフェースオブジェクトを描写することで、装置とのユーザ対話を改善する。 By character to be able to switch the roles of the limb portion, giving many options by the posture and position of the character, it is possible to express a more natural appearance, thereby more lively character user interface object by depiction, to improve the user interaction with the device.

ここで、図14Cを参照すると、ユーザは、より自然に現れるキャラクタユーザインターフェースオブジェクトとやり取りしたいと考える場合がある。 Referring now to FIG. 14C, the user may wish to interact with the character user interface objects that appear more natural. キャラクタユーザインターフェースオブジェクトが、固定された位置又は役割から常に移動している肢体部を用いて時刻を指示する場合、キャラクタの動き及び/又は姿勢の範囲が制限されるため、これはキャラクタの自然な外見を損なう。 Character user interface objects, to instruct the time by using a limb portion which is constantly moved from a fixed position or role, since the range of movement of the character and / or attitude is limited, this is a natural character detract from the appearance. これは、不格好な姿勢及び/又は単調なキャラクタの外見をもたらす可能性がある。 This may result in the appearance of misshapen posture and / or monotonous character. 肢体部は、軸の周りの回転の表現ではなく、四肢の両端からの自由な移動を表現するアニメーションによって時刻を指示でき、それによって、一方の終点は常に固定され、キャラクタユーザインターフェースオブジェクトが異なる時刻により自然に現れるようにする。 Limb portion is not a representation of the rotation about the axis, the time can tell the by animation representing the free movement of the ends of the limb, whereby one of the end point is always fixed, the time the character user interface object is different to appear naturally by.

当然のことながら、本明細書で用いられる機械的な動き(例えば、肢体部の動き)は、機械的な動きの表現又はシミュレーションを表示することを含む。 Of course, mechanical movement as used herein (e.g., movement of the limb portion) includes displaying a representation or simulation of the mechanical movement.

図14Cは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン14702を示す。 Figure 14C, the device 14000 is shown an exemplary user interface screen 14702 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of.

装置14000は、キャラクタユーザインターフェースオブジェクト14704等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 14704 on the display. キャラクタユーザインターフェースオブジェクト14704は、肢体部14706の表現を有する。 Character user interface object 14704 has a representation of the limb portion 14706. ユーザインターフェーススクリーン14702に示すように、キャラクタユーザインターフェースオブジェクト14704は、肢体部14706の位置によって時刻、例えば、12等の時間を指示できる。 As shown in the user interface screen 14702, the character user interface object 14704, the time by the position of the limb portion 14706, for example, instructions to 12 equal time. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトは、異なる時刻に更新可能な静止画であってもよい。 In some embodiments, a character user interface object may be a still image can be updated at different times. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトは、アニメーション化され、動きを描写できる。 In some embodiments, a character user interface object is animated, can depict motion.

肢体部14706は、第1の位置に第1の終点14708を有し、それは、肢体部14706の回転軸の表現として機能する。 Limb portion 14706 is in the first position has a first end point 14 708, which serves as a representation of the rotation axis of the limb portion 14706. つまり、肢体部14706の位置は、終点14708の周りでの回転を表現するように表示又はアニメーション化され、異なる時刻を表示できる。 That is, the position of the limb portion 14706 is displayed or animated to represent rotation around endpoint 14708, can display different times. 肢体部14706は更に、第2の位置に第2の終点14710を有し、それは、時刻値を指示する。 Limb unit 14706 further includes a second end point 14710 to the second position, it indicates the time value. いくつかの実施形態では、時刻値は、時間、分、及び/又は秒であってもよい。 In some embodiments, time values, hours, minutes, and / or a second.

装置14000は、第2の時刻値を指示するために、第1の終点14708を第3の位置に移動し、第2の終点14710を第4の位置に移動することで、キャラクタユーザインターフェースオブジェクト14704を更新して第2の時刻値を指示できる。 Apparatus 14000, in order to instruct the second time value, the first end point 14 708 moves to the third position, by moving the second end point 14710 to the fourth position, the character user interface object 14704 You can instruct the second time value to update. 重要なことは、第1の終点14708は、肢体部14706の回転軸として機能するが、第1の終点14708自体も時刻を指示するために移動できる。 Importantly, the first endpoint 14708 is functioning as a rotation axis of the limb portion 14706 can move to indicate the first endpoint 14708 itself time. 従って、その位置決めにより多くの柔軟性が与えられるので、肢体部14706は、より自然な姿勢を取り入れることができる。 Therefore, since more flexibility positioning thereof is given, limb portion 14706 can incorporate more natural posture. これによって、キャラクタの生き生きとした外見を改善できる。 This can improve the vivid appearance of the character.

一例として、ユーザインターフェーススクリーン14720は、第1の終点14726と第2の終点14728を有する肢体部14724を備えるキャラクタユーザインターフェースオブジェクト14722を示す。 As an example, the user interface screen 14720 shows a character user interface object 14722 with a limb portion 14724 having a first end point 14726 of the second endpoint 14,728. キャラクタユーザインターフェースオブジェクト14722は、キャラクタユーザインターフェースオブジェクト14704の更新された表示であってもよい。 Character user interface object 14722 may be a display that is updated character user interface object 14704. ユーザインターフェーススクリーン14702と14720を比較すると、特に肢体部14706と肢体部14724では、第1の終点14708と14726の位置によって反映されるように、第1の終点の位置が更新される。 Comparing the user interface screen 14702 and 14720, in particular limb portion 14706 and the limb portion 14724, as reflected by the position of the first end point 14708 and 14726, the position of the first end point is updated. 第1の終点14726は第3の位置にあり、第2の終点14728は第4の位置にあり、第2の時刻を指示する。 The first endpoint 14726 is in the third position, the second end point 14728 is in the fourth position, and instructs the second time. ユーザインターフェーススクリーン14702と14720に示すように、肢体部14706は、(i)第1の終点の位置を移動させ、(ii)回転軸において肢体部を回転させることで、肢体部14724に更新される。 As shown in the user interface screen 14702 and 14720, limb section 14706 is updated (i) moving the position of the first end point, by rotating the limb portion (ii) in the rotation axis, the limb portion 14724 .

いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトは、第2の肢体部14712等の、第2の肢体部の表現を含んでいてもよい。 In some embodiments, a character user interface objects, such as the second limb portion 14712 may include a representation of the second limb portion. 第1の肢体部のように、第2の肢体部14712も、第2の肢体部14712の回転軸である第1の終点14714と、第2の終点14716を有する。 As in the first limb portion, a second limb section 14712 also has a first end point 14714 is a rotation axis of the second limb portion 14712, a second endpoint 14,716. 第2の終点14716の位置は、第3の時刻値を指示できる。 Position of the second end point 14716 can instruct the third time value. 例えば、肢体部14706は時間値を指示することもでき、肢体部14712は分の値を指示できる。 For example, limb unit 14706 may also indicate the time value, limb portion 14712 can instruct the minute value. 装置14000は、キャラクタユーザインターフェースオブジェクト14704を更新し、第2の時刻値を指示するために、第2の肢体部14712の第1の終点14714を第3の位置に移動させ、第2の終点14716を第4の位置に移動させることで、第4の時刻値を指示できる。 Device 14000 updates the character user interface object 14704, in order to instruct the second time value, to move the first end point 14714 of the second limb portion 14712 in the third position, the second end point 14716 the is moved in the fourth position, it instructs the fourth time value. これは、ユーザインターフェーススクリーン14720に描写されており、第3の位置に第1の終点14732、第4の位置に第2の終点14734を備える第2の肢体部14730を描写する。 This is depicted in the user interface screen 14720, the first end point 14732 to the third position, depicting a second limb portion 14730 having a second end point 14734 to the fourth position.

上記のように、キャラクタユーザインターフェースオブジェクトの第1の及び第2の肢体部は、それらの位置をそれぞれ変更可能な2つの終点をそれぞれ有していてもよい。 As described above, the first and second limb portions of the character user interface objects those two endpoints capable of changing each position may have respectively. いくつかの実施形態では、第1の肢体部は、第1の肩部で胴体に接続され、第2の肢体部は第2の肩部で胴体に接続される。 In some embodiments, the first limb portion is connected to the body at a first shoulder, the second limb portions are connected to the fuselage in the second shoulder. いくつかの実施形態では、胴体は、各肩部によって各肢体部の移動を接続し、1つの肩部の位置が、他の肩部の位置に影響を与えるようにする。 In some embodiments, the body connects the movement of each limb portion by a respective shoulder, the position of one of the shoulder portions, so as to influence the position of the other shoulder. このフィーチャは、人体と同様に、両方の肢体部の移動を調整若しくは相互に関連させることで、キャラクタの生き生きとした自然な外見を加える。 This feature is similar to the human body, by relating to the adjustment or mutual movement of both limb portions, added lively natural look of the character.

図14Dは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン14802を示す。 Figure 14D, the device 14000 is shown an exemplary user interface screen 14802 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of.

装置14000は、キャラクタユーザインターフェースオブジェクト14804等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 14804 on the display. キャラクタユーザインターフェースオブジェクト14804は、肢体部14806の表現を有する。 Character user interface object 14804 has a representation of the limb portion 14806. ユーザインターフェーススクリーン14802に示すように、キャラクタユーザインターフェースオブジェクト14804は、肢体部14806の位置によって、時刻、例えば、12等の時間を指示できる。 As shown in the user interface screen 14802, the character user interface object 14804 is the position of the limb portion 14806, a time, for example, instructions to 12 equal time.

肢体部14806は、一方の端部に第1の終点14810、他方に関節部14812を備える第1のセグメント14808を有する。 Limb portion 14806 has a first end point 14810, a first segment 14,808 with a joint portion 14,812 to the other at one end. 第1の終点14810は、第1の位置を有する。 The first endpoint 14810 has a first position. 更に、肢体部14806は、一方の端部に第2の終点14816、他方に関節部14812を備える第2のセグメント14814を有する。 Furthermore, limb unit 14806, the second end point 14816 at one end, has a second segment 14814 with a joint portion 14,812 on the other. 従って、第1のセグメント14808と第2のセグメント14814は、関節部14812で接続し、それは、第2のセグメント14814の回転軸である。 Thus, a first segment 14 808 second segment 14814 are connected by joints 14 812, which is a rotation axis of the second segment 14814. 第2のセグメント14814の端部(従って、肢体部14806の一方の端部)の第2の終点14816は、第2の位置を有し、第1の時刻値、例えば、12等の時間を指示する。 End of the second segment 14814 (hence, one end of the limb portion 14806) second endpoint 14,816 of has a second position, the first time value, for example, instructions to 12 equal time to.

装置14000は、キャラクタユーザインターフェースオブジェクト14804を更新し、第2の時刻を指示するために、回転軸に沿って第3の位置に第2の終点14814を移動させることで、第2の時刻値を指示できる。 Device 14000 updates the character user interface object 14804, in order to instruct the second time, by moving the second end point 14814 to the third position along the rotation axis, the second time value It can be instructed. 擬人化された用語で説明すると、肢体部14806は、肘14812において接合した上腕14808と前腕14814の表現を有する。 To explain in anthropomorphic terms, limb unit 14806 includes a representation of the upper arm 14808 and forearm 14814 joined at elbow 14,812. 前腕14814は、肘14812で回転させ、異なる時刻を指示できる。 Forearm 14814 rotates in the elbow 14 812, can indicate different times. 時間を示す肢体部に関節部を追加することは、時計の針と類似しているが、ただし、それは関節部を含むので、腕は時計の針より自然に現れる。 Adding joints to the limb portion indicating the time, is similar to the hands of a clock, however, it is because it contains articulation arm appears more natural clock hands. 更に、関節部は、肢体部によって描写される動きの潜在的な範囲を拡大する。 Moreover, the joint portion enlarges the potential range of motion depicted by the limb portion.

ユーザインターフェーススクリーン14820は、肢体部14824を備えるキャラクタユーザインターフェースオブジェクト14822を表示することで、これを示す。 User interface screen 14 820, by displaying a character user interface object 14822 with a limb portion 14824, indicate this. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトは、キャラクタユーザインターフェースオブジェクト14804と同じオブジェクトであるが、異なる姿勢であってもよい。 In some embodiments, a character user interface object is the same object as the character user interface object 14804, or may be different postures. 肢体部14824は、第1の終点14826、第1のセグメント14828、及び関節部14830を有する。 Limb portion 14824 has a first end point 14826, a first segment 14828, and a joint portion 14830. 関節部14830は、第2のセグメント14832に接続され、それは、第2の終点14824を有する。 Joint 14830 is connected to the second segment 14832, which has a second end point 14,824. キャラクタユーザインターフェースオブジェクト14804と14822のフィーチャを比較することで示されるように、第2の終点14834は第2の終点14816とは異なる位置であり、従って、異なる時刻を指示する。 As shown by comparing the features of the character user interface object 14804 and 14822, the second end point 14834 is a position different from the second endpoint 14816, therefore, to indicate different times. この位置の変化は、関節部における第2のセグメントの回転によって実現される。 This change in position is achieved by rotation of the second segment in the joint portion.

いくつかの実施形態では、第2の終点を移動させることは、第1の及び第3の位置において第2の終点の静止画を描写することを含んでいてもよい。 In some embodiments, moving the second end point may include that depict a still image of the second end point in the first and third positions. いくつかの実施形態では、第2の終点を移動させることは、キャラクタユーザインターフェースオブジェクトをアニメーション化し、スクリーン上で第2の終点の動きを平行移動させることを含んでいてもよい。 In some embodiments, moving the second endpoint, animate the character user interface object may include that to translate the movement of the second end point on the screen.

いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトを更新することは、第1の終点を移動させることを含んでいてもよい。 In some embodiments, updating the character user interface object may include moving the first endpoint. ユーザインターフェーススクリーン14820に対してユーザインターフェーススクリーン14802で示すように、第1の終点14810を移動させ、例えば、第1の終点14826で示すように、時刻の表示を変化させてもよい。 As shown in the user interface screen 14802 to the user interface screen 14820, move the first end point 14810, for example, as indicated by the first endpoint 14826, may change the display time. 従って、キャラクタユーザインターフェースオブジェクトは肢体部を有し、上と同様の腕の場合、肩部において上腕を回転させることも、肩部自体を移動させることも、肘において前腕を回転させることもできる。 Therefore, the character user interface object has a limb portion, when the upper and similar arms also rotate the upper arm at the shoulder, also possible to move the shoulder itself, it is also possible to rotate the forearm at the elbow.

これらのフィーチャによって、キャラクタユーザインターフェースオブジェクトは、時間を指示するために、より広い範囲の自然で生き生きとした姿勢を取ることができる。 These features, character user interface object may be to instruct the time, take a natural and vivid attitude of a wider range. これらのフィーチャをスクリーン上でアニメーション化すれば、キャラクタは、人間等の移動する形状の動きをシミュレートできる。 If animate these features on the screen, the character, the motion of the moving shape of the human or the like can be simulated. これは、人間等の移動する形状をより正確にシミュレートすることで、装置とのユーザ対話及びつながりを著しく向上させる。 This is to simulate more accurately the moving shape such as a human, to significantly improve the user interaction and connection with the device. それによって、微妙な移動と大きな移動の両方を可能にし、キャラクタに広範囲の表情を与え、キャラクタのパーソナリティのシミュレーションに役立つ。 Thereby enabling both the large mobile and subtle movement, giving a wide range of expression in character, help personality simulation character. 従って、キャラクタは、時刻だけを伝えることができる二本のキャラクタ状の時針の簡単な集まりであることを止め、パーソナリティを表現できるより実際的なキャラクタとなり、装置とのユーザの経験を改善する。 Thus, character, stop that time is two characters like simple collection of hour hand can tell only becomes a practical character than can express personality, improves the user's experience with the device.

いくつかの実施形態では、キャラクタユーザインターフェースオブジェクト(例えば、キャラクタユーザインターフェースオブジェクト14804及び/又は14822)は更に、ユーザインターフェーススクリーン14802に示したような第2の肢体部14818等の第2の肢体部、又はユーザインターフェーススクリーン14820に示したような第2の肢体部14836の表現を含む。 In some embodiments, a character user interface object (e.g., character user interface object 14804 and / or 14822) is further second limb portion such as the second limb portion 14818, as shown in the user interface screen 14802, or a representation of the second limb portion 14836, as shown in the user interface screen 14820. 第1の肢体部を参照しながら上で説明したように、第2の肢体部は、第2の肢体部の第1の終点を関節部に接続する第1のセグメントと、第2のセグメントを関節部に接続する第2のセグメントを含んでいてもよい。 As described above with reference to the first limb portion, a second limb portion has a first segment connecting the first end point of the second limb portion to the joint portion, the second segment it may include a second segment attached to the joint. 第2の肢体部の第1の終点は第1の位置にあってもよく、第2のセグメントの第2の終点は第2の位置にあってもよい。 The first end point of the second limb portion may be in the first position, the second end point of the second segment may be in the second position. 関節部は、第2のセグメントの回転軸として機能し、第3の時刻値を指示できる。 Joint functions as a rotating shaft of the second segment can instruct the third time value. 装置14000は、第4の時刻値を指示するために、関節部における回転軸に沿って、第2の肢体部の第2の終点を移動させることで、キャラクタユーザインターフェースオブジェクトを更新できる。 Apparatus 14000, in order to instruct the fourth time value, along the axis of rotation of the joint, by moving the second end point of the second limb portion, can update the character user interface object.

いくつかの実施形態では、第1の肢体部は時間を指示し、第2の肢体部は分を指示する。 In some embodiments, the first limb portion instructs the time, the second limb portion instructs minute. いくつかの実施形態では、第1の肢体部は分を指示し、第2の肢体部は時間を指示する。 In some embodiments, the first limb portion instructs the minute, the second limb portion instructs the time. 第1の肢体部と第2の肢体部は、例えば、既存の時針と同様に、長さで区別される。 A first limb portion and the second limb portion, for example, similar to the existing hour hand, are distinguished by the length. 第1の肢体部と第2の肢体部は、例えば、第1の終点と第2の終点の間の距離で区別される。 A first limb portion and the second limb portion, for example, are distinguished by the distance between the first endpoint and the second endpoint. 例えば、一方の肢体部を湾曲させるか、又は肩部を位置決めし、他方の肢体部より短くない場合でも、より短く現れるか、若しくは他方の肢体部と区別できるようにする。 For example, bending the one limb portion, or to position the shoulder, even when not shorter than the other limb portion, to be distinguished whether appear shorter, or other limb portion. 第1の肢体部と第2の肢体部は、例えば、第2の終点と、時刻の数値指示等のディスプレイ上の別のオブジェクトとの距離によって区別される。 The second limb portion and the first limb portion, for example, is distinguished by the distance between the second end point, with another object on the display of the numerical indication such time.

いくつかの実施形態では、第2の時刻を指示するために、キャラクタユーザインターフェースオブジェクトを更新することは、スクリーン上で第1の終点を平行移動させることによって、キャラクタユーザインターフェースオブジェクトをアニメーション化することを含んでいてもよい。 In some embodiments, to indicate a second time, to update the character user interface objects, by translating the first endpoint on the screen, to animate a character user interface object it may contain a. 例えば、キャラクタは、一方又は他方の肩部を移動させるように見えてもよい。 For example, the character may appear to move the one or the other of the shoulders. いくつかの実施形態では、一方の肩部の移動又は位置は、他方の肩部の移動又は位置に影響を与え、人間等の実際の形状の接続された動きをシミュレートできる。 In some embodiments, the movement or position of one shoulder, affects the movement or position of the other shoulder, the actual connection motion in the form of human or the like can be simulated.

いくつかの実施形態では、第2の時刻を指示するために、キャラクタユーザインターフェースオブジェクトを更新することは、スクリーン上の関節部において、第2のセグメントを回転させることによって、キャラクタユーザインターフェースオブジェクトをアニメーション化することを含んでいてもよい。 In some embodiments, to indicate a second time, to update the character user interface objects, the joint portion on the screen, by rotating the second segment, the animation character user interface object it may include that of. 例えば、第2のセグメントは、前腕等の関節部において回転できる。 For example, the second segment can be rotated in the joint portion such as the forearm.

いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトは、例えば、ディスプレイの中心に向かって、スクリーン上を平行移動してもよい。 In some embodiments, a character user interface objects, for example, toward the center of the display, on the screen may be moved in parallel.

図14Eは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン14902を示す。 Figure 14E is a device 14000 shows an exemplary user interface screen 14902 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト14904等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 14904 on the display. ユーザインターフェーススクリーン14902は、異なる2つの位置、まず位置14906、その後、14908において、キャラクタユーザインターフェースオブジェクト14904を連続的に表示することで、キャラクタの平行移動を示す。 The user interface screen 14902 are two different positions, first position 14906, then, the 14908, by continuously displaying a character user interface object 14904, shows the translation of the character. キャラクタユーザインターフェースオブジェクト14904は、位置14908においてディスプレイの中心により近づき、図14Eに示すように、右から左方向の動きをシミュレートする。 Character user interface object 14904 is closer to the center of the display at position 14908, as shown in FIG. 14E, to simulate the leftward movement from the right. このような動きは、例えば、ユーザが、装置とのインタラクションを開始するか、又は装置を見たときに使用され、キャラクタをディスプレイの中心に移動させ、時刻を指示させる。 Such movement, for example, the user, to start the interaction with the device, or be used when viewed apparatus, to move the character to the center of the display, to instruct the time.

いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトを平行移動させることは、キャラクタユーザインターフェースオブジェクトをアニメーション化し、例えば、ディスプレイの中心までの歩行を表現することを含んでいてもよい。 In some embodiments, the translating the character user interface object, animate the character user interface objects, for example, it may include to express walking to the center of the display. キャラクタユーザインターフェースオブジェクト14904は、脚部及び胴体を備えるキャラクタを描写することによってこれを示す。 Character user interface object 14904 indicates this by depicting a character with a leg and torso. キャラクタユーザインターフェースオブジェクト14904の脚部及び胴体によって表される位置14906と14908における異なる位置及び姿勢が歩行を表現する。 Position and orientation different at position 14906 and 14908, represented by the legs and torso of the character user interface object 14904 to express walking. 例えば、装置とのユーザのやり取りに応じて、キャラクタをアニメーション化し、スクリーン上で自然に歩行させ、現在時刻に対応する位置を取ってもよい。 For example, in response to user interaction with the device, the characters animate, naturally made to walk on the screen, it may take the position that corresponds to the current time. ユーザ対話は、スクリーンを起動すること、装置を観察位置に持ち上げること、時計文字盤の起動に対応する装置のボタンを押すこと等を含んでいてもよい。 User interaction is to activate the screen, lifting the apparatus to the observation position, may include such pressing a button of the device corresponding to the start of the clock face.

図14Fは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン15002を示す。 FIG. 14F, the device 14000 is shown an exemplary user interface screen 15002 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト15004等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 15004 on the display. 装置14000は、表示されるユーザインターフェーススクリーンの視覚的アスペクトを変化させ、キャラクタユーザインターフェースオブジェクトを強調できる。 Device 14000, alter the visual aspects of user interface screens that are displayed, it can be emphasized character user interface object. 図14Fは、この概念の典型的な実施形態を示す。 Figure 14F shows an exemplary embodiment of this concept. ユーザインターフェーススクリーン15002は、キャラクタユーザインターフェースオブジェクト15004を強調するスポットライト15006を含む。 The user interface screen 15002 includes emphasizing spotlight 15006 character user interface object 15004.

いくつかの実施形態では、ディスプレイの視覚的アスペクトを変化させることは、キャラクタユーザインターフェースオブジェクトの周りのユーザインターフェーススクリーンの色及び/又は輝度を変化させること、スポットライト等のユーザインターフェースオブジェクトを表示すること等のうちの1つ以上を含むことができる。 In some embodiments, changing the visual aspect of the display, changing the color and / or brightness of the user interface screen around the character user interface object, to display the user interface objects such as spotlights It may include one or more of the like.

いくつかの実施形態では、装置14000は、キャラクタユーザインターフェースオブジェクトをアニメーション化し、視覚的アスペクトの変化に対するキャラクタユーザインターフェースオブジェクトによる応答を表現できる。 In some embodiments, device 14000, animate the character user interface object can represent response by character user interface object to a change in the visual aspect. 図14Fの典型的な実施形態に示すように、キャラクタユーザインターフェースオブジェクト15004をアニメーション化し、スポットライト15006を見ていることをシミュレートしてもよい。 As shown in the exemplary embodiment of FIG. 14F, the character user interface object 15004 animate, may simulate that watching spotlight 15006.

図14Gは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン15102を示す。 FIG. 14G, the device 14000 is shown an exemplary user interface screen 15102 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト15104等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 15104 on the display. キャラクタユーザインターフェースオブジェクト15104は、足部15106の表現を含んでいてもよい。 Character user interface object 15104 may include a representation of the foot 15106. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクト15104は、時刻値を示す二本の肢体部と、少なくとも一方は足部を含んでいてもよい二本の脚部とを含む。 In some embodiments, a character user interface object 15104 includes two and limb portion showing a time value, and at least one leg of the leg portion may two which also contain part.

いくつかの実施形態では、装置14000は、足部をアニメーション化し、時間経過を示すことができる。 In some embodiments, device 14000, animate foot, it can indicate the time course. ユーザインターフェーススクリーン15102及び15110に示すように、キャラクタユーザインターフェースオブジェクト15104及び15112は、足部(それぞれ15106、15114)を含む。 As shown in the user interface screen 15102 and 15110, a character user interface object 15104 and 15112 include a foot (respectively 15106,15114). 足部15106及び15114の異なる位置(ディスプレイ上の位置、及び/又は、キャラクタユーザインターフェースオブジェクト内のそれらの姿勢に対して異なる)がこのアニメーションを描写する。 Different positions of legs 15106 and 15114 (location on the display, and / or different for their orientation in the character user interface object) depicts the animation. 例えば、キャラクタをアニメーション化し、タッピング等の、足部の動きをシミュレートできる。 For example, the character is animated, it can simulate the tapping or the like, the movement of the foot. これは、規則的又は不規則なタイミングを有していてもよい。 It may have a regular or irregular timing. いくつかの実施形態では、足部をアニメーション化し、1秒に1回等の、規則的な間隔で移動させる。 In some embodiments, animate foot, such as once per second, is moved at regular intervals. 2つの肢体部と結合させると、これによって、キャラクタユーザインターフェースオブジェクトは、例えば、時間、分、及び秒の時刻値を描写できる。 When is combined with two limb portions, whereby the character user interface objects, for example, hours, minutes, and it depicts the time value in seconds.

いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトによって描写される第1の時刻と第2の時刻は同じである。 In some embodiments, the first time and the second time depicted by the character user interface object is the same. 言い換えると、キャラクタユーザインターフェースオブジェクトは、異なる時刻を描写することなく、肢体部又は肢体部の任意の終点をシフトさせることで移動できる。 In other words, the character user interface objects, without depicting different times, can be moved by shifting any of the end point of the limb portion or limbs unit. これによって、キャラクタは、指示した時刻を変更することなく姿勢をシフトできる。 Thereby, a character can shift the orientation without changing the indicated time.

いくつかの実施形態では、ディスプレイは、時刻の1つ以上の数値指示を含んでいてもよい。 In some embodiments, the display may include one or more numeric indication of time. 例えば、ディスプレイは円形の時計文字盤の表現を含み、中心のキャラクタユーザインターフェースオブジェクトは、時計と同様に、数値指示器によって囲まれていてもよい。 For example, the display includes a circular clock face representation, the character user interface object in the center, like the watch, it may be surrounded by the numerical indicator.

上記のフィーチャによって、キャラクタユーザインターフェースオブジェクトは、時刻を指示しながら、より広い範囲の自然な動きを取り入れることで、より自然で生き生きと現れるようにできる。 By the above features, the character user interface object, while instructing the time, by incorporating the natural movement of a wider range, as vividly appear more natural. ユーザは、キャラクタユーザインターフェースオブジェクトによって他のイベントの表現を見たい場合がある。 The user may want to see a representation of another event by the character user interface object. キャラクタユーザインターフェースオブジェクトが、外部刺激又は内部システムイベントに反応可能にすることは、よりインタラクティブなキャラクタを表現し、パーソナリティにより近い表現を描写する。 Character user interface objects, allowing the reaction to external stimuli or internal system event, represent a more interactive characters depict closer expressed by personality. キャラクタの改善されたインタラクティブ性は更に、その発生がそうでない場合は明らとはならないイベントが発生したことの追加の通知を提供することで、装置とのユーザ対話を向上させる。 Furthermore improved interactivity character, if its occurrence is not the case that providing additional notification that the event does not become obvious occurs, improving the user interaction with the device. キャラクタユーザインターフェースオブジェクトは、ユーザがパーソナル電子装置からアクセスしたい場合がある通知、リマインダ、及び/又は他の情報の供給に役立つが、キャラクタの使用は、装置がこれらのアイテムを供給するために使用できるインタラクティブなパーソナリティを提供する。 Character user interface objects, notification may wish to access from the user personal electronic device, reminders, and / or helps to supply other information, the use of the character can be used to device supplies these items to provide an interactive personality. 更に、内部システムイベント(例えば、カレンダイベント等)にキャラクタを応答させることは、キャラクタが、外部のユーザ入力に応答することに厳密には限定されないことを意味する。 Furthermore, internal system event (e.g., calendar events, etc.) to respond to the character, the character is meant that the invention is not limited strictly to respond to an external user input. 言い換えると、キャラクタは、ユーザの即座の動作に直接促されないイベントに応答するので、より生き生きとしたパーソナリティを有するように現れる。 In other words, the character, because it responds to not prompted directly events in real operation of the user, appears to have a more vivid personality.

図14Hは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン15202を示す。 FIG. 14H, the device 14000 is shown an exemplary user interface screen 15202 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト15204等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 15204 on the display. キャラクタユーザインターフェースオブジェクト15204は、上記のように時刻を指示する。 Character user interface object 15204 indicates a time as described above.

装置14000は、イベントを指示する第1のデータを受け取ることができる。 Device 14000 may receive the first data indicating the event. 装置14000は、イベントが条件に適合するかどうかを決定できる。 Device 14000 can determine whether the event comply with the conditions. イベントが条件に適合することの決定に従って、装置14000は、キャラクタユーザインターフェースオブジェクトのディスプレイにすることで、キャラクタユーザインターフェースオブジェクト15204を更新できる。 As determined by the fact that the event matches the condition, the device 14000, by the display of the character user interface object, you can update the character user interface object 15204.

いくつかの実施形態では、表示されるキャラクタユーザインターフェースオブジェクトを更新した後、キャラクタユーザインターフェースオブジェクトはなお時刻を指示する。 In some embodiments, after updating the character user interface objects displayed, a character user interface object is still indicated time. 例えば、キャラクタの外見又は姿勢を変更してもよいが、キャラクタはなお時刻を指示する。 For example, it may be changed the appearance or posture of the character, but the character is still indicated time.

いくつかの実施形態では、表示されるキャラクタユーザインターフェースオブジェクトを更新した後、キャラクタユーザインターフェースオブジェクトはもはや時刻を指示するだけではない。 In some embodiments, after updating the character user interface objects displayed, a character user interface objects not only instructs the longer time. 例えば、キャラクタは、イベント及び/又は条件に関連した意味を伝える等、時刻を指示する以外の機能のために、姿勢を取り、表情をし、又はその肢体部を用いる。 For example, characters, etc. convey the meaning associated with the event and / or condition, for functions other than to indicate the time, takes a posture and an expression, or use that limb portion.

いくつかの実施形態では、第1のデータはカレンダイベントを指示する。 In some embodiments, the first data indicating a calendar event. 装置14000は、例えば、装置14000上のカレンダアプリケーションからイベントを表現するデータを獲得することによって、カレンダイベントを指示するデータを受け取ることができる。 Device 14000, for example, by acquiring data representing an event from the calendar application on the device 14000 can receive data indicating the calendar event. この例では、条件は、カレンダイベントの継続期間に対応できる。 In this example, the condition can correspond to the duration of the calendar event. イベントが条件に適合するかどうかを決定することは、現在時刻が、カレンダイベントの継続期間内にあるかどうかを決定することを含んでいてもよい。 The event to determine whether they conform to conditions, the current time may also include determining whether it is within the duration of the calendar event. 例えば、装置14000は、現在時刻を獲得し、現在時刻がカレンダイベントの継続期間内(例えば、カレンダイベント中、又はカレンダイベントと実質的に同時期であるが、やや先行しているか又はやや遅れている)にあるかどうかを決定できる。 For example, device 14000 may obtain the current time, the duration of the current time calendar event (e.g., during a calendar event, or a calendar event and substantially contemporaneously, or slightly lagging slightly ahead of It can determine whether or not there is in there).

典型的な実施形態は、ユーザインターフェーススクリーン15202に示される。 Exemplary embodiments are illustrated in the user interface screen 15202. いくつかの実施形態では、カレンダイベントは誕生日である。 In some embodiments, the calendar event is a birthday. いくつかの実施形態では、誕生日はユーザの誕生日である。 In some embodiments, the birthday is a user of the birthday. いくつかの実施形態では、表示されるキャラクタユーザインターフェースオブジェクトを更新することは、キャラクタユーザインターフェースオブジェクトをアニメーション化し、誕生日の挨拶状を表示することを含んでいてもよい。 In some embodiments, updating the character user interface objects to be displayed, to animate the character user interface object may include displaying a birthday greeting. キャラクタユーザインターフェースオブジェクト15204をアニメーション化し、お祭り用の帽子15206や誕生日のバナー15208を表示する。 The character user interface object 15204 animate, to display the banner 15208 hats 15206 and birthday for the festival. このアニメーションは、ユーザに誕生日を通知しながら、キャラクタをよりインタラクティブにさせるように機能する。 This animation, while notified of the birthday to the user and functions to the character more interactive. 重要なことは、キャラクタは、ユーザによる即座の入力なしに、誕生日の挨拶状を表示すること等で、視覚的アスペクトを変化させ、キャラクタが、パーソナリティと共に、より自律的に動作できるという印象を与える。 Importantly, the character, without the immediate input by the user, the like to display the birthday of greeting, to change the visual aspect, character, along with the personality, the impression that more autonomously can operate give. いくつかの実施形態では、キャラクタの修正は、誕生日や記念日等、ユーザのコンタクトの1つに関連したいくつかの重要なイベントの指示である。 In some embodiments, modification of the character, birthdays and anniversaries, etc., is an indication of some important events associated with one of the user's contacts.

典型的な実施形態は、ユーザインターフェーススクリーン15210に示される。 Exemplary embodiments are illustrated in the user interface screen 15210. いくつかの実施形態では、カレンダイベントは休日である。 In some embodiments, the calendar event is a holiday. いくつかの実施形態では、表示されるキャラクタユーザインターフェースオブジェクトを更新するとは、休日を反映させるために、キャラクタユーザインターフェースオブジェクトの視覚的アスペクトを変化させることを含んでいてもよい。 In some embodiments, the updates the character user interface objects displayed, to reflect holiday may include changing the visual aspect of the character user interface object. この例では、キャラクタユーザインターフェースオブジェクト15212は、サンタクロースの帽子15214によってこれを描写する。 In this example, a character user interface object 15212 depicts this by Santa Claus hat 15214. このアニメーションは、休日をユーザに通知しながら、キャラクタをよりインタラクティブにし、キャラクタの外見の単調さを低下させるように機能する。 This animation, while notifies the holiday user, and the character more interactive functions to reduce the monotony of the appearance of the character. クリスマス以外の休日の他の例は、大晦日、元日、感謝祭、ハヌカ、独立記念日、聖パトリックスデー、バレンタインデー等を含んでいてもよい。 Another example of a holiday other than Christmas, New Year's Eve, New Year's Day, Thanksgiving, Hanukkah, Independence Day, St. Patrick's Day, may include a Valentine's Day or the like.

いくつかの実施形態では、装置14000は、ユーザの好きなスポーツチーム等の、ユーザ嗜好を指示するデータを受け取ることができる。 In some embodiments, device 14000 can receive data indicating such favorite sports team of a user, the user preference. データの受け取りに従って、装置14000は、スポーツチームを反映するために、キャラクタユーザインターフェースオブジェクトの視覚的アスペクトを変化させることで、キャラクタユーザインターフェースオブジェクト15204を更新できる。 According receipt of the data, apparatus 14000, in order to reflect a sports team, by changing the visual aspect of the character user interface object, you can update the character user interface object 15204. 例えば、キャラクタユーザインターフェースオブジェクトの外見を更新し、ユニフォーム又はスポーツチームを表現する他の身の回り品(例えば、帽子、ジャージ、ユニフォーム、又は他の表現は、スポーツチームを表現するロゴ、アイコン、又はテキストを含む)を身につけているキャラクタユーザインターフェースオブジェクトを描写できる。 For example, to update the appearance of the character user interface objects, other personal belongings to express uniforms or sports team (for example, hats, jerseys, uniforms, or other representation, logo to represent the sports team, icon, or the text including) can depict the character user interface objects that are wearing. 更に、ディスプレイを更新し、そのチームのスポーツに関連したスポーツオブジェクト(野球用バット及び/又は野球ボール、フットボール、バスケットボール、サッカーボール、ホッケー用スティック及びホッケー用パック、チェッカーフラッグ等)を表現する第2のユーザインターフェースオブジェクトを含んでいてもよい。 In addition, the first to express to update the display, sports objects associated with that team sports (baseball bat and / or baseball, football, basketball, soccer ball, hockey stick and hockey puck, checkered flag, etc.) 2 it may include a user interface object. キャラクタは、チームがその日又はその時刻にプレーしていることの決定に従って、又はユーザがそのチームをフィーチャするイベントに参加していることの決定に従って更新できる。 Character, the team can be updated in accordance with the decision of that in accordance with the decision of what to play on the day or the time, or if the user is participating in the event to feature the team. ユーザがそのチームをフィーチャするイベントに参加していることの決定は、ユーザのカレンダイベントを解析することによって、又はイベントの電子チケットが電子装置上又はペアの電子装置上に存在することの決定によって行われる。 Determining that the user is participating in the event to feature the team, by analyzing the user's calendar events, or by a decision of that event electronic ticket is present on the electronic devices of the electronic device on or pair It takes place. 当然のことながら、ユーザの好きなスポーツチームは典型的なユーザ嗜好にすぎず、旗又は国の表現等の他のユーザ嗜好も想定される。 It will be appreciated that, favorite sports team of the user is only typical user preferences, other user preferences of expression, such as the flag or country are also envisioned.

図14Iは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン15302を示す。 Figure 14I is a device 14000 shows an exemplary user interface screen 15302 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト15304等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 15304 on the display. キャラクタユーザインターフェースオブジェクト15304は、上記のように時刻を指示する。 Character user interface object 15304 indicates a time as described above.

装置14000は、通知を指示するデータを受け取ることができる。 Device 14000 may receive data indicating the notification. 通知は、例えば、電子メール、テキストメッセージ、リマインダ、仮想アシスタントリクエスト、又は他のこのような通知を含んでいてもよい。 Notice, for example, e-mail, text messages, reminders may include virtual assistant request, or other such notifications. 装置14000は更に、通知15306によって描写されるように、通知、又はアフォーダンス、若しくは通知の受け取り及び/又はコンテンツを表現するユーザインターフェースオブジェクトをユーザインターフェーススクリーン15302に表示できる。 Device 14000 further, as depicted by the notification 15306, can be displayed notification, or affordance, or notification of receipt and / or a user interface object that represents the content to the user interface screen 15302. 装置14000は、キャラクタユーザインターフェースオブジェクト15304をアニメーション化し、通知15306に反応できる。 Device 14000, a character user interface object 15304 animate, can react to the notification 15306. 例えば、ユーザインターフェーススクリーン15302に示すように、キャラクタユーザインターフェーススクリーン15304は、通知15306を見るように現れてもよい。 For example, as shown in the user interface screen 15302, the character user interface screen 15304 may appear to look notification 15306. これは、例えば、キャラクタが通知の方を向くようにする姿勢の変化、又は顔等のキャラクタの外見の変化を含み、通知の方向を見ていることを指示できる。 This, for example, a change in posture that faces towards character of notification, or include a change in the appearance of characters such as a face, it can indicate that looking in the direction of the notification. 再び、この姿勢の変化又はキャラクタの焦点の変化を提供することで、そうでない場合にあまり明らかとならない着信アラート又はイベントをユーザに通知できる。 Again, by providing a change in focus of the change or the character of this position, it notifies the user of incoming alerts or events not a less clear otherwise.

図14Jは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン15402を示す。 FIG. 14J, the device 14000 is shown an exemplary user interface screen 15402 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト15404等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 15404 on the display. キャラクタユーザインターフェースオブジェクト15404は、上記のように時刻を指示する。 Character user interface object 15404 indicates a time as described above.

装置14000は、タイムオフデイを指示する第1のデータを受け取ることができる。 Device 14000 may receive the first data indicating a time off day. 時刻は、現在時刻を含むことができる。 Time may include the current time. 装置14000は、時刻がその日の夜間部分にあるかどうかを決定すること等で、時刻が条件に適合することを決定できる。 Device 14000, time in such determining whether a nighttime portion of the day can be determined that the time to comply with the conditions. 装置14000は、夜間を表現するために、キャラクタユーザインターフェースオブジェクト15404の視覚的アスペクトを変化させてもよい。 Apparatus 14000, in order to express the night, may change the visual aspect of the character user interface object 15404. ユーザインターフェーススクリーン15402に示すように、キャラクタユーザインターフェースオブジェクト15404は、あくび及び保持しているろうそく15406を描写することで、夜間を表現する。 As shown in the user interface screen 15402, the character user interface object 15404, by depicting a candle 15406 that yawning and holding, representing the night. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクト15404を変更し、パジャマ等の夜間に関連した衣服を身につけることを描写できる。 In some embodiments, change the character user interface object 15404, can depict to wear clothes associated with nighttime pajamas like. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトを修正し、ユーザが寝るべきであることの決定に従って、あくび又はパジャマを身につける。 In some embodiments, to modify the character user interface object, according to determination that the user should sleep, wear yawn or pajamas. その決定は、例えば、人の所定の時刻、ユーザの睡眠パターンの認識、次の日のカレンダ上の早朝のイベントの指示、ユーザが所定の時間より長く活動していたことの認識等に基づいていてもよい。 The decision, for example, recognition of a given time, a user of the sleep patterns of a person, an indication of the early morning events on the calendar of the next day, the user is not based on the recognition or the like of it had been active longer than a predetermined time it may be.

図14Kは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン15502を示す。 Figure 14K is a device 14000 shows an exemplary user interface screen 15502 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト15504等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 15504 on the display. キャラクタユーザインターフェースオブジェクト15504は、上記のように時刻を指示する。 Character user interface object 15504 indicates a time as described above.

装置14000は、現在時刻を示すデータを受け取ることができる。 Device 14000 can receive data indicating the current time. 装置14000は、現在時刻が、正時のある時刻(例えば、1:00、2:00等)に対応するかどうかを決定できる。 Device 14000, the current time is on the hour of a certain time (e.g., 1: 00,2: 00, etc.) can determine whether the corresponding. 装置14000は、現在時刻が正時のある時刻であるかどうかを決定し、そうであれば、キャラクタユーザインターフェースオブジェクトをアニメーション化し、1つ以上の時間で正時の時間をアナウンスできる。 Device 14000 determines whether the time is the current time is the hour, if so, to animate a character user interface object, announce the hour of time one or more times. ユーザインターフェーススクリーン15502に示すように、キャラクタユーザインターフェースオブジェクト15504は、音符15506を描写することで、現在時間をアナウンスする。 As shown in the user interface screen 15502, the character user interface object 15504, by depicting note 15506 announces the current time. いくつかの実施形態では、時間のアナウンスは、ユーザインターフェースオブジェクトを表示すること等、アナウンスの視覚的描写を含むことができる。 In some embodiments, the time of the announcement, it for displaying the user interface object may include a visual representation of the announcement. いくつかの実施形態では、時間のアナウンスは、笛、チャイム、1つ以上の話し言葉、又は鐘を鳴らすこと等の音を含むことができる。 In some embodiments, the time of the announcement may include whistle, chime, one or more spoken words, or sounds, such as sounding a bell.

図14Lは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン15602を示す。 Figure 14L, the device 14000 is shown an exemplary user interface screen 15602 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト15604等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 15604 on the display. キャラクタユーザインターフェースオブジェクト15604は、上記のように時刻を指示する。 Character user interface object 15604 indicates a time as described above.

装置14000は、現在の又は予報される天候を指示するデータを受け取ることができる。 Device 14000 may receive data indicating the weather to be current or forecast. 現在又は予報される天候を指示するデータを受け取るために、装置14000は外部サーバから天候情報を検索できる。 To receive data indicating the weather is present or forecast device 14000 can find the weather information from the external server. いくつかの実施形態では、装置14000は、The Weather Channel、Accuweather、The National Weather Service、Yahoo! In some embodiments, the apparatus 14000, The Weather Channel, Accuweather, The National Weather Service, Yahoo! (商標)Weather、Weather Underground等の天候サービスから天候情報を検索できる。 (TM) Weather, can search for weather information from the weather service, such as Weather Underground.

装置14000は、現在の又は予報される天候が、1つ以上の所定の天候条件に対応するかどうかを決定できる。 Device 14000, weather is current or forecast, you can determine whether it corresponds to one or more predetermined weather condition. 所定の天候条件はシステム所定であってもよく、晴れ、又は雨、雷雨、風、雪等の荒れ模様の天候であってもよい。 Given the weather conditions it may be a system prescribed, sunny, or rain, thunderstorms, wind, may be the inclement weather such as snow. 現在の又は予報される天候が1つ以上の所定の天候条件に対応することを装置14000が決定した場合、装置14000は、キャラクタユーザインターフェースオブジェクトを更新し、現在の又は予報される天候を反映できる。 If the weather is current or forecast is determined device 14000 that correspond to one or more predetermined weather condition, device 14000 updates the character user interface object, reflect the weather to be current or forecast . 例えば、図14Lに示すように、ユーザインターフェーススクリーン15602は、傘15606並びに雨粒15608を備えるキャラクタユーザインターフェースオブジェクト15604を含む。 For example, as shown in FIG. 14L, a user interface screen 15602 includes a character user interface object 15604 with an umbrella 15606 and raindrops 15608. いくつかの実施形態では、装置14000は、ユーザインターフェースオブジェクトを表示し、所定の天候条件を反映できる。 In some embodiments, device 14000 displays the user interface object may reflect certain weather conditions. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトをアニメーション化し、所定の天候条件を反映したユーザインターフェースオブジェクトに反応できる。 In some embodiments, a character user interface objects animate, can react to the user interface object that reflects a predetermined weather condition. 他の例として、ユーザインターフェーススクリーン15610は、サングラス15614及びサーフボード15616、並びに太陽15618を備えるキャラクタユーザインターフェースオブジェクト15612を表示する。 As another example, the user interface screen 15610 are sunglasses 15614 and surfboards 15616, as well as displaying a character user interface object 15612 with a sun 15618.

図14Mは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン15702を示す。 Figure 14M is a device 14000 shows an exemplary user interface screen 15702 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト15704等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 15704 on the display. キャラクタユーザインターフェースオブジェクト15704は、上記のように時刻を指示する。 Character user interface object 15704 indicates a time as described above.

装置14000は、第2の電子装置を指示するデータを受け取ることができる。 Device 14000 may receive data indicating the second electronic device. 装置14000は、データが、装置14000と第2の電子装置の閾値近接性に対応するかどうかを決定できる。 Device 14000, data can determine whether and corresponding device 14000 to the threshold proximity of the second electronic device. その場合、装置14000は、第2の電子装置に反応するために、キャラクタユーザインターフェースオブジェクトをアニメーション化することによって、キャラクタユーザインターフェースオブジェクト15704を更新できる。 In that case, apparatus 14000, in order to respond to the second electronic device, by animating the character user interface object, you can update the character user interface object 15704. ユーザインターフェーススクリーン15702に示すように、キャラクタユーザインターフェースオブジェクト15704は、親指を立てること15706又は笑顔15708を描写できる。 As shown in the user interface screen 15702, the character user interface object 15704 may depict 15706 or smile 15708 that thumbs. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトの姿勢を更新し、第2の装置の近接性及び/又は方向を反映できる。 In some embodiments, updating the posture of the character user interface object, it reflects the proximity and / or direction of the second device. 例えば、キャラクタユーザインターフェースオブジェクトは、装置の方向で反応してもよく、ディスプレイに反映させてもよい。 For example, a character user interface object may be reacted in the direction of the device, it may be reflected in the display. いくつかの実施形態では、第2の電子装置を指示するデータは、サーバによって提供され、そのサーバは、Find My Friends等、それらの位置のデータを提供することを同意したユーザのコンタクト位置を提供する。 In some embodiments, data indicating the second electronic device is provided by the server, the server, the Find My Friends like, provide a contact position of the user who has agreed to provide the data at those positions to. 第2の電子装置を指示するデータは、ローカルネットワークによって、例えば、ユーザのコンタクトの1つが、同じWi−Fiネットワークに加わったという認識を提供することもできる。 Data indicating the second electronic device, by local networks, for example, one of the user's contact, it is also possible to provide a perception that applied to the same Wi-Fi network. 第2の電子装置を指示するデータは、Bluetooth、近距離通信等によって、それ自体をアナウンスしている第2の電子装置等、第2の電子装置自体によって提供することもできる。 Data indicating the second electronic device can be Bluetooth, the short-range communication or the like, the second electronic device or the like which announces itself, also be provided by a second electronic device itself.

いくつかの実施形態では、時刻を指示するキャラクタユーザインターフェースオブジェクトを表示する装置(装置14000等)は、ユーザ活動を指示するデータを受け取ることができる。 In some embodiments, an apparatus for displaying a character user interface object to instruct the time (unit 14000, etc.) may receive data indicating user activity. 例えば、装置は、ユーザ活動モニタ(トレーニングモニタ等)加速度計、ジャイロスコープ、動きセンサ、及び/又はそれらの組み合わせを含んでいてもよい。 For example, the device user activity monitor (training monitor, etc.) accelerometers, gyroscopes, may include motion sensors, and / or combinations thereof. 装置は、前のユーザ活動後の閾値間隔外で、ユーザ活動を指示するデータを受け取ったかどうかを決定できる。 Device, before outside the threshold interval after user activity can determine whether it has received data indicating user activity. 例えば、装置は、ユーザ活動を指示する最後のデータ(例えば、最後のユーザトレーニング)以来、閾値期間が経過したかどうかを決定できる。 For example, the device last data (e.g., last user training) for instructing the user activity since, whether the threshold period has elapsed can be determined. 前のユーザ活動後の閾値間隔外で、ユーザ活動を指示するデータを受け取ったことを装置が決定した場合、装置は、キャラクタユーザインターフェースオブジェクトをアニメーション化し、活動の低さを表現できる。 The threshold distance outside after the previous user activity, when the device that received the data indicating the user activity has been determined, the device, and animate the character user interface object can represent low activity. 例えば、キャラクタは、表情及び/又は姿勢を変化させ、退屈、座っている又は横になっている姿勢、不機嫌な又は無関心な外見等を表現できる。 For example, the character, to change the facial expression and / or orientation, boredom, sitting or has posture lying can represent grumpy or indifferent appearance like.

図14Nは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン15802を示す。 Figure 14N is a device 14000 shows an exemplary user interface screen 15802 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト15804等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 15804 on the display. キャラクタユーザインターフェースオブジェクト15804は、上記のように時刻を指示する。 Character user interface object 15804 indicates a time as described above.

装置14000は、ユーザ活動を指示するデータを受け取ることができる。 Device 14000 may receive data indicating user activity. 例えば、装置は、ユーザ活動モニタ(トレーニングモニタ等)加速度計、ジャイロスコープ、動きセンサ、及び/又はそれらの組み合わせを含んでいてもよい。 For example, the device user activity monitor (training monitor, etc.) accelerometers, gyroscopes, may include motion sensors, and / or combinations thereof. 装置14000は、ユーザ活動が現在のユーザ活動であるかどうかを決定し、そうであれば、キャラクタユーザインターフェースオブジェクト15804をアニメーション化し、運動を表現できる。 Device 14000 determines whether the user action is a current user activity, and if so, to animate a character user interface object 15804 can represent motion. 例えば、ユーザインターフェーススクリーン15802は、キャラクタユーザインターフェースオブジェクト15804とバーベル15806を含む。 For example, a user interface screen 15802 includes a character user interface object 15804 and barbell 15,806. いくつかの実施形態では、装置14000は、キャラクタユーザインターフェースオブジェクトをアニメーション化し、動き、ランニング、ウェイトリフティング、水泳、サイクリング、腕立て伏せ、及び/又は汗、荒い息づかい、又は身体運動の任意の他の兆候等の運動に関連した活動を描写できる。 In some embodiments, device 14000, animate the character user interface object, motion, running, weightlifting, swimming, cycling, push-ups, and / or perspiration, rough breathing, or any other signs such as physical exertion You can describe the activities associated with the movement. いくつかの実施形態では、活動モニタは、ユーザ用のオプションを含み、どの活動が開始しているかを指示できる。 In some embodiments, activity monitor includes options for a user can indicate which activities have started. これらの場合、キャラクタの外見を変更し、選択した活動のオプションを反映できる。 In these cases, change the appearance of the character, it can reflect the options for the selected activity.

図14Oは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン15902を示す。 Figure 14O, the device 14000 is shown an exemplary user interface screen 15902 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト15904等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 15904 on the display. キャラクタユーザインターフェースオブジェクト15904は、上記のように時刻を指示する。 Character user interface object 15904 indicates a time as described above.

装置14000は、例えば、加速度計、方向センサ(例えば、コンパス)、ジャイロスコープ、動きセンサ、及び/又はそれらの組み合わせ等によって、装置のユーザ移動を指示するデータを受け取ることができる。 Device 14000, for example, an accelerometer, a direction sensor (e.g., compass), gyroscope, by a motion sensor, and / or combinations thereof, can receive data indicating the user mobile device. 装置14000は、ユーザ移動を指示するデータが、前のユーザ移動後の閾値間隔外で、ユーザ移動を指示するデータを受け取るかどうかを決定できる。 Device 14000, data indicating the user moves, the threshold distance outside the front after the user moves, can determine whether to receive the data for instructing the user movement. 例えば、装置14000は、ユーザ移動を指示する最後のデータ(例えば、装置を持ち上げること、ユーザの手首の移動を指示する動き等)以来、閾値期間が経過したかどうかを決定できる。 For example, device 14000, the last data (e.g., lifting the apparatus, the motion or the like to indicate the movement of the user's wrist) instructing user movement since, can determine whether the threshold period has elapsed. 前のユーザ移動後の閾値間隔外で、ユーザ移動を指示するデータを受け取ったことを装置14000が決定した場合、装置14000は、キャラクタユーザインターフェースオブジェクトをアニメーション化し、疲れを指示できる。 The threshold distance outside the front after the user moves, where the device 14000 that received the data indicating the user movement is determined, device 14000, animate the character user interface object, you can instruct fatigue. 例えば、ユーザインターフェースオブジェクト15904は、肢体部15906と15908を含む。 For example, a user interface object 15904 includes a limb portion 15906 and 15908. 装置14000は、キャラクタユーザインターフェースオブジェクト15904をアニメーション化し、1つ以上の肢体部15906と15908を垂らしてもよい。 Device 14000, a character user interface object 15904 animate may hanging one or more limb portions 15906 and 15908. いくつかの実施形態では、装置14000は、キャラクタユーザインターフェースオブジェクト15904をアニメーション化し、位置のシフト、身体的努力の描写等を行ってもよい。 In some embodiments, device 14000, a character user interface object 15904 animate, shift position, it may be carried out depiction like physical effort.

図14Pは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン16002を示す。 Figure 14P is a device 14000 shows an exemplary user interface screen 16002 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト16004等のキャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects such as a character user interface object 16004 on the display. キャラクタユーザインターフェースオブジェクト16004は、上記のように時刻を指示する。 Character user interface object 16004 indicates a time as described above.

装置14000は、タッチ感知面(例えば、タッチスクリーン)上のユーザコンタクトを指示するデータを受け取ることができる。 Device 14000, the touch sensitive surface (e.g., touch screen) can receive data indicating the user contact on. 装置14000は、ユーザコンタクトが、キャラクタユーザインターフェースオブジェクト16004上のユーザコンタクトに対応するかどうかを決定できる。 Device 14000 may be determined user contact, whether it corresponds to the user contact on the character user interface object 16004. いくつかの実施形態では、ユーザコンタクトは、キャラクタユーザインターフェースオブジェクトの位置におけるタッチスクリーン上であってもよい。 In some embodiments, the user contact may be on the touch screen at the position of the character user interface object. いくつかの実施形態では、ユーザは情報を入力し、カーソル又は他の指示器を操作し、表示されるキャラクタユーザインターフェースオブジェクトにコンタクトしてもよい。 In some embodiments, the user inputs the information by operating a cursor or other indicator, may be in contact with the character user interface objects displayed. 例えば、ユーザインターフェーススクリーン16002に示すように、ユーザは、タッチ16006でキャラクタユーザインターフェースオブジェクト16004にコンタクトできる。 For example, as shown in the user interface screen 16002, the user can contact the character user interface object 16004 touch 16006.

ユーザコンタクトが、キャラクタユーザインターフェースオブジェクト16004上のユーザコンタクトに対応することを装置14000が決定した場合、装置14000は、キャラクタユーザインターフェースオブジェクト16004をアニメーション化し、コンタクトに反応できる。 User contact, if the device 14000 that corresponds to the user contact on the character user interface object 16004 has been determined, the device 14000, a character user interface object 16004 animate, can react to the contact. いくつかの実施形態では、反応は、キャラクタユーザインターフェースオブジェクト上のコンタクト位置に固有であってもよい。 In some embodiments, the reaction may be specific to the contact position on the character user interface object. いくつかの実施形態では、反応は一般的な反応であってもよい。 In some embodiments, the reaction may be general reactions. いくつかの実施形態では、反応は、例えば、くすぐること、ハグすること、又は他の形態の親しげなコンタクトについての反応を含んでいてもよい。 In some embodiments, the reaction is, for example, tickle it, to hug, or other reactions may include for the parent Shige contact form. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクト16004は、第2のユーザコンタクトに応じて、第1のアニメーションとは別の第2のアニメーションを表示できる。 In some embodiments, a character user interface object 16004, in response to a second user contact, the first animation to show another second animation.

図14Qは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン16102と16202を示す。 Figure 14Q shows an apparatus 14000 and a typical user interface screen 16102 can be displayed on the display 16202. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト16104をディスプレイに表示できる。 Device 14000 can display character user interface object 16104 on the display. キャラクタユーザインターフェースオブジェクト16104は、上記のように時刻を指示する。 Character user interface object 16104 indicates a time as described above. 図14Qに示すように、いくつかの実施形態では、キャラクタユーザインターフェースオブジェクト16104は、あくび等の顔の表情を描写できる。 As shown in FIG. 14Q, in some embodiments, a character user interface object 16104 may depict facial expressions yawning like. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクト16204は、表示されるユーザインターフェースオブジェクト、若しくは発話バルーン16206又は思考バルーンを表現するアフォーダンス内にテキストを提示すること等で発話を描写できる。 In some embodiments, a character user interface object 16204 may depict utterance like to present text in affordance representing the user interface object or speech balloon 16206 or thought balloon that appears. 発話を描写し、図14Kのキャラクタユーザインターフェースオブジェクト15504を参照しながら上で説明したように、時間のアナウンス等の、キャラクタユーザインターフェースオブジェクトによって行われるアナウンスを視覚的に提示できる。 Depict utterance, as described above with reference to the character user interface object 15504 in Figure 14K, announcements such time, an announcement made by the character user interface object can be visually presented.

図14Rは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン16302と16402を示す。 Figure 14R shows an apparatus 14000 and a typical user interface screen 16302 can be displayed on the display 16402. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト16304を表示できる。 Device 14000 can display character user interface object 16304. キャラクタユーザインターフェースオブジェクト16304は、上記のように時刻を指示する。 Character user interface object 16304 indicates a time as described above. 図14Rに示すように、いくつかの実施形態では、キャラクタユーザインターフェースオブジェクト16304は、上記のように、退屈又は疲れを描写できる。 As shown in FIG. 14R, in some embodiments, a character user interface object 16304, as described above, can depict boredom or fatigue. いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトは、服装を描写できる。 In some embodiments, a character user interface object can describe clothing. 例えば、キャラクタユーザインターフェースオブジェクト16404は、上記のように、ユーザの好きなスポーツチームを表現するもの等、スポーツチーム又はスポーツオブジェクト(例えば、野球ボール16406及びバット16408)を描写できる。 For example, the character user interface object 16404, as described above, such as those that represent your favorite sports team of the user, can depict the sports teams or sports object (for example, baseball 16406 and bat 16408).

図14Sは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン16502を示す。 Figure 14S, the device 14000 is shown an exemplary user interface screen 16502 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクト16504を表示できる。 Device 14000 can display character user interface object 16504. キャラクタユーザインターフェースオブジェクト16504は、上記のように時刻を指示する。 Character user interface object 16504 indicates a time as described above. 図14Sに示すように、いくつかの実施形態では、キャラクタユーザインターフェースオブジェクト16504は、1つ以上の目を瞬きする、閉じる、又はウインクすること等の顔の表情を描写できる。 As shown in FIG. 14S, in some embodiments, a character user interface object 16504, the blink one or more eyes, closed, or depict facial expressions such wink that. キャラクタインターフェースオブジェクトは、所定の又はランダムな間隔で顔の表情を変化させ、インターフェースがまだ動作中であることの指示をユーザに提供できる。 Character interface object changes the facial expression in the predetermined or random intervals, it can provide an indication that the interface is still in operation to the user.

図14Tは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン16602を示す。 Figure 14T is a device 14000 shows an exemplary user interface screen 16602 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of. 装置14000は、キャラクタユーザインターフェースオブジェクトをディスプレイに表示できる。 Device 14000 can display character user interface objects on a display. 表示されるキャラクタユーザインターフェースオブジェクトは、上記のように時刻を指示する。 Character user interface objects displayed indicates the time as described above. 図14Tに示すように、いくつかの実施形態では、キャラクタユーザインターフェースオブジェクトは、上記のように、肢体部の第2の終点と第2の肢体部の第2の終点等のうちの1つ以上の終点を含む。 As shown in FIG. 14T, in some embodiments, a character user interface object, as described above, one or more of such second end point and a second end point of the second limb portion of the limb portion including the end point. いくつかの実施形態では、第1の肢体部の第2の終点16604は、時間を指示し、第1の円16606の外周に沿って配置される。 In some embodiments, the second end point 16604 of the first limb portion instructs the time, are arranged along the outer periphery of the first circle 16606. 第2の肢体部の第2の終点16608は、分を指示し、第1の円16606を取り囲み、第1の円16606より大きな外周を有する第2の円16610の外周に沿って配置される。 The second end point 16608 of the second limb portion instructs the minutes surrounds the first circle 16606, are disposed along the outer circumference of the second circle 16610 having a larger outer periphery than the first circle 16606. このように、ユーザは、ディスプレイのエッジ部、又は1つ以上の表示される数値指示の時刻への相対的な近さによって、どの肢体部が時間を指示し、どの肢体部が分を指示するかを区別できる。 In this way, the user, the edge portion of the display, or by the relative proximity to one or more of the displayed numerically indicated time, which limb unit instructs the time, which limb unit instructs the partial or it can be distinguished.

いくつかの実施形態では、装置(装置14000等)は、ユーザ入力を検出し、ユーザ入力に応じて、キャラクタユーザインターフェースオブジェクトを表示できる。 In some embodiments, device (device 14000, etc.) detects the user input, in response to user input, may display the character user interface object. 例えば、装置のディスプレイは、別の表示を示すことも、暗状態であってもよく、その後、ユーザ入力に応じて、スクリーンにユーザインターフェースオブジェクトを表示できる。 For example, display devices, to show another display also may be in the dark state, then, in response to user input, may display a user interface object on the screen. いくつかの実施形態では、ユーザ入力は装置の移動(例えば、装置を持ち上げること、ユーザの手首の移動を指示する動き等)であってもよい。 In some embodiments, the movement of the user input device (for example, lifting the apparatus, the motion for instructing the movement of the user's wrist) may be used. いくつかの実施形態では、ユーザ入力は、タッチ感知面(例えば、タッチスクリーン)上のタッチであってもよい。 In some embodiments, the user input, the touch sensitive surface (e.g., a touch screen) may be a touch on.

ここで図14Uを参照すると、ユーザは、パーソナル電子装置に依存して、その日を通して時間を管理する。 Referring to FIG. 14U where the user, depending on the personal electronic device, to manage the time throughout the day. パーソナル電子装置とのユーザ対話を促進するインタラクティブなユーザインターフェースをユーザに提供することが、ますます望ましくなっている。 Providing an interactive user interface to facilitate the user interaction with the personal electronic device users has become increasingly desirable. 基数ベースのユーザインターフェースによって時刻を指示することは、装置とのユーザ対話を改善できる。 To instruct the time by radix-based user interface can improve the user interaction with the device. 簡単で直感的な時刻管理のために適切な基数をなお提供しながら、インターフェーススクリーンの単純さのレベルを向上させることは、表示される追加の情報に対して、小さな装置上で利用可能な空間を増大させ、装置とのユーザ対話を改善し、引き延ばす。 Simple while providing still intuitive appropriate radix for time management, to improve the level of simplicity of the interface screen for additional information to be displayed, the space available in a small device on the increase, improve user interaction with the device, stretching.

したがって、4つの基数をフィーチャする時計文字盤を含むコンテキスト特化ユーザインターフェースが本明細書では提供される。 Therefore, the context specialized user interface including a clock face that features four groups are provided herein. ユーザは、このような基数ベースのユーザインターフェースが、容易に読み取り可能であり、追加の情報に対して適切な空間を(特に四角形のスクリーンの四隅において)残して欲しい場合がある。 User, such cardinality-based user interface, easily is readable and may want to leave a suitable space (especially in rectangular screen corner) for additional information.

図14Uは、装置14000がそのディスプレイに表示可能な典型的なユーザインターフェーススクリーン16702を示す。 Figure 14U, the device 14000 is shown an exemplary user interface screen 16702 which can be displayed on its display. いくつかの実施形態では、装置14000は、装置100(図1)、300(図3)、及び/又は500(図5)のうちの1つ以上であってもよい。 In some embodiments, device 14000, device 100 (FIG. 1), 300 (FIG. 3), and / or 500 may be (Fig. 5) one or more of.

装置14000は、1つ以上の基数を備える時計文字盤を含むインターフェース16702を表示できる。 Device 14000 can display interface 16702 including clock face with one or more groups. 時計文字盤は、時針、分針、及び秒針をフィーチャするアナログ時計の表現であってもよい。 Clock face is an hour hand, a minute hand, and may be a representation of the analog clock that features a second hand. 基数は、従来、時計文字盤に現れる12個の数字の1つにそれぞれ対応でき、それらは、時計文字盤上のそれぞれの数字の通常の位置に対応して、ディスプレイ上の位置に現れてもよい。 Radix, conventionally, respectively can correspond to one of the twelve numbers appearing in the clock face, they, in correspondence with the normal position of each number of the timepiece on the dial, also appear in position on the display good. 例えば、数字「12」はディスプレイの中央上に現れ、数字「3」は中央右に現れ、数字「6」は中央下に現れ、数字「9」は中央左に現れてもよい。 For example, the number "12" appears on the center of the display, the number "3" appears in the center right, the number "6" appears in the lower center, the number "9" may appear in the center left. いくつかの実施形態では、3つだけ又は2つだけ等の、4つの基数より少ない数を用いてもよい。 Several In embodiments, such as only or only two three, may be used fewer than four radix. いくつかの実施形態では、「12」、「3」、「6」、及び「9」以外の数を用いてもよく、例えば、インターフェース16702は、数字「10」、「2」、及び「6」だけをフィーチャする時計文字盤を表示できる。 In some embodiments, "12", "3", "6", and may be used a number other than "9", for example, the interface 16702 is the number "10", "2", and "6 "only capable of displaying the clock face to feature.

いくつかの実施形態では、インターフェース16702に表示される基数は、十分大きなサイズで表示し、従来の時計文字盤の12個全ての数字が、同じサイズで装置14000のディスプレイに同時に表示できなくてもよい。 In some embodiments, base that appears in the interface 16702 is displayed in a sufficiently large size, all 12 digits of the conventional clock face is even not be displayed simultaneously on the display of the device 14000 of the same size good. したがって、それらのより大きなサイズのために、表示される基数は少ない数の方が読みやすくなる場合がある。 Therefore, due to their larger size, radix that is displayed in some cases towards the small number easier to read. いくつかの実施形態では、追加の数字を表示するために十分な空間が利用可能であっても、表示される基数の数は12未満に維持され、単純さを維持する。 In some embodiments, be available a sufficient space to display the additional digits, the number of radix to be displayed is maintained below 12, to maintain simplicity.

いくつかの実施形態では、ユーザは、基数ベースのインターフェースのフォント設定及び色設定を修正できる。 In some embodiments, the user may modify the font setting and color setting radix-based interface. いくつかの実施形態では、異なるフォントを用いて、表示される基数の1つ以上をレンダリングできる。 In some embodiments, using different fonts, render one or more of the groups to be displayed. 全ての基数に対して同じフォントを用いてもよく、1つ以上の数字に対して異なるフォントを用いてもよい。 It may be used the same font for all groups may use different font for one or more digits. いくつかの実施形態では、用いられるフォントは、装置14000のオペレーティングシステムのデフォルトフォントであるシステムフォントである。 In some embodiments, the font used is a system font is a default font of the operating system of the device 14000. いくつかの実施形態では、デフォルトのシステムフォントの修正又は定型化を反映した他のフォントが利用可能である。 In some embodiments, the default system font other font that reflects the modified or stylized are available. 例えば、システムフォントの影付きの定型化、システムフォントの円形の定型化、システムフォントの縞模様の定型化、システムフォントのステンシル定型化、システムフォントのエンボス加工定型化、システムフォントの肉太の定型化、システムフォントの斜体の定型化を反映したフォントを使用できる。 For example, shaded stylized system font, circular stylized system font, stylized striped system font, stencil stylized system fonts, system font embossing stylized, the system font bold boilerplate of the font that reflects the italic stylized system font may be used. システムフォントの定型化を、システムフォントに無関係なフォントの代わりに又はそれに加えて用いることもできる。 The stylized system fonts can be used in place of unrelated font to the system font or in addition to. システムフォントの定型化を用いて、装置のインターフェースを一貫したルックアンドフィールを生成しながら、なおユーザはフォントをカスタマイズできる。 Using routine of the system font, while generating a consistent look and feel the interface of the device, yet the user can customize the font.

いくつかの実施形態では、異なる色がユーザによって選択され、全ての基数又は個々の基数の1つに適用できる。 In some embodiments, different colors selected by the user, can be applied to one of every base or individual base. いくつかの実施形態では、ユーザは、1つ以上の基数又は全ての基数に適用する色テーマを選択でき、そのテーマは、互いに対応するように事前に決定された色のキュレーションされた選択であってもよい。 In some embodiments, the user may select a color scheme to be applied to one or more groups or all groups, the theme is selected which is curated color determined in advance so as to correspond to each other it may be. いくつかの実施形態では、ユーザはオプションを選択し、1つ以上の基数にグラジエント色スキームを適用できる。 In some embodiments, the user selects an option, it can be applied a gradient color scheme to one or more base. いくつかの実施形態では、ユーザはオプションを選択し、1つ以上の基数に色設定を適用し、所定のスケジュール又はコンテキストファクタに従って、1つ以上の基数の色を時間的に変化させる。 In some embodiments, the user selects the option to apply the color settings to one or more base, according to a predetermined schedule or context factor, changing the color of one or more base time.

いくつかの実施形態では、ユーザは、編集インターフェースから装置のフォント設定又は色設定を行ってもよい。 In some embodiments, the user may perform font settings or color setting device from the editing interface. 例えば、ユーザは、インターフェース16702の時計文字盤を強く押し、編集状態を起動できる。 For example, the user may press strongly the clock face of the interface 16702, can start the editing state. 編集インターフェースでは、ユーザは、時計文字盤又は所定の基数をタップし、1つ以上の基数を選択できる。 The editing interface, the user may tap the clock face or a predetermined radix, select one or more base. 選択された1つ以上の基数は、より大きなサイズで表示されることを含む任意の適切な方法で強調され、1つ以上の基数が編集用に選択されたことを指示する。 The selected one or more groups are is highlighted in any suitable manner, including that it is displayed at a larger size, one or more groups to indicate that selected for editing. 1つ以上の基数が編集用に選択されている間、ユーザは、装置14000の回転可能入力機構を回転させ、設定内をスクロールすることで、フォント又は色設定を変更できる。 While one or more groups is selected for editing, the user rotates the rotatable input mechanism of the device 14000, by scrolling through the setting, can change the font or color settings. 設定は、整列順に配置され、ユーザは利用可能な選択内をスクロールできる。 Settings are arranged in alignment order, the user can scroll through the choices available. いくつかの実施形態では、整列順は、一方の端から他方までループし、ユーザが整列順の最後の設定に到達すると、同じ方向で整列順の第1の設定に進むことができる。 In some embodiments, the alignment order of loops from one end to the other, when the user reaches the alignment order of the last set, can proceed to a first set of aligned forward in the same direction.

いくつかの実施形態では、編集インターフェースにおいて、ページングドットがインターフェースの上部に現れ、編集インターフェースで異なるページが何ページ利用可能であるかをユーザに指示する。 In some embodiments, in the editing interface, the paging dots appear on top of the interface, different pages in the editing interface to indicate how many pages available to the user. 例えば、編集インターフェースは、色編集用の第1のページとフォント編集用の第2のページの2つのページを有してもよい。 For example, editing interface may have two pages in the second page of the first page and font editing for color editing. 上記のように、ユーザは、ページの1つの編集用に1つ以上の基数を選択でき、回転可能入力機構を用いて設定を変更できる。 As described above, the user can select one or more groups for one edit page settings can be changed by using a rotatable input mechanism. それから、ユーザは、装置14000によって検出される水平スワイプ入力を実行し、次のページにページ移動できる。 Then, the user performs a horizontal swipe input detected by the device 14000 can page to the next page. 例えば、左端のページが色編集用のページであれば、ユーザは、左にスワイプし、右にページ移動し、フォント編集用のページにアクセスできる。 For example, if a page for color editing the left edge of the page, the user can swipe to the left, the page moves to the right, can access the page for font editing. フォント編集ページでは、ユーザは、上記と同様の方法でフォント設定を編集できる。 The font editing page, the user can edit the font settings in the same manner as described above. いくつかの実施形態では、編集用の1つ以上の基数の選択は、ユーザが編集インターフェース内でページ間を移動しているときは維持されるが、他の実施形態では、ユーザがページを移動すると選択はクリアされる。 In some embodiments, selection of one or more groups for editing, but is maintained when the user is moving between pages in editing interface movement, in other embodiments, a user page Then selection is cleared.

いくつかの実施形態では、編集インターフェースは、追加の設定を編集するための追加のページを含んでいてもよく、回転可能入力機構の回転に応じて、インターフェースの1つ以上の設定(情報密度設定等)を変更することもでき、編集用に選択されたいずれかの基数を有する必要はない。 In some embodiments, editing interface may include additional page to edit additional settings, in accordance with the rotation of the rotatable input mechanism, one or more settings of the interface (information density setting etc.) can also change, you need not have any radix selected for editing.

いくつかの実施形態では、インターフェース16702は、時計文字盤に加えて、ユーザに情報を提示するコンプリケーション等の、1つ以上の他のユーザインターフェースオブジェクトを表示できる。 In some embodiments, the interface 16702, in addition to the clock face, the complications such as presenting information to the user, can display one or more other user interface objects. いくつかの実施形態では、表示されるコンプリケーションは、上記の方法に従ってユーザによってカスタマイズされる。 In some embodiments, complications to be displayed is customized by the user according to the methods described above. いくつかの実施形態では、コンプリケーションは、隅等、インターフェース16702の所定の位置に表示される。 In some embodiments, complications are corners, etc., it is displayed at a predetermined position of the interface 16702. 基数がその空間を占有しないため、インターフェース16702の隅に、コンプリケーションをクリアに邪魔されずに表示するたに十分な空間があってもよい。 Since radix does not occupy the space, in the corner of the interface 16702, there may be enough space in addition to displaying undisturbed a complication clear. いくつかの実施形態では、インターフェース16702は、コンプリケーションがない場合又は他のユーザインターフェースオブジェクトをフィーチャしてもよく、基数だけの時計文字盤をフィーチャしてもよい。 In some embodiments, the interface 16702 may also be a feature of the case where there is no complications or other user interface objects may feature only the clock face radix.
2. 2. コンテキスト特化ユーザインターフェースの編集 Editing of context-specific user interface

本明細書において説明及び図示されている各コンテキスト特化ユーザインターフェースは、特定の文脈に応じてユーザがカスタマイズし得る数多くの要素と機能を提供するものである。 Each context specific user interface described and illustrated herein is to provide a large number of elements and functions which a user may customized according to the particular context. 前述のようにこれらカスタマイズ可能な要素は各ユーザインターフェースを向上し、ユーザにとってより個人的かつ双方向にするものである。 These customizable element as described above to improve the user interface, is to more personal and interactive for the user.

同時にユーザは更に容易かつ直観的に使用し得る装置を求める。 At the same time the user obtains a device that can be used more easily and intuitively. ユーザインターフェースがこれら機能を分かりやすく編集する方法を提供するものでない限り、数多くの機能を提供することはただユーザをイライラさせることになりかねない。 Unless the user interface is not intended to provide a method for editing clarity these functions, it could lead to annoy just user to provide a number of functions. ユーザによるカスタマイズを可能にする容易かつ直観的な方法を提供する、コンテキスト特化ユーザインターフェースを編集するための各ユーザインターフェースについて以下に説明する。 It provides an easy and intuitive way to allow user customization, is described below for each user