JP7236585B2 - User interface for voice messages - Google Patents

User interface for voice messages Download PDF

Info

Publication number
JP7236585B2
JP7236585B2 JP2022125792A JP2022125792A JP7236585B2 JP 7236585 B2 JP7236585 B2 JP 7236585B2 JP 2022125792 A JP2022125792 A JP 2022125792A JP 2022125792 A JP2022125792 A JP 2022125792A JP 7236585 B2 JP7236585 B2 JP 7236585B2
Authority
JP
Japan
Prior art keywords
user interface
external devices
devices
external
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022125792A
Other languages
Japanese (ja)
Other versions
JP2022180346A (en
Inventor
アンドリュー スンヒョン キム,
パトリック エル. コフマン,
リサ ケー. クヴァルダ,
ジャレッド ケー. マクガン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DKPA202070617A external-priority patent/DK202070617A1/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2022180346A publication Critical patent/JP2022180346A/en
Priority to JP2023028786A priority Critical patent/JP2023088908A/en
Application granted granted Critical
Publication of JP7236585B2 publication Critical patent/JP7236585B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Telephone Function (AREA)
  • Circuits Of Receivers In General (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
  • Digital Computer Display Output (AREA)
  • Telephonic Communication Services (AREA)

Description

(関連出願の相互参照)
本出願は、2020年5月11日に出願され、「USER INTERFACE FOR AUDIO MESSAGE」と題された米国仮特許出願第63/023,225号に関するものであり、その内容は参照によりその全体が本明細書に組み込まれる。
(Cross reference to related applications)
This application is related to U.S. Provisional Patent Application No. 63/023,225, filed May 11, 2020, entitled "USER INTERFACE FOR AUDIO MESSAGE," the contents of which are hereby incorporated by reference in its entirety. incorporated into the specification.

本開示は、概して、コンピュータユーザインタフェースに関し、より具体的には、音声メッセージを管理するための技術に関する。 TECHNICAL FIELD This disclosure relates generally to computer user interfaces, and more specifically to techniques for managing voice messages.

ユーザは、英数字文字を使用して、他のユーザと通信するためにインスタントメッセージを送信する。このようなメッセージング技術は、典型的には、ユーザがキーボードを使用して文字を入力するか、又はデバイスがその後に送信される文字に音声を音声表記することを必要とする。ユーザは、モバイル機器を使用して外部デバイスと対話する。このような双方向作用は、多くの場合、煩雑であり、ユーザが複数の外部デバイスと個別に対話することを必要とする。 Users use alphanumeric characters to send instant messages to communicate with other users. Such messaging techniques typically require the user to enter characters using a keyboard or the device to transliterate the sound into characters that are subsequently sent. A user uses a mobile device to interact with an external device. Such interactions are often cumbersome and require the user to individually interact with multiple external devices.

電子デバイスを使用して音声メッセージを管理するための現在の技術は、概して煩雑であり、非効率である。例えば、一部の既存の技術では、複数回のキー押下又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。後者の問題は、バッテリ動作式デバイスにおいては特に重大である。 Current techniques for managing voice messages using electronic devices are generally cumbersome and inefficient. For example, some existing technologies use complex and time-consuming user interfaces that may involve multiple key presses or keystrokes. Existing techniques take longer than necessary, wasting user time and device energy. The latter problem is particularly acute in battery operated devices.

したがって、本技術は、音声メッセージを管理するための、より速く、より効率的な方法及びインタフェースを電子デバイスに提供する。そのような方法及びインタフェースは、メッセージを管理するための他の方法を任意選択的に補完する又は置き換える。そのような方法及びインタフェースは、ユーザにかかる認識的負担を低減させ、より効率的なヒューマン-マシンインタフェースを作成する。バッテリ動作式コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、バッテリ充電の間隔を長くする。そのような方法及びインタフェースは、メッセージの単なる言葉ではなくメッセージの階調(例えば、重要性、重大性、皮肉さ、悲しさ、陽気さ)を含むメッセージを送信することを可能にし、受信者が、スピーカの独自の音声によってメッセージのスピーカを認識することを可能にする。このような方法及びインタフェースはまた、キーボードを使用して入力を提供する、又は入力を使用して音声表記を訂正する必要性を低減又は排除する。 Accordingly, the present technology provides electronic devices with faster, more efficient methods and interfaces for managing voice messages. Such methods and interfaces optionally supplement or replace other methods for managing messages. Such methods and interfaces reduce the cognitive burden placed on users and create more efficient human-machine interfaces. For battery-operated computing devices, such methods and interfaces conserve power and increase intervals between battery charges. Such methods and interfaces allow sending messages that contain the tone of the message (e.g., importance, seriousness, sarcasm, sadness, hilarity) rather than just the words of the message, allowing the recipient to , allows to recognize the speaker of a message by the speaker's unique voice. Such methods and interfaces also reduce or eliminate the need to use a keyboard to provide input or use input to correct phonetic transcriptions.

モバイル機器で外部デバイスの状態を管理するための現在の技術は、概して煩雑であり、非効率である。例えば、一部の既存の技術では、複数回のキー押下又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。後者の問題は、バッテリ動作式デバイスにおいては特に重大である。 Current techniques for managing the state of external devices on mobile devices are generally cumbersome and inefficient. For example, some existing technologies use complex and time-consuming user interfaces that may involve multiple key presses or keystrokes. Existing techniques take longer than necessary, wasting user time and device energy. The latter problem is particularly acute in battery operated devices.

したがって、本技術は、外部デバイスを管理するための、より速く、より効率的な方法及びインタフェースを電子デバイスに提供する。そのような方法及びインタフェースは、任意選択的に、ユーザが、単一の入力を介して、個々の外部デバイスを管理するか、又は外部デバイスを同時に管理することを可能にするなどの、外部デバイスを管理するための他の方法を補完するか、又は置き換える。そのような方法及びインタフェースは、ユーザにかかる認識的負担を低減させ、より効率的なヒューマン-マシンインタフェースを作成する。バッテリ動作式コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、バッテリ充電の間隔を長くする。 Accordingly, the present technology provides electronic devices with faster, more efficient methods and interfaces for managing external devices. Such methods and interfaces optionally control external devices, such as allowing a user to manage individual external devices or manage external devices simultaneously via a single input. complements or replaces other methods of managing Such methods and interfaces reduce the cognitive burden placed on users and create more efficient human-machine interfaces. For battery-operated computing devices, such methods and interfaces conserve power and increase intervals between battery charges.

一部の実施形態によれば、方法が記載される。本方法は、ディスプレイ生成構成要素と通信するコンピュータシステムで実行される。本方法は、ディスプレイ生成構成要素を介して、第1の選択可能なユーザインタフェースオブジェクト対象であって、第1の選択可能なユーザインタフェースオブジェクト対象の選択は、1組の外部デバイスに第1の音声メッセージを記録し、送信するためのプロセスを開始するものであって、1組の外部デバイスは、1つ以上の外部デバイスの第1の1組と1つ以上の外部デバイスの第2の1組、及び第1の外部アクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象を含むものであって、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第1の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始させることを含む、第1のユーザインタフェースを表示することと、第1のユーザインタフェースを表示している間に、第2のユーザインタフェースを表示する要求に対応する入力を受信することと、第2のユーザインタフェースを表示する要求の受信に応答して、第2のユーザインタフェースを表示することであって、第2のユーザインタフェースは、第2の選択可能なユーザインタフェースオブジェクト対象であって、第2の選択可能なユーザインタフェースオブジェクト対象の選択は、第2の音声メッセージを1つ以上の外部デバイスの第1の1組に送信することなく1つ以上の外部デバイスの第2の1組に第2の音声メッセージを記録し、送信するためのプロセスを開始すること、及び第2の外部アクセサリデバイスに対応する第2のアクセサリ制御ユーザインタフェースオブジェクト対象を含むものであって、第2のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第2の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始することを含む、表示することとを含む。 According to some embodiments, a method is described. The method is performed on a computer system in communication with a display generation component. The method comprises, via a display generation component, a first selectable user interface object target, wherein selection of the first selectable user interface object target causes a set of external devices to generate a first audio. Initiating a process for recording and transmitting messages, wherein the set of external devices comprises a first set of one or more external devices and a second set of one or more external devices , and a first accessory control user interface object target corresponding to the first external accessory device, wherein selection of the first accessory control user interface object target changes the state of the first external accessory device. displaying a first user interface, including initiating a process of sending an instruction to do so; and, while displaying the first user interface, an input corresponding to a request to display a second user interface and displaying the second user interface in response to receiving a request to display the second user interface, the second user interface being the second selectable user interface object target, the selection of the second selectable user interface object target is performed on the one or more external devices without transmitting a second voice message to the first set of one or more external devices; Initiating a process for recording and transmitting a second voice message to the second set; and a second accessory control user interface object object corresponding to the second external accessory device. , displaying, wherein selection of the second accessory control user interface object target includes initiating a process of sending an instruction to change the state of the second external accessory device.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、ディスプレイ生成構成要素と通信するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ生成構成要素を介して、第1の選択可能なユーザインタフェースオブジェクト対象であって、第1の選択可能なユーザインタフェースオブジェクト対象の選択は、1組の外部デバイスに第1の音声メッセージを記録し、送信するためのプロセスを開始するものであって、1組の外部デバイスは、1つ以上の外部デバイスの第1の1組と1つ以上の外部デバイスの第2の1組、及び第1の外部アクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象を含むものであって、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第1の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始させることを含む、第1のユーザインタフェースを表示し、第1のユーザインタフェースを表示している間に、第2のユーザインタフェースを表示する要求に対応する入力を受信し、第2のユーザインタフェースを表示する要求の受信に応答して、第2のユーザインタフェースを表示することであって、第2のユーザインタフェースは、第2の選択可能なユーザインタフェースオブジェクト対象であって、第2の選択可能なユーザインタフェースオブジェクト対象の選択は、第2の音声メッセージを1つ以上の外部デバイスの第1の1組に送信することなく1つ以上の外部デバイスの第2の1組に第2の音声メッセージを記録し、送信するためのプロセスを開始すること、及び第2の外部アクセサリデバイスに対応する第2のアクセサリ制御ユーザインタフェースオブジェクト対象を含むものであって、第2のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第2の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始することを含む、表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system in communication with the display generating component, the one or more programs Via the generation component, selection of a first selectable user interface object target, the first selectable user interface object target recording a first voice message on a set of external devices; a set of external devices, a first set of one or more external devices and a second set of one or more external devices, and a first set of one or more external devices; Including a first accessory control user interface object target corresponding to the external accessory device, wherein selection of the first accessory control user interface object target sends an instruction to change the state of the first external accessory device. displaying a first user interface comprising initiating a process; receiving input corresponding to a request to display a second user interface while displaying the first user interface; displaying a second user interface in response to receiving a request to display a user interface, the second user interface being a second selectable user interface object subject to a second The selection of the selectable user interface object target communicates a second voice message to the second set of one or more external devices without transmitting the second voice message to the first set of one or more external devices. Initiating a process for recording and sending a voice message and a second accessory control user interface object object corresponding to a second external accessory device, the second accessory control user interface object The selection of the target includes an instruction to display, including initiating a process of sending an instruction to change the state of the second external accessory device.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、ディスプレイ生成構成要素と通信するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ生成構成要素を介して、第1の選択可能なユーザインタフェースオブジェクト対象であって、第1の選択可能なユーザインタフェースオブジェクト対象の選択は、1組の外部デバイスに第1の音声メッセージを記録し、送信するためのプロセスを開始するものであって、1組の外部デバイスは、1つ以上の外部デバイスの第1の1組と1つ以上の外部デバイスの第2の1組、及び第1の外部アクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象を含むものであって、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第1の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始させることを含む、第1のユーザインタフェースを表示し、第1のユーザインタフェースを表示している間に、第2のユーザインタフェースを表示する要求に対応する入力を受信し、第2のユーザインタフェースを表示する要求の受信に応答して、第2のユーザインタフェースを表示することであって、第2のユーザインタフェースは、第2の選択可能なユーザインタフェースオブジェクト対象であって、第2の選択可能なユーザインタフェースオブジェクト対象の選択は、第2の音声メッセージを1つ以上の外部デバイスの第1の1組に送信することなく1つ以上の外部デバイスの第2の1組に第2の音声メッセージを記録し、送信するためのプロセスを開始すること、及び第2の外部アクセサリデバイスに対応する第2のアクセサリ制御ユーザインタフェースオブジェクト対象を含むものであって、第2のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第2の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始することを含む、表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system in communication with the display generating component, the one or more programs Via the component, a first selectable user interface object target, wherein selection of the first selectable user interface object target records and transmits a first voice message to a set of external devices. wherein the set of external devices comprises a first set of one or more external devices and a second set of one or more external devices and a first external A process including a first accessory control user interface object target corresponding to the accessory device, wherein selection of the first accessory control user interface object target sends an instruction to change the state of the first external accessory device. displaying a first user interface, while displaying the first user interface, receiving input corresponding to a request to display a second user interface; displaying a second user interface in response to receiving a request to display an interface, the second user interface being a second selectable user interface object subject to the second selection; A selection of possible user interface object targets is to send a second voice to a second set of one or more external devices without sending a second voice message to the first set of one or more external devices. Initiating a process for recording and sending a message and a second accessory control user interface object object corresponding to a second external accessory device, the second accessory control user interface object object. Selecting the display includes initiating a process of sending an instruction to change the state of the second external accessory device.

いくつかの実施形態によれば、コンピュータシステムが記載される。コンピュータシステムは、1つ以上のプロセッサであって、コンピュータがディスプレイ生成構成要素と通信するものと1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリとを備え、1つ以上のプログラムは、ディスプレイ生成構成要素を介して、第1の選択可能なユーザインタフェースオブジェクト対象であって、第1の選択可能なユーザインタフェースオブジェクト対象の選択は、1組の外部デバイスに第1の音声メッセージを記録し、送信するためのプロセスを開始するものであって、1組の外部デバイスは、1つ以上の外部デバイスの第1の1組と1つ以上の外部デバイスの第2の1組、及び第1の外部アクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象を含むものであって、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第1の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始させることを含む、第1のユーザインタフェースを表示し、第1のユーザインタフェースを表示している間に、第2のユーザインタフェースを表示する要求に対応する入力を受信し、第2のユーザインタフェースを表示する要求の受信に応答して、第2のユーザインタフェースを表示することであって、第2のユーザインタフェースは、第2の選択可能なユーザインタフェースオブジェクト対象であって、第2の選択可能なユーザインタフェースオブジェクト対象の選択は、第2の音声メッセージを1つ以上の外部デバイスの第1の1組に送信することなく1つ以上の外部デバイスの第2の1組に第2の音声メッセージを記録し、送信するためのプロセスを開始すること、及び第2の外部アクセサリデバイスに対応する第2のアクセサリ制御ユーザインタフェースオブジェクト対象を含むものであって、第2のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第2の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始することを含む、表示する、命令を含む。 According to some embodiments, a computer system is described. The computer system comprises one or more processors in which the computer communicates with the display generating component and a memory storing one or more programs configured to be executed by the one or more processors. , one or more programs, via a display generating component, a first selectable user interface object target, wherein selection of the first selectable user interface object target is transmitted to a set of external devices; Initiating a process for recording and transmitting a first voice message, wherein the set of external devices includes a first set of one or more external devices and a first set of one or more external devices. 2 and a first accessory control user interface object target corresponding to the first external accessory device, wherein selection of the first accessory control user interface object target corresponds to the first external accessory device displaying a first user interface, and responding to a request to display a second user interface while displaying the first user interface, including initiating a process of sending an instruction to change the state of and displaying a second user interface in response to receiving a request to display the second user interface, the second user interface being a second selectable user interface object target, the selection of the second selectable user interface object target is performed on the one or more external devices without transmitting a second voice message to the first set of one or more external devices; Initiating a process for recording and transmitting a second voice message to the second set; and a second accessory control user interface object object corresponding to the second external accessory device. , the selection of the second accessory control user interface object target includes initiating a process of sending an instruction to change the state of the second external accessory device.

いくつかの実施形態によれば、コンピュータシステムが記載される。コンピュータシステムは、コンピュータシステムと通信するディスプレイ生成構成要素を介して、第1の選択可能なユーザインタフェースオブジェクト対象であって、第1の選択可能なユーザインタフェースオブジェクト対象の選択は、1組の外部デバイスに第1の音声メッセージを記録し、送信するためのプロセスを開始するものであって、1組の外部デバイスは、1つ以上の外部デバイスの第1の1組と1つ以上の外部デバイスの第2の1組、及び第1の外部アクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象を含むものであって、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第1の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始させることを含む、第1のユーザインタフェースを表示するための手段と、第1のユーザインタフェースを表示している間に、第2のユーザインタフェースを表示する要求に対応する入力を受信するための手段と、第2のユーザインタフェースを表示する要求の受信に応答して、第2のユーザインタフェースを表示するための手段であって、第2のユーザインタフェースは、第2の選択可能なユーザインタフェースオブジェクト対象であって、第2の選択可能なユーザインタフェースオブジェクト対象の選択は、第2の音声メッセージを1つ以上の外部デバイスの第1の1組に送信することなく1つ以上の外部デバイスの第2の1組に第2の音声メッセージを記録し、送信するためのプロセスを開始するもの、及び第2の外部アクセサリデバイスに対応する第2のアクセサリ制御ユーザインタフェースオブジェクト対象を含むものであって、第2のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第2の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始させることを含む、手段とを備える。 According to some embodiments, a computer system is described. The computer system, via a display generating component in communication with the computer system, selects a first selectable user interface object target, the selection of the first selectable user interface object target being controlled by a set of external devices. a first set of one or more external devices and one or more external devices A second set and a first accessory control user interface object target corresponding to the first external accessory device, wherein selection of the first accessory control user interface object target corresponds to the first external accessory device. Means for displaying a first user interface comprising initiating a process of sending an instruction to change the state of the device; and displaying a second user interface while displaying the first user interface. means for receiving input corresponding to a request to display; and means for displaying the second user interface in response to receiving a request to display the second user interface, wherein the second user The interface is a second selectable user interface object target, wherein selection of the second selectable user interface object target outputs a second voice message to the first set of one or more external devices Initiating a process for recording and transmitting a second voice message to a second set of one or more external devices without transmission and a second accessory corresponding to the second external accessory device. a control user interface object target, wherein selection of the second accessory control user interface object target initiates a process of sending an instruction to change the state of the second external accessory device; Prepare.

一部の実施形態によれば、方法が記載される。本方法は、ディスプレイ生成構成要素と通信するコンピュータシステムで実行される。本方法は、第1のメディアに対応する第1のデータを受信することと、ディスプレイ生成構成要素を介して、第1の時間周期の端部まで、第1のメディアの示唆を有する第1の通知を表示することと、第1のデータを受信した後に、第2のメディアに対応する第2のデータを受信することであって、第2のメディアが第1のメディアとは異なる、第2のデータを受信することと、第2のメディアが1つ以上の基準の1組を満たすとの判定に従い、並びに(1)第2のデータが受信された時間、及び(2)第1のデータが受信された時間に基づく判定に従って、ディスプレイ生成構成要素を介して、第2の時間周期の端部まで、第1のメディアの示唆を有する第2の通知を表示することであって、第1の時間周期の端部が第2の時間周期の端部と異なる、第2の通知を表示することとを含む。 According to some embodiments, a method is described. The method is performed on a computer system in communication with a display generation component. The method includes receiving first data corresponding to a first media; displaying a notification; and receiving, after receiving the first data, second data corresponding to a second medium, the second medium being different than the first medium. and determining that the second media satisfies a set of one or more criteria, and (1) the time the second data was received, and (2) the first data displaying, via the display generating component, a second notification having an indication of the first media until the end of the second time period, according to the determination based on the time that the first displaying a second notification having a different time period end than the second time period end.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、ディスプレイ構成要素と通信するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、第1のメディアに対応する第1のデータを受信し、ディスプレイ生成構成要素を介して、第1の時間周期の端部まで、第1のメディアの示唆を有する第1の通知を表示し、第1のデータを受信した後に、第2のメディアに対応する第2のデータを受信することであって、第2のメディアが第1のメディアとは異なる、第2のデータを受信することと、第2のメディアが1つ以上の基準の1組を満たすとの判定に従い、並びに(1)第2のデータが受信された時間、及び(2)第1のデータが受信された時間に基づく判定に従って、ディスプレイ生成構成要素を介して、第2の時間周期の端部まで、第1のメディアの示唆を有する第2の通知を表示することであって、第1の時間周期の端部が第2の時間周期の端部と異なる、第2の通知を表示することとを含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system in communication with the display component, the one or more programs first receiving a first data corresponding to the media of, displaying, via the display generating component, a first notification having an indication of the first media until the end of the first time period; after receiving data, receiving second data corresponding to a second medium, wherein the second medium is different from the first medium; media satisfies a set of one or more criteria, and according to a determination based on (1) the time the second data was received, and (2) the time the first data was received; Displaying, via a display generating component, a second notification having the first media suggestion until the end of the second time period, the end of the first time period being the second Displaying a second notification different from the end of the time period.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、ディスプレイ構成要素と通信するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、第1のメディアに対応する第1のデータを受信し、ディスプレイ生成構成要素を介して、第1の時間周期の端部まで、第1のメディアの示唆を有する第1の通知を表示し、第1のデータを受信した後に、第2のメディアに対応する第2のデータを受信することであって、第2のメディアが第1のメディアとは異なる、第2のデータを受信することと、第2のメディアが1つ以上の基準の1組を満たすとの判定に従い、並びに(1)第2のデータが受信された時間、及び(2)第1のデータが受信された時間に基づく判定に従って、ディスプレイ生成構成要素を介して、第2の時間周期の端部まで、第1のメディアの示唆を有する第2の通知を表示することであって、第1の時間周期の端部が第2の時間周期の端部と異なる、第2の通知を表示することとを含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system in communication with the display component, the one or more programs receiving first data corresponding to media; displaying, via a display generating component, a first notification having an indication of the first media until the end of a first time period; receiving second data corresponding to a second medium, wherein the second medium is different from the first medium; and display according to a determination that the media satisfies a set of one or more criteria and according to a determination based on (1) the time the second data was received; and (2) the time the first data was received. Displaying, via the generating component, a second notification having the first media suggestion until the end of the second time period, the end of the first time period being the second time period. displaying a second notification different from the end of the cycle.

いくつかの実施形態によれば、コンピュータシステムが記載される。コンピュータシステムは、1つ以上のプロセッサであって、コンピュータシステムがディスプレイ構成要素と通信するものと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリとを備え、1つ以上のプログラムは、第1のメディアに対応する第1のデータを受信し、ディスプレイ生成構成要素を介して、第1の時間周期の端部まで、第1のメディアの示唆を有する第1の通知を表示し、第1のデータを受信した後に、第2のメディアに対応する第2のデータを受信することであって、第2のメディアが第1のメディアとは異なる、第2のデータを受信することと、第2のメディアが1つ以上の基準の1組を満たすとの判定に従い、並びに(1)第2のデータが受信された時間、及び(2)第1のデータが受信された時間に基づく判定に従って、ディスプレイ生成構成要素を介して、第2の時間周期の端部まで、第1のメディアの示唆を有する第2の通知を表示することであって、第1の時間周期の端部が第2の時間周期の端部と異なる、第2の通知を表示することとを含む。 According to some embodiments, a computer system is described. The computer system comprises one or more processors, with which the computer system communicates with the display component, and memory storing one or more programs configured to be executed by the one or more processors. wherein the one or more programs receive first data corresponding to the first media and, via the display generation component, have suggestions of the first media until the end of the first time period After displaying the first notification and receiving the first data, receiving second data corresponding to the second media, wherein the second media is different from the first media; 2 data and determining that the second media satisfies a set of one or more criteria; and (1) the time the second data was received, and (2) the first displaying a second notification having an indication of the first media until the end of the second time period via the display generation component according to a determination based on the time the data was received; displaying a second notification in which the end of the one time period is different than the end of the second time period.

いくつかの実施形態によれば、コンピュータシステムが記載される。コンピュータシステムは、第1のメディアに対応する第1のデータを受信するための手段と、コンピュータシステムと通信する生成構成要素を介して、第1の時間周期の端部まで、第1のメディアの示唆を有する第1の通知を表示するための手段と、第1のデータを受信した後に、第2のメディアに対応する第2のデータを受信するための手段であって、第2のメディアが第1のメディアとは異なる手段と、第2のメディアが1つ以上の基準の1組を満たすとの判定に従い、並びに第2のデータが受信された時間、及び(2)第1のデータが受信された時間に基づく判定に従って、ディスプレイ生成構成要素を介して、第2の時間周期の端部まで、第1のメディアの示唆を有する第2の通知を表示するための手段であって、第1の時間周期の端部が第2の時間周期の端部と異なる手段とを備える。 According to some embodiments, a computer system is described. The computer system, via means for receiving first data corresponding to the first medium, and a production component in communication with the computer system, until the end of the first time period, means for displaying a first notification having suggestions; and means for, after receiving the first data, receiving second data corresponding to second media, wherein the second media according to means different from the first media and determining that the second media meets a set of one or more criteria, and the time the second data is received; and (2) the first data is means for displaying, via the display generating component, a second notification having an indication of the first media until the end of the second time period according to the received time-based determination, the means for: and means for an end of one time period to differ from an end of the second time period.

一部の実施形態によれば、方法が記載される。本方法は、1つ以上のマイクロフォン、1つ以上のスピーカ、及び1つ以上のディスプレイ装置を有する電子デバイスで実行される。本方法は、1つ以上のマイクロフォンを介して音声入力を受信することと、音声入力の視覚的な指示を表示することであって、音声入力の一部が、1つ以上のディスプレイ装置を介して、表示する1つ以上のデバイスに送信される音声入力に対応するとの判定に従って、視覚的な指示は1つ以上の色の第1の1組を有する視覚的な指示を表示することを含み、音声入力が、1つ以上のディスプレイ装置を介して、表示する、音声入力の任意の部分を他のデバイスに送信する命令を含まないとの判定に従って、視覚的な指示は、1つ以上の色の第1の1組とは異なる1つ以上の色の第2の1組を表示することを含むこととを含む。 According to some embodiments, a method is described. The method is performed on an electronic device having one or more microphones, one or more speakers, and one or more display devices. The method includes receiving audio input via one or more microphones and displaying a visual indication of the audio input, a portion of the audio input via one or more display devices. the visual indication includes displaying the visual indication having a first set of one or more colors, according to the determination that the visual indication corresponds to the audio input sent to the one or more devices for displaying. , the audio input does not include instructions for displaying, via one or more display devices, transmitting any portion of the audio input to another device, the visual instructions may include one or more and displaying a second set of one or more colors different from the first set of colors.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、1つ以上のマイクロフォン、1つ以上のスピーカ、及び1つ以上のディスプレイ装置を有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、1つ以上のマイクロフォンを介して音声入力を受信し、音声入力の視覚的な指示を表示することであって、音声入力の一部が、1つ以上のディスプレイ装置を介して、表示する1つ以上のデバイスに送信される音声入力に対応するとの判定に従って、視覚的な指示は1つ以上の色の第1の1組を有する視覚的な指示を表示することを含み、音声入力が、1つ以上のディスプレイ装置を介して、表示する、音声入力の任意の部分を他のデバイスに送信する命令を含まないとの判定に従って、視覚的な指示は、1つ以上の色の第1の1組とは異なる1つ以上の色の第2の1組を有する視覚的な指示を表示することを含む、音声入力の視覚的な指示を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer readable storage medium configured to be executed by one or more processors of an electronic device having one or more microphones, one or more speakers, and one or more display devices. , one or more of the programs receiving audio input via one or more microphones and displaying visual indications of the audio input, a portion of the audio input being one The visual indication has a first set of one or more colors, according to a determination that it corresponds to audio input transmitted to one or more devices for display via one or more display devices. Visual, including displaying instructions, according to a determination that the audio input does not include instructions to transmit any portion of the audio input to another device for display via one or more display devices. The indication includes displaying a visual indication having a second set of one or more colors that is different than the first set of one or more colors. do, including instructions.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、1つ以上のマイクロフォン、1つ以上のスピーカ、及び1つ以上のディスプレイ装置を有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、1つ以上のマイクロフォンを介して音声入力を受信し、音声入力の視覚的な指示を表示することであって、音声入力の一部が、1つ以上のディスプレイ装置を介して、表示する1つ以上のデバイスに送信される音声入力に対応するとの判定に従って、視覚的な指示は1つ以上の色の第1の1組を有する視覚的な指示を表示することを含み、音声入力が、1つ以上のディスプレイ装置を介して、表示する、音声入力の任意の部分を他のデバイスに送信する命令を含まないとの判定に従って、視覚的な指示は、1つ以上の色の第1の1組とは異なる1つ以上の色の第2の1組を有する視覚的な指示を表示することを含む、音声入力の視覚的な指示を表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium is one or more processors configured to be executed by one or more processors of an electronic device having one or more microphones, one or more speakers, and one or more display devices. storing a program, one or more of which receive audio input via one or more microphones and display a visual indication of the audio input, wherein a portion of the audio input is The visual indication has a first set of one or more colors, according to a determination that it corresponds to voice input transmitted to one or more devices for display via the above display device. and according to a determination that the audio input does not include instructions to transmit any portion of the audio input to another device for display via one or more display devices. displays a visual indication of voice input, including displaying a visual indication having a second set of one or more colors different from the first set of one or more colors , including instructions.

いくつかの実施形態によれば、電子デバイスが記載される。電子デバイスは、1つ以上のマイクロフォンと、1つ以上のスピーカと、1つ以上のディスプレイ装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリを備え、1つ以上のプログラムは、1つ以上のマイクロフォンを介して音声入力を受信し、音声入力の視覚的な指示を表示することであって、音声入力の一部が、1つ以上のディスプレイ装置を介して、表示する1つ以上のデバイスに送信される音声入力に対応するとの判定に従って、視覚的な指示は1つ以上の色の第1の1組を有する視覚的な指示を表示することを含み、音声入力が、1つ以上のディスプレイ装置を介して、表示する、音声入力の任意の部分を他のデバイスに送信する命令を含まないとの判定に従って、視覚的な指示は、1つ以上の色の第1の1組とは異なる1つ以上の色の第2の1組を有する視覚的な指示を表示することを含む、音声入力の視覚的な指示を表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes one or more microphones, one or more speakers, one or more display devices, one or more processors, and one or more processors configured to be executed by the one or more processors. one or more of which is to receive audio input via one or more microphones and display a visual indication of the audio input; corresponds to audio input transmitted to one or more devices for display via one or more display devices, the visual indication has a first set of one or more colors comprising displaying visual instructions, according to a determination that the voice input does not include instructions to transmit any portion of the voice input to another device for display via one or more display devices; The visual indication includes displaying a visual indication having a second set of one or more colors different from the first set of one or more colors. Contain instructions to display instructions.

いくつかの実施形態によれば、電子デバイスが記載される。電子デバイスは、1つ以上のマイクロフォンと、1つ以上のスピーカと、1つ以上のディスプレイ装置と、1つ以上のマイクロフォンを介して音声入力を受信するための手段と、音声入力の視覚的な指示を表示する手段であって、音声入力の一部が、1つ以上のディスプレイ装置を介して、表示する1つ以上のデバイスに送信される音声入力に対応するとの判定に従って、視覚的な指示は1つ以上の色の第1の1組を有する視覚的な指示を表示することを含み、音声入力が、1つ以上のディスプレイ装置を介して、表示する、音声入力の任意の部分を他のデバイスに送信する命令を含まないとの判定に従って、視覚的な指示は、1つ以上の色の第1の1組とは異なる1つ以上の色の第2の1組を表示することを含む手段とを備える。 According to some embodiments, an electronic device is described. The electronic device comprises one or more microphones, one or more speakers, one or more display devices, means for receiving audio input via the one or more microphones, and a visual representation of the audio input. Means for displaying instructions, the visual instructions according to a determination that a portion of the audio input corresponds to the audio input sent to one or more devices for display via one or more display devices. includes displaying a visual indication having a first set of one or more colors, and any portion of the voice input that the voice input displays via one or more display devices. the visual instruction to display a second set of one or more colors that is different from the first set of one or more colors. and means for containing.

一部の実施形態によれば、方法が記載される。本方法は、コンピュータシステムで実行されるものであって、コンピュータシステムは、ディスプレイ生成構成要素及び1つ以上の入力デバイスと通信する。本方法は、ディスプレイ生成構成要素を介して、第1のアクセサリタイプの複数のアクセサリデバイスが第1の状態にあることを示す第1の状態を表示することであって、第1のアクセサリタイプの複数のアクセサリデバイスは、第1のアクセサリタイプであり、第1の状態にある第1のアクセサリデバイスと、第1のアクセサリタイプであり、第1の状態にある第2のアクセサリデバイスであって、第2のアクセサリデバイスが第1のアクセサリデバイスとは異なるものとを含む、第1の状態を表示することと、第1の状態インジケータを表示している間に、ジェスチャを検出することと、ジェスチャの検出に応答して、ジェスチャが第1のタイプのジェスチャであり、第1の状態インジケータに向けられるとの判定に従って、第1のアクセサリデバイス及び第2のアクセサリデバイスを第1の状態とは異なる第2の状態に変更させ、ジェスチャが第1のタイプのジェスチャとは異なる第2のタイプのジェスチャであり、第1の状態インジケータに向けられるとの判定に従って、ディスプレイ生成構成要素を介して、第1のアクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象を表示することであって、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第2のアクセサリデバイスを第2の状態に変更させることなく、第1のアクセサリデバイスを第2の状態に変更させる、第1のアクセサリ制御ユーザインタフェースオブジェクト対象を表示することとを含む。 According to some embodiments, a method is described. The method is performed in a computer system that communicates with a display generation component and one or more input devices. The method includes displaying, via a display generating component, a first state indicating that a plurality of accessory devices of a first accessory type are in a first state, wherein: The plurality of accessory devices are a first accessory device of a first accessory type and in a first state and a second accessory device of the first accessory type and in a first state, wherein displaying a first state including a second accessory device different than the first accessory device; detecting a gesture while displaying the first state indicator; in response to detecting the first accessory device and the second accessory device in a different state in accordance with determining that the gesture is a first type gesture and directed at the first state indicator. causing a change to a second state, and upon determining that the gesture is a second type gesture different from the first type gesture and directed at the first state indicator, via the display generation component, Displaying a first accessory control user interface object target corresponding to one accessory device, wherein selection of the first accessory control user interface object target causes a second accessory device to change to a second state. and displaying a first accessory control user interface object target that causes the first accessory device to change to the second state without the first accessory device.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、コンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するものであって、コンピュータシステムは、ディスプレイ生成構成要素及び1つ以上の入力デバイスと通信し、1つ以上のプログラムは、ディスプレイ生成構成要素を介して、第1のアクセサリタイプの複数のアクセサリデバイスが第1の状態にあることを示す第1の状態を表示することであって、第1のアクセサリタイプの複数のアクセサリデバイスは、第1のアクセサリタイプであり、第1の状態にある第1のアクセサリデバイスと、第1のアクセサリタイプであり、第1の状態にある第2のアクセサリデバイスであって、第2のアクセサリデバイスが第1のアクセサリデバイスとは異なるものとを含む、第1の状態を表示し、第1の状態インジケータを表示している間に、ジェスチャを検出し、ジェスチャの検出に応答して、ジェスチャが第1のタイプのジェスチャであり、第1の状態インジケータに向けられるとの判定に従って、第1のアクセサリデバイス及び第2のアクセサリデバイスを第1の状態とは異なる第2の状態に変更させ、ジェスチャが第1のタイプのジェスチャとは異なる第2のタイプのジェスチャであり、第1の状態インジケータに向けられるとの判定に従って、ディスプレイ生成構成要素を介して、第1のアクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象を表示することであって、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第2のアクセサリデバイスを第2の状態に変更させることなく、第1のアクセサリデバイスを第2の状態に変更させる、第1のアクセサリ制御ユーザインタフェースオブジェクト対象を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system, the computer system comprising a display generation component and one In communication with the input devices, the one or more programs display, via a display generation component, a first state indicating that the plurality of accessory devices of the first accessory type are in the first state. wherein the plurality of accessory devices of the first accessory type are a first accessory device of the first accessory type and in a first state; and a first accessory device of the first accessory type and in a first state displaying a first state, including one in which the second accessory device is different than the first accessory device, and while displaying the first state indicator , detects the gesture, and in response to detecting the gesture, activates the first accessory device and the second accessory device in accordance with determining that the gesture is a first type gesture and directed at the first state indicator. causing a change to a second state different from the first state and generating a display according to determining that the gesture is a second type gesture different from the first type gesture and directed at the first state indicator; displaying, via a component, a first accessory control user interface object target corresponding to the first accessory device, wherein selection of the first accessory control user interface object target corresponds to the second accessory device; Instructions are included for displaying a first accessory control user interface object target that causes the first accessory device to change to the second state without causing the second state to change.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、コンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するものであって、コンピュータシステムは、ディスプレイ生成構成要素及び1つ以上の入力デバイスと通信し、1つ以上のプログラムは、ディスプレイ生成構成要素を介して、第1のアクセサリタイプの複数のアクセサリデバイスが第1の状態にあることを示す第1の状態を表示することであって、第1のアクセサリタイプの複数のアクセサリデバイスは、第1のアクセサリタイプであり、第1の状態にある第1のアクセサリデバイスと、第1のアクセサリタイプであり、第1の状態にある第2のアクセサリデバイスであって、第2のアクセサリデバイスが第1のアクセサリデバイスとは異なるものとを含む、第1の状態を表示し、第1の状態インジケータを表示している間に、ジェスチャを検出し、ジェスチャの検出に応答して、ジェスチャが第1のタイプのジェスチャであり、第1の状態インジケータに向けられるとの判定に従って、第1のアクセサリデバイス及び第2のアクセサリデバイスを第1の状態とは異なる第2の状態に変更させ、ジェスチャが第1のタイプのジェスチャとは異なる第2のタイプのジェスチャであり、第1の状態インジケータに向けられるとの判定に従って、ディスプレイ生成構成要素を介して、第1のアクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象を表示することであって、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第2のアクセサリデバイスを第2の状態に変更させることなく、第1のアクセサリデバイスを第2の状態に変更させる、第1のアクセサリ制御ユーザインタフェースオブジェクト対象を表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system, which includes a display generation component and one or more and the one or more programs displaying, via a display generating component, a first state indicating that the plurality of accessory devices of the first accessory type are in the first state. and wherein the plurality of accessory devices of the first accessory type are the first accessory device of the first accessory type and in the first state and the first accessory device of the first accessory type and in the first state while displaying a first state and displaying a first state indicator, including a second accessory device, wherein the second accessory device is different than the first accessory device; Detecting the gesture and, in response to detecting the gesture, activating the first accessory device and the second accessory device in accordance with determining that the gesture is a gesture of the first type and directed at the first state indicator. causing a change to a second state different from the one state, according to determining that the gesture is a second type gesture different from the first type gesture and directed at the first state indicator; displaying, via an element, a first accessory control user interface object target corresponding to the first accessory device, wherein selection of the first accessory control user interface object target causes the second accessory device to become the second accessory device; Instructions are included to display a first accessory control user interface object target that causes the first accessory device to change to a second state without causing the first accessory device to change to a second state.

いくつかの実施形態によれば、コンピュータシステムが記載される。コンピュータシステムは、1つ以上のプロセッサであって、コンピュータシステムがディスプレイ生成構成要素及び1つ以上の入力デバイスと通信するものと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリとを備え、1つ以上のプログラムは、ディスプレイ生成構成要素を介して、第1のアクセサリタイプの複数のアクセサリデバイスが第1の状態にあることを示す第1の状態を表示することであって、第1のアクセサリタイプの複数のアクセサリデバイスは、第1のアクセサリタイプであり、第1の状態にある第1のアクセサリデバイスと、第1のアクセサリタイプであり、第1の状態にある第2のアクセサリデバイスであって、第2のアクセサリデバイスが第1のアクセサリデバイスとは異なるものとを含む、第1の状態を表示し、第1の状態インジケータを表示している間に、ジェスチャを検出し、ジェスチャの検出に応答して、ジェスチャが第1のタイプのジェスチャであり、第1の状態インジケータに向けられるとの判定に従って、第1のアクセサリデバイス及び第2のアクセサリデバイスを第1の状態とは異なる第2の状態に変更させ、ジェスチャが第1のタイプのジェスチャとは異なる第2のタイプのジェスチャであり、第1の状態インジケータに向けられるとの判定に従って、ディスプレイ生成構成要素を介して、第1のアクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象を表示することであって、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第2のアクセサリデバイスを第2の状態に変更させることなく、第1のアクセサリデバイスを第2の状態に変更させる、第1のアクセサリ制御ユーザインタフェースオブジェクト対象を表示する、命令を含む。 According to some embodiments, a computer system is described. The computer system comprises one or more processors, with which the computer system communicates with display generating components and one or more input devices, and one or more configured to be executed by the one or more processors. wherein the one or more programs, via the display generation component, generate a first state indicating that the plurality of accessory devices of the first accessory type are in the first state. displaying, the plurality of accessory devices of a first accessory type are a first accessory device of the first accessory type and in a first state; displaying a first state, including a second accessory device in a state wherein the second accessory device is different than the first accessory device and displaying a first state indicator the first accessory device and the second accessory in response to detecting the gesture and determining, in response to detecting the gesture, that the gesture is a gesture of a first type and directed to a first state indicator; causing the device to change to a second state different from the first state, according to determining that the gesture is a second type gesture different from the first type gesture and directed to the first state indicator; displaying, via a display generating component, a first accessory control user interface object target corresponding to the first accessory device, wherein selection of the first accessory control user interface object target corresponds to the second accessory Instructions are included for displaying a first accessory control user interface object target that causes the first accessory device to change to the second state without causing the device to change to the second state.

いくつかの実施形態によれば、コンピュータシステムが記載される。コンピュータシステムは、ディスプレイ生成構成要素を介して、第1のアクセサリタイプの複数のアクセサリデバイスが第1の状態にあることを示す第1の状態を表示するための手段であって、第1のアクセサリタイプの複数のアクセサリデバイスは、第1のアクセサリタイプであり、第1の状態にある第1のアクセサリデバイスと、第1のアクセサリタイプであり、第1の状態にある第2のアクセサリデバイスであって、第2のアクセサリデバイスが第1のアクセサリデバイスとは異なるものとを含む手段と、第1の状態インジケータを表示している間に、ジェスチャを検出するための手段と、ジェスチャの検出に応答して、ジェスチャが第1のタイプのジェスチャであり、第1の状態インジケータに向けられるとの判定に従って、第1のアクセサリデバイス及び第2のアクセサリデバイスを第1の状態とは異なる第2の状態に変更させ、ジェスチャが第1のタイプのジェスチャとは異なる第2のタイプのジェスチャであり、第1の状態インジケータに向けられるとの判定に従って、ディスプレイ生成構成要素を介して、第1のアクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象を表示するための手段であって、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、第2のアクセサリデバイスを第2の状態に変更させることなく、第1のアクセサリデバイスを第2の状態に変更させる手段とを備える。 According to some embodiments, a computer system is described. The computer system, via a display generating component, means for displaying a first state indicating that a plurality of accessory devices of a first accessory type are in a first state, the first accessory The plurality of accessory devices of type are a first accessory device in a first state and a second accessory device of the first accessory type in a first state. means for detecting a gesture while displaying the first status indicator; and responsive to detecting the gesture. and placing the first accessory device and the second accessory device in a second state different from the first state in accordance with determining that the gesture is a first type gesture and directed at the first state indicator. and according to a determination that the gesture is a second type gesture different from the first type gesture and directed at the first status indicator, via the display generating component, the first accessory device means for displaying a first accessory control user interface object target corresponding to a second accessory device without causing a second accessory device to change to a second state. , and means for causing the first accessory device to change to the second state.

一部の実施形態によれば、方法が記載される。本方法は、ディスプレイ生成構成要素及び1つ以上の入力デバイスと通信するコンピュータシステムで実行される。本方法は、ディスプレイ生成構成要素を介して、第1の場所で、第1のメディアメッセージの第1の表現、及び第1の場所とは異なる第2の場所で、第2のメディアメッセージの第2の表現を含むメディアユーザインタフェースを表示することと、メディアユーザインタフェースを表示したことに応答して、メディアユーザインタフェースに対応するユーザ入力に基づくことなく、第1のメディアメッセージを再生することと、第1のメディアメッセージの再生の完了の検出に応答して、第1のメディアメッセージに対応する表現を、ディスプレイ生成構成要素を介して表示することなく、第2のメディアメッセージの第2の表現を表示することとを含む。 According to some embodiments, a method is described. The method is performed in a computer system in communication with a display generation component and one or more input devices. The method includes, via a display generating component, a first representation of a first media message at a first location and a second representation of a second media message at a second location different from the first location. displaying a media user interface including the representation of 2; and responsive to displaying the media user interface, playing the first media message without being based on user input corresponding to the media user interface; In response to detecting completion of playback of the first media message, displaying a second representation of the second media message without displaying a representation corresponding to the first media message via the display generating component. displaying.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、コンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するものであって、コンピュータシステムは、ディスプレイ生成構成要素及び1つ以上の入力デバイスと通信し、1つ以上のプログラムは、ディスプレイ生成構成要素を介して、第1の場所で、第1のメディアメッセージの第1の表現、及び第1の場所とは異なる第2の場所で、第2のメディアメッセージの第2の表現を含むメディアユーザインタフェースを表示し、メディアユーザインタフェースを表示したことに応答して、メディアユーザインタフェースに対応するユーザ入力に基づくことなく、第1のメディアメッセージを再生し、第1のメディアメッセージの再生の完了の検出に応答して、第1のメディアメッセージに対応する表現を、ディスプレイ生成構成要素を介して表示することなく、第2のメディアメッセージの第2の表現を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system, the computer system comprising a display generation component and one Communicating with the input devices, the one or more programs, via the display generating component, at a first location, a first representation of a first media message and a second representation different from the first location. displaying a media user interface including a second representation of a second media message at a location of and, in response to displaying the media user interface, the first and, in response to detecting completion of playback of the first media message, playing a second media message without displaying a representation corresponding to the first media message via the display generation component. Instructions are included to display a second representation of the message.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、コンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するものであって、コンピュータシステムは、ディスプレイ生成構成要素及び1つ以上の入力デバイスと通信し、1つ以上のプログラムは、ディスプレイ生成構成要素を介して、第1の場所で、第1のメディアメッセージの第1の表現、及び第1の場所とは異なる第2の場所で、第2のメディアメッセージの第2の表現を含むメディアユーザインタフェースを表示し、メディアユーザインタフェースを表示したことに応答して、メディアユーザインタフェースに対応するユーザ入力に基づくことなく、第1のメディアメッセージを再生し、第1のメディアメッセージの再生の完了の検出に応答して、第1のメディアメッセージに対応する表現を、ディスプレイ生成構成要素を介して表示することなく、第2のメディアメッセージの第2の表現を表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system, which includes a display generation component and one or more and one or more programs, via a display generating component, at a first location, a first representation of a first media message and a second representation different from the first location. at a location, displaying a media user interface including a second representation of a second media message; Playing the media message and, in response to detecting completion of playing the first media message, producing a second media message without displaying a representation corresponding to the first media message via the display generating component. includes instructions for displaying a second representation of .

いくつかの実施形態によれば、コンピュータシステムが記載される。コンピュータシステムは、1つ以上のプロセッサであって、コンピュータシステムがディスプレイ生成構成要素及び1つ以上の入力デバイスと通信するものと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリとを備え、1つ以上のプログラムは、ディスプレイ生成構成要素を介して、第1の場所で、第1のメディアメッセージの第1の表現、及び第1の場所とは異なる第2の場所で、第2のメディアメッセージの第2の表現を含むメディアユーザインタフェースを表示し、メディアユーザインタフェースを表示したことに応答して、メディアユーザインタフェースに対応するユーザ入力に基づくことなく、第1のメディアメッセージを再生し、第1のメディアメッセージの再生の完了の検出に応答して、第1のメディアメッセージに対応する表現を、ディスプレイ生成構成要素を介して表示することなく、第2のメディアメッセージの第2の表現を表示する、命令を含む。 According to some embodiments, a computer system is described. The computer system comprises one or more processors, with which the computer system communicates with display generating components and one or more input devices, and one or more configured to be executed by the one or more processors. wherein the one or more programs are a first representation of the first media message at a first location and different from the first location via the display generating component displaying, at a second location, a media user interface including a second representation of a second media message; and in response to displaying the media user interface, not based on user input corresponding to the media user interface; playing a first media message; and, in response to detecting completion of playing the first media message, a second media message without displaying a representation corresponding to the first media message via the display generation component; display a second representation of the media message of the.

いくつかの実施形態によれば、コンピュータシステムが記載される。コンピュータシステムは、ディスプレイ生成構成要素及び1つ以上の入力デバイスと通信する。コンピュータシステムは、ディスプレイ生成構成要素を介して、第1の場所で、第1のメディアメッセージの第1の表現、及び第1の場所とは異なる第2の場所で、第2のメディアメッセージの第2の表現を含むメディアユーザインタフェースを表示するための手段と、メディアユーザインタフェースを表示したことに応答して、メディアユーザインタフェースに対応するユーザ入力に基づくことなく、第1のメディアメッセージを再生するための手段と、第1のメディアメッセージの再生の完了の検出に応答して、第1のメディアメッセージに対応する表現を、ディスプレイ生成構成要素を介して表示することなく、第2のメディアメッセージの第2の表現を表示するための手段とを備える。 According to some embodiments, a computer system is described. A computer system communicates with a display generation component and one or more input devices. A computer system, via a display generating component, outputs a first representation of a first media message at a first location and a second representation of a second media message at a second location different from the first location. means for displaying a media user interface including the representation of 2; and in response to displaying the media user interface, for playing a first media message without being based on user input corresponding to the media user interface. and, in response to detecting completion of playback of the first media message, generating the second media message without displaying a representation corresponding to the first media message via the display generation component. and means for displaying a representation of 2.

これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。 Executable instructions for performing these functions are optionally contained within a non-transitory computer-readable storage medium or other computer program product configured to be executed by one or more processors. Executable instructions for performing these functions are optionally contained within a temporary computer-readable storage medium or other computer program product configured to be executed by one or more processors.

このため、音声メッセージを管理するための、より速く、より効率的な方法及インタフェースがデバイスに提供され、それによって、このようなデバイスの有効性、効率、及びユーザ満足度が増す。そのような方法及びインタフェースは、音声メッセージを管理するための他の方法を補完する又は置き換えることができる。 Thus, devices are provided with faster, more efficient methods and interfaces for managing voice messages, thereby increasing the effectiveness, efficiency, and user satisfaction of such devices. Such methods and interfaces can complement or replace other methods for managing voice messages.

説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。 For a better understanding of the various described embodiments, reference should be made to the following detailed description in conjunction with the following drawings, where like reference numerals refer to the following figures. Refers to corresponding parts throughout.

いくつかの実施形態に係るタッチ感知ディスプレイを有するポータブル多機能デバイスを示すブロック図である。1 is a block diagram illustrating a portable multifunction device having a touch sensitive display according to some embodiments; FIG.

いくつかの実施形態に係るイベント処理のための例示的な構成要素を示すブロック図である。FIG. 4 is a block diagram illustrating exemplary components for event processing according to some embodiments;

いくつかの実施形態に係るタッチスクリーンを有するポータブル多機能デバイスを示す。1 illustrates a portable multifunction device with a touch screen according to some embodiments;

いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。1 is a block diagram of an exemplary multifunction device having a display and a touch-sensitive surface, according to some embodiments; FIG.

いくつかの実施形態に係るポータブル多機能デバイス上のアプリケーションのメニューの例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface of a menu of applications on a portable multifunction device according to some embodiments;

いくつかの実施形態に係るディスプレイとは別個のタッチ感知面を有する多機能デバイスの例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface of a multifunction device having a touch sensitive surface separate from the display according to some embodiments;

いくつかの実施形態に係るパーソナル電子デバイスを示す。1 illustrates a personal electronic device according to some embodiments;

いくつかの実施形態に係るパーソナル電子デバイスを示すブロック図である。1 is a block diagram illustrating a personal electronic device according to some embodiments; FIG.

いくつかの実施形態に係るタッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。4 illustrates exemplary components of a personal electronic device having a touch sensitive display and an intensity sensor according to some embodiments; いくつかの実施形態に係るタッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。4 illustrates exemplary components of a personal electronic device having a touch sensitive display and an intensity sensor according to some embodiments;

いくつかの実施形態に係るパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device according to some embodiments; いくつかの実施形態に係るパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device according to some embodiments; いくつかの実施形態に係るパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device according to some embodiments; いくつかの実施形態に係るパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device according to some embodiments;

いくつかの実施形態に係る電子デバイスを示す。1 illustrates an electronic device according to some embodiments;

いくつかの実施形態に係る電子デバイスを示すブロック図である。1 is a block diagram illustrating an electronic device according to some embodiments; FIG.

いくつかの実施形態に係る、物理的構造及び例示的なデバイスの1組を示す図である。FIG. 2 illustrates a set of physical structures and exemplary devices, according to some embodiments;

いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for sending a voice message, according to some embodiments;

いくつかの実施形態に係る、音声メッセージを送信するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for sending a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを送信するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for sending a voice message, according to some embodiments;

いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments. いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying notifications, according to some embodiments.

いくつかの実施形態に係る、通知を表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying notifications, according to some embodiments.

いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments; いくつかの実施形態に係る、視覚的な指示を表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying visual instructions, according to some embodiments;

いくつかの実施形態に係る、視覚的な指示を表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying visual instructions, according to some embodiments;

いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments. いくつかの実施形態に係る、外部デバイスを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing external devices, according to some embodiments.

いくつかの実施形態に係る、外部デバイスを管理するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for managing external devices, according to some embodiments;

いくつかの実施形態に係る、音声メッセージを再生するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for playing a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを再生するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for playing a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを再生するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for playing a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを再生するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for playing a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを再生するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for playing a voice message, according to some embodiments; いくつかの実施形態に係る、音声メッセージを再生するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for playing a voice message, according to some embodiments;

いくつかの実施形態に係る、音声メッセージを再生するための方法を示すフロー図である。 実施形態の説明FIG. 4 is a flow diagram illustrating a method for playing a voice message, according to some embodiments; Description of the embodiment

以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、代わりに例示的な実施形態の説明として提供されることを認識されたい。 The following description sets forth exemplary methods, parameters, and the like. It should be recognized, however, that such description is not intended as a limitation on the scope of the present disclosure, but is instead provided as a description of exemplary embodiments.

音声メッセージを管理するための効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。音声メッセージを管理するための技術は、デバイスの効率を増大させ(例えば、不必要な表示を低減する)、外部デバイスの周囲に提供される情報を増大させ(例えば、音声メッセージのソースを表示すること)、(オーディオ入力を受信したデバイスの状態のユーザに視覚的フィードバックを提供することによって)プライバシーを増大させる。このような技術は、音声メッセージを使用するユーザの認識的負担を軽減し、それにより、生産性を高めることができる。更に、このような技法は、普通なら冗長なユーザ入力に浪費されるプロセッサ及びバッテリの電力を低減させることができる。 What is needed is an electronic device that provides an efficient method and interface for managing voice messages. Techniques for managing voice messages increase device efficiency (e.g., reduce unnecessary displays) and increase information provided around external devices (e.g., display source of voice messages). ), increasing privacy (by providing visual feedback to the user of the state of the device that received the audio input). Such techniques can reduce the cognitive burden of users using voice messaging, thereby increasing productivity. In addition, such techniques can reduce processor and battery power otherwise wasted on redundant user input.

以下の図1A~1B、図2、図3、図4A~4B、及び図5A~5Jでは、音声メッセージを送信及び受信するための技術を実行するための例示的なデバイスについて説明する。図6は、いくつかの実施形態に係る、音声メッセージを送信及び受信するための技術を実行するための物理的構造及び例示的なデバイスの1組を示す図である。 1A-1B, 2, 3, 4A-4B, and 5A-5J below describe exemplary devices for implementing techniques for sending and receiving voice messages. FIG. 6 is a diagram illustrating a set of physical structures and exemplary devices for implementing techniques for sending and receiving voice messages, according to some embodiments.

図7A~7AHは、いくつかの実施形態に係る、音声メッセージを送信するための例示的なユーザインタフェースを示す。図8A~8Bは、いくつかの実施形態に係る、音声メッセージを送信するための方法を示すフロー図である。図7A~7AHのユーザインタフェースは、図8A~8Bのプロセスを含む、後述のプロセスを示すために使用される。 7A-7AH illustrate exemplary user interfaces for sending voice messages, according to some embodiments. 8A-8B are flow diagrams illustrating methods for sending voice messages, according to some embodiments. The user interfaces of Figures 7A-7AH are used to illustrate the processes described below, including the processes of Figures 8A-8B.

図9A~9Xは、いくつかの実施形態に係る、通知を表示するための例示的なユーザインタフェースを示す。図10は、いくつかの実施形態に係る、通知を表示するための方法を示すフロー図である。図9A~9Xのユーザインタフェースは、図10のプロセスを含む、後述するプロセスを示すために使用される。 9A-9X illustrate exemplary user interfaces for displaying notifications, according to some embodiments. FIG. 10 is a flow diagram illustrating a method for displaying notifications, according to some embodiments. The user interfaces of FIGS. 9A-9X are used to illustrate the processes described below, including the process of FIG.

図11A~11Rは、視覚的な指示を表示するための例示的なユーザインタフェースを示す。図12は、視覚的な指示を表示するための方法を示すフロー図である。図11A~11Rのユーザインタフェースは、図12のプロセスを含む、後述のプロセスを示すために使用される。 11A-11R show exemplary user interfaces for displaying visual instructions. FIG. 12 is a flow diagram illustrating a method for displaying visual indications. The user interfaces of FIGS. 11A-11R are used to illustrate the processes described below, including the process of FIG.

図13A~13Nは、デバイスの状態を管理するための例示的なユーザインタフェースを示す。図14は、デバイスの状態を管理するための方法を示すフロー図である。図13A~13Nのユーザインタフェースは、図14のプロセスを含む、後述のプロセスを示すために使用される。 13A-13N illustrate exemplary user interfaces for managing device status. FIG. 14 is a flow diagram illustrating a method for managing device state. The user interfaces of FIGS. 13A-13N are used to illustrate the processes described below, including the process of FIG.

図15A~15Fは、いくつかの実施形態に係る、音声メッセージを再生するための例示的なユーザインタフェースを示す。図16は、いくつかの実施形態に係る、音声メッセージを再生するための方法を示すフロー図である。図15A~15Fのユーザインタフェースは、図16のプロセスを含む、後述のプロセスを示すために使用される。 15A-15F illustrate exemplary user interfaces for playing voice messages, according to some embodiments. FIG. 16 is a flow diagram illustrating a method for playing a voice message, according to some embodiments. The user interfaces of FIGS. 15A-15F are used to illustrate the processes described below, including the process of FIG.

以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。 Although the following description uses terms such as "first," "second," etc. to describe various elements, these elements should not be limited by those terms. These terms are only used to distinguish one element from another. For example, a first touch could be referred to as a second touch, and similarly a second touch could be referred to as a first touch, without departing from the scope of various described embodiments. Both the first touch and the second touch are touches, but they are not the same touch.

本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。 The terminology used in the description of the various embodiments provided herein is for the purpose of describing particular embodiments only and is not intended to be limiting. In the description of the various embodiments described and in the appended claims, the singular forms "a," "an," and "the" are intended to include the plural as well, unless the context clearly dictates otherwise. Also, as used herein, the term "and/or" is understood to refer to and include any and all possible combinations of one or more of the associated listed items. want to be The terms "includes," "including," "comprises," and/or "comprising," as used herein, refer to the features mentioned, specifying the presence of an integer, step, operation, element, and/or component, but specifying the presence or addition of one or more other features, integers, steps, operations, elements, components, and/or groups thereof It will be further understood that no exclusions are made.

「~の場合(if)」という用語は、任意選択的に、文脈に応じて、「~とき(when)」若しくは「~とき(upon)」、又は「~と判定したことに応じて(in response to determining)」若しくは「~を検出したことに応じて(in response to detecting)」を意味すると解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の状態又はイベント]が検出された場合(if [a stated condition or event] is detected)」という語句は、任意選択的に、文脈に応じて、「~と判定したとき(upon determining)」若しくは「~と判定したことに応じて(in response to determining)」、又は「[記載の状態又はイベント]を検出したとき(upon detecting [the stated condition or event])」若しくは「[記載の状態又はイベント]を検出したことに応じて(in response to detecting [the stated condition or event])」を意味すると解釈される。 The term "if" is optionally used, depending on the context, "when" or "upon" or "in "response to determining" or "in response to detecting". Similarly, the phrases "if it is determined" or "if [a stated condition or event] is detected" are optional. Literally, depending on the context, "upon determining" or "in response to determining", or "when detecting [state or event] “upon detecting [the stated condition or event]” or “in response to detecting [the stated condition or event]”.

電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップ又はタブレットコンピュータなどの他のポータブル電子デバイスも使用される。また、いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであることも理解されたい。 Embodiments of electronic devices, user interfaces for such devices, and associated processes of using such devices are described. In some embodiments, the device is a portable communication device such as a mobile phone that also includes PDA functionality and/or other functionality such as music player functionality. Exemplary embodiments of portable multifunction devices include those manufactured by Apple Inc. of Cupertino, Calif. including, but not limited to, iPhone®, iPod Touch®, and iPad® devices from Apple Inc. Optionally, other portable electronic devices such as laptops or tablet computers with touch-sensitive surfaces (eg, touch screen displays and/or touch pads) are also used. It should also be appreciated that in some embodiments the device is not a portable communication device, but a desktop computer with a touch-sensitive surface (eg, a touchscreen display and/or touchpad).

以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。 The following discussion describes electronic devices that include displays and touch-sensitive surfaces. However, it should be understood that the electronic device optionally includes one or more other physical user interface devices such as a physical keyboard, mouse and/or joystick.

デバイスは、典型的には、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションに対応する。 Devices are typically used in drawing applications, presentation applications, word processing applications, website creation applications, disc authoring applications, spreadsheet applications, gaming applications, telephony applications, video conferencing applications, e-mail applications, instant messaging applications, training Various applications such as one or more of a support application, a photo management application, a digital camera application, a digital video camera application, a web browsing application, a digital music player application, and/or a digital video player application are supported.

本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透明なユーザインタフェースを備える様々なアプリケーションをサポートする。 Various applications running on the device optionally use at least one common physical user interface device, such as a touch-sensitive surface. One or more functions of the touch-sensitive surface and corresponding information displayed on the device are optionally adjusted and/or changed from application to application and/or within each application. In this way, the common physical architecture of the device (such as the touch sensitive surface) optionally supports various applications with a user interface that is intuitive and transparent to the user.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態に係るタッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。 Attention is now directed to embodiments of portable devices with touch-sensitive displays. FIG. 1A is a block diagram illustrating a portable multifunction device 100 having a touch-sensitive display system 112 according to some embodiments. The touch-sensitive display 112 is sometimes referred to as a "touch screen" for convenience and is known or referred to as a "touch-sensitive display system." Device 100 includes memory 102 (optionally including one or more computer-readable storage media), memory controller 122, one or more processing units (CPUs) 120, peripherals interface 118, RF circuitry 108, audio circuitry 110 , speaker 111 , microphone 113 , input/output (I/O) subsystem 106 , other input control devices 116 , and external ports 124 . Device 100 optionally includes one or more photosensors 164 . Device 100 optionally includes one or more contact strength sensors 165 that detect the strength of contact on device 100 (eg, a touch-sensitive surface such as touch-sensitive display system 112 of device 100). Device 100 optionally generates tactile output on device 100 (eg, on a touch-sensitive surface such as touch-sensitive display system 112 of device 100 or touchpad 355 of device 300). It includes one or more tactile output generators 167 . These components optionally communicate via one or more communication buses or signal lines 103 .

本明細書及び特許請求の範囲では、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代理(プロキシ)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、判定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。いくつかの実装例では、複数の力センサからの力測定値は、接触の推定される力を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化は、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。いくつかの実装例では、接触の力又は圧力のための代替測定値は、強度閾値を超えているかどうかを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。いくつかの実装例では、接触力又は圧力に対する代理測定は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超過したかどうかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを(例えば、タッチ感知ディスプレイ上に)表示するための、及び/又は、ユーザ入力を(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的制御部を介して)受信するための面積が制限されている、低減されたサイズのデバイス上で、通常であればユーザによってアクセスすることが不可能であり得る追加のデバイス機能への、ユーザのアクセスが可能となる。 As used herein and in the claims, the term "strength" of contact on the touch-sensitive surface refers to the force or pressure (force per unit area) of contact (e.g., finger contact) on the touch-sensitive surface, or Refers to a proxy for the force or pressure of contact on a touch-sensitive surface. The intensity of contact has a range of values including at least four distinct values, and more typically including several hundred (eg, at least 256) distinct values. The strength of contact is optionally determined (or measured) using various techniques and various sensors or combinations of sensors. For example, one or more force sensors under or adjacent to the touch-sensitive surface are optionally used to measure force at various points on the touch-sensitive surface. In some implementations, force measurements from multiple force sensors are combined (eg, weighted average) to determine the estimated force of the contact. Similarly, the stylus' pressure-sensitive tip is optionally used to determine the pressure of the stylus on the touch-sensitive surface. Alternatively, the size and/or change in the contact area detected on the touch-sensitive surface, the capacitance and/or change in the touch-sensitive surface proximate to the contact, and/or the resistance and/or change in the touch-sensitive surface proximate to the contact. /or its variation is optionally used as a substitute for contact force or pressure on the touch-sensitive surface. In some implementations, the alternate measure for contact force or pressure is used directly to determine whether an intensity threshold has been exceeded (e.g., the intensity threshold is in units corresponding to the alternate measure). ). In some implementations, the surrogate measurement for contact force or pressure is converted to an estimated force or pressure, and the estimated force or pressure is used to determine whether a strength threshold has been exceeded ( For example, the intensity threshold is the pressure threshold measured in units of pressure). to display affordances (e.g., on a touch-sensitive display) and/or measure user input (e.g., on a touch-sensitive display, touch-sensitive surface, or Not normally accessible by the user on reduced size devices with limited area for receiving (via physical/mechanical controls such as knobs or buttons) It allows the user access to additional device features that are available.

本明細書及び特許請求の範囲において使用される場合、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変化に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。場合によっては、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。 As used herein and in the claims, the term "tactile output" refers to the physical displacement of the device relative to its previous position, which is to be detected by the user in the user's sense of touch. Refers to the physical displacement of a component (eg, touch-sensitive surface) relative to another component of the device (eg, housing) or the displacement of a component relative to the device's center of mass. For example, in situations where a device or device component is in contact with a touch-sensitive surface of a user (e.g., fingers, palm, or other part of the user's hand), tactile sensations generated by physical displacement The output will be interpreted by the user as a tactile sensation corresponding to a perceived change in the physical properties of the device or device components. For example, movement of a touch-sensitive surface (eg, touch-sensitive display or trackpad) is optionally interpreted by the user as a "down-click" or "up-click" of a physical actuator button. In some cases, a user can "down-click" or "up-click" even when there is no movement of the physical actuator button associated with the touch-sensitive surface that is physically pressed (e.g., displaced) by the user's motion. I feel the tactile sensation such as As another example, movement of the touch-sensitive surface is optionally interpreted or perceived by the user as "roughness" of the touch-sensitive surface, even if there is no change in the smoothness of the touch-sensitive surface. be. Such a user's interpretation of touch depends on the user's personal sensory perception, but there are many sensory perceptions of touch that are common to the majority of users. Thus, when a tactile output is described as corresponding to a particular sensory perception of a user (e.g., "upclick", "downclick", "roughness"), the generated tactile A sensory output corresponds to the physical displacement of a device, or a component of a device, that produces the described sensory perception of a typical (or average) user.

デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実施される。 Device 100 is only one example of a portable multifunction device; device 100 optionally has more or fewer components than those shown; It should be understood that there are combinations of more than one component, or optionally different configurations or arrangements of those components. The various components shown in FIG. 1A are implemented in hardware, software, or a combination of both hardware and software, including one or more signal processing circuits and/or application specific integrated circuits.

メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。 Memory 102 optionally includes high speed random access memory and optionally non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. include. Memory controller 122 optionally controls access to memory 102 by other components of device 100 .

周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる又は実行して、デバイス100のための様々な機能を実行し、データを処理する。いくつかの実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上で実施される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。 Peripheral interface 118 may be used to couple input and output peripherals of the device to CPU 120 and memory 102 . One or more processors 120 operate or execute various software programs and/or instruction sets stored in memory 102 to perform various functions and process data for device 100 . In some embodiments, peripherals interface 118 , CPU 120 and memory controller 122 are optionally implemented on a single chip, such as chip 104 . In some other embodiments, they are optionally implemented on separate chips.

RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線機などによって近距離通信(near field Communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、動き通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution,Data-Only、EV-DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetoothローエネルギ(Bluetooth Low Energy、BTLE(登録商標))、ワイヤレスフィデリティ(Wireless Fidelity、Wi-Fi(登録商標))(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/若しくはIEEE 802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX(登録商標)、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンションのためのセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適した通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 Radio frequency (RF) circuitry 108 transmits and receives RF signals, also called electromagnetic signals. RF circuitry 108 converts electrical signals to electromagnetic signals or vice versa to communicate with communication networks and other communication devices via electromagnetic signals. RF circuitry 108 optionally includes well-known circuits for performing these functions, including, but not limited to, an antenna system, an RF transceiver, one or more amplifiers, Tuner, one or more oscillators, digital signal processor, CODEC chipset, subscriber identity module (SIM) card, memory, and the like. The RF circuit 108 is optionally connected to the Internet, also known as the World Wide Web (WWW), an intranet, and/or a cellular telephone network, a wireless local area network (LAN), and/or a metropolitan area network. (metropolitan area network, MAN) and other devices via wireless communication. RF circuitry 108 optionally includes well-known circuitry for detecting a near field communication (NFC) field, such as by a short-range communication radio. Wireless communication optionally includes, but is not limited to, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high speed downlink high-speed downlink packet access (HSDPA), high-speed uplink packet access (HSUPA), evolution, data-only, EV-DO, HSPA, HSPA+, dual cell HSPA (Dual-Cell HSPA, DC-HSPDA), long term evolution (LTE), near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiplex code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth®, Bluetooth Low Energy (BTLE®), Wireless Fidelity, Wi-Fi (eg, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, IEEE 802.11n, and/or IEEE 802.11ac), voice over Internet Protocol, VoIP), Wi-MAX®, protocols for email (e.g. Internet message access protocol (IMAP) and/or post office protocol (POP)), instant messaging (e.g. extensible messaging and presence protocol XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS)), and multiple communication standards, protocols, including Short Message Service (SMS), or any other suitable communication protocol, including communication protocols not yet developed as of the filing date of this specification; and techniques.

オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に送信する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に伝送される。いくつかの実施形態では、オーディオ回路110はまた、ヘッドセットジャック(例えば、図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を備えるヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。 Audio circuitry 110 , speaker 111 , and microphone 113 provide an audio interface between the user and device 100 . Audio circuitry 110 receives audio data from peripherals interface 118 , converts the audio data to electrical signals, and transmits the electrical signals to speaker 111 . The speaker 111 converts the electrical signal into human audible sound waves. Audio circuitry 110 also receives electrical signals converted from sound waves by microphone 113 . Audio circuitry 110 converts the electrical signals to audio data and transmits the audio data to peripherals interface 118 for processing. Audio data is optionally retrieved from and/or transmitted to memory 102 and/or RF circuitry 108 by peripherals interface 118 . In some embodiments, audio circuitry 110 also includes a headset jack (eg, 212 in FIG. 2). A headset jack is provided between the audio circuitry 110 and a detachable audio input/output peripheral, such as an output-only headphone or a headset with both an output (e.g., monaural or binaural headphones) and an input (e.g., a microphone). provides an interface for

I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、深度カメラコントローラ169、強度センサコントローラ159、触覚フィードバックコントローラ161、及び、他の入力デバイス若しくは制御デバイス用の1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの代替的な実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又はいずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量コントロールのための上下ボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。 I/O subsystem 106 couples input/output peripherals on device 100 , such as touch screen 112 and other input control devices 116 , to peripherals interface 118 . I/O subsystem 106 optionally includes one for display controller 156, light sensor controller 158, depth camera controller 169, intensity sensor controller 159, tactile feedback controller 161, and other input or control devices. The above input controller 160 is included. One or more input controllers 160 receive/send electrical signals to/from other input control devices 116 . Other input control devices 116 optionally include physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, and the like. In some alternative embodiments, the input controller(s) 160 is optionally coupled (or not bound to either). One or more buttons (eg, 208 in FIG. 2) optionally include up and down buttons for volume control of speaker 111 and/or microphone 113 . The one or more buttons optionally include push buttons (eg, 206 in FIG. 2).

全体として参照により本明細書に組み込まれている、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押下は、任意選択的に、タッチスクリーン112のロックを係合解除し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをアンロックするプロセスを開始する。プッシュボタン(例えば、206)のより長い押下は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能性は、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112は、仮想又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。 U.S. Patent Application No. 11/322,549, "Unlocking a Device by Performing Gestures on an Unlock Image," filed Dec. 23, 2005, which is incorporated herein by reference in its entirety, U.S. Patent No. 7, 657,849, a quick press of the push button optionally disengages the lock on the touch screen 112, or optionally using gestures on the touch screen. Start the process of unlocking the device. A longer press of a push button (eg, 206) optionally turns power to device 100 on or off. The functionality of one or more of the buttons is optionally customizable by the user. Touch screen 112 is used to implement virtual or soft buttons and one or more soft keyboards.

タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信、及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚出力を表示する。この視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。 Touch-sensitive display 112 provides an input and output interface between the device and the user. Display controller 156 receives electrical signals from touchscreen 112 and/or transmits electrical signals to touchscreen 112 . Touch screen 112 displays visual output to the user. This visual output optionally includes graphics, text, icons, video, and any combination thereof (collectively "graphics"). In some embodiments, some or all of the visual output optionally corresponds to user interface objects.

タッチスクリーン112は、触覚及び/又は触知接触に基づくユーザからの入力を受け入れるタッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)、タッチスクリーン112上で接触(及び任意の接触の移動又は中断)を検出し、検出された接触をタッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)との対話に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。 Touch screen 112 has a touch-sensitive surface, sensor, or set of sensors that accepts input from a user based on tactile and/or tactile contact. Touchscreen 112 and display controller 156 (together with any associated modules and/or instruction sets in memory 102) detect contact (and any movement or interruption of contact) on touchscreen 112 and detect detected contact. Converts interaction with user interface objects (eg, one or more softkeys, icons, web pages, or images) displayed on touch screen 112 . In an exemplary embodiment, the contact point between touch screen 112 and the user corresponds to the user's finger.

タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術も使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、それだけに限定されるものではないが、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素を含む、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる動き又は中断を検出する。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるものなどの、投影型相互静電容量感知技術が使用される。 The touch screen 112 optionally uses LCD (Liquid Crystal Display) technology, LPD (Light Emitting Polymer Display) technology, or LED (Light Emitting Diode) technology, although other display technologies are also used in other embodiments. be. The touchscreen 112 and display controller 156 optionally use, but are not limited to, capacitive, resistive, infrared, and surface acoustic wave technologies, and one or more contact points with the touchscreen 112. Any of a number of now known or later developed touch sensing technologies, including other proximity sensor arrays or other elements that determine, are used to detect contact and any movement or interruption thereof. In an exemplary embodiment, Apple Inc. of Cupertino, Calif. Projected mutual-capacitive sensing technology is used, such as that found in the iPhone® and iPod Touch® from Apple.

タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、任意選択的に、それぞれ全体として参照により本明細書に組み込まれている、米国特許第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/若しくは第6,677,932号(Westerman)、並びに/又は米国特許公報第2002/0015024A1号という米国特許に記載されているマルチタッチ感知タッチパッドに類似している。しかしながら、タッチスクリーン112はデバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは視覚出力を提供しない。 The touch-sensitive display in some embodiments of touch screen 112 is optionally disclosed in U.S. Pat. , 570,557 (Westerman et al.), and/or 6,677,932 (Westerman), and/or the multi-touch sensing touchpads described in US Patent Publication No. 2002/0015024 Al. are doing. However, the touchscreen 112 displays visual output from the device 100, whereas the touch-sensitive touchpad does not provide visual output.

タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi-Functional Hand-Held Device」という出願に記載されている。これらの出願は全て、全体として参照により本明細書に組み込まれている。 The touch sensitive display in some embodiments of the touch screen 112 is described in (1) U.S. Patent Application Serial No. 11/381,313, "Multipoint Touch Surface Controller," filed May 2, 2006, and (2) May 2004. U.S. Patent Application Serial No. 10/840,862, "Multipoint Touchscreen," filed May 6, 2004; (4) U.S. Patent Application Serial No. 11/048,264, filed January 31, 2005; "Gestures For Touch Sensitive Input Devices"; 038,590, "Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices," (6) U.S. patent application Ser. User Interface", (7) U.S. Patent Application Serial No. 11/228,700, filed Sep. 16, 2005; No. 11/228,737, "Activating Virtual Keys Of A Touch-Screen Virtual Keyboard," and (9) U.S. patent application Ser. Hand-Held Device" application. All of these applications are incorporated herein by reference in their entireties.

タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の適した物体又は付属物を使用して、タッチスクリーン112に接触する。いくつかの実施形態では、ユーザインタフェースは、指による接触及びジェスチャを主に扱うように設計されるが、これは、タッチスクリーン上の指の接触面積がより大きいため、スタイラスベースの入力ほど精密でない可能性がある。いくつかの実施形態では、デバイスは、指による粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。 Touch screen 112 optionally has a video resolution greater than 100 dpi. In some embodiments, the touch screen has a video resolution of approximately 160 dpi. A user optionally contacts touch screen 112 using any suitable object or appendage, such as a stylus, finger, or the like. In some embodiments, user interfaces are designed to primarily deal with finger contacts and gestures, which are not as precise as stylus-based input due to the larger finger contact area on touch screens. there is a possibility. In some embodiments, the device converts coarse finger input into precise pointer/cursor positions or commands to perform actions desired by the user.

いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112又はタッチスクリーンによって形成されるタッチ感知面の拡張部とは別個のタッチ感知面である。 In some embodiments, in addition to the touchscreen, device 100 optionally includes a touchpad for activating or deactivating certain functions. In some embodiments, a touchpad is a touch-sensitive area of a device that displays no visual output, unlike a touchscreen. The touchpad is optionally a touch-sensitive surface separate from the touchscreen 112 or an extension of the touch-sensitive surface formed by the touchscreen.

デバイス100は、様々な構成要素に電力を供給する電力システム162も含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。 Device 100 also includes a power system 162 that provides power to the various components. Power system 162 optionally includes a power management system, one or more power sources (eg, batteries, alternating current (AC)), a recharging system, power failure detection circuitry, a power converter or inverter, power status indicators (eg, lighting diodes (LEDs)) and any other component associated with the generation, management, and distribution of power within a portable device.

また、デバイス100は、任意選択的に、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、任意選択的に、静止画像又はビデオをキャプチャする。いくつかの実施形態では、光センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対に、デバイス100の裏面に位置し、したがってタッチスクリーンディスプレイは、静止画像及び/又はビデオ画像の取得のためのビューファインダとして使用することが有効である。いくつかの実施形態では、光センサは、デバイスの前面に配置し、したがってユーザの画像が、任意選択的に、テレビ会議のために入手され、ユーザは、他のテレビ会議参加者をタッチスクリーンディスプレイ上で見る。いくつかの実施形態では、光センサ164の位置は、ユーザによって(例えば、デバイス筐体内でレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光センサ164が、タッチスクリーンディスプレイと共に、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。 Device 100 also optionally includes one or more optical sensors 164 . FIG. 1A shows a photosensor coupled to photosensor controller 158 in I/O subsystem 106 . Optical sensor 164 optionally includes a charge-coupled device (CCD) or complementary metal-oxide semiconductor (CMOS) phototransistor. Optical sensor 164 receives light from the environment projected through one or more lenses and converts the light into data representing an image. Optical sensor 164, in conjunction with imaging module 143 (also called a camera module), optionally captures still images or video. In some embodiments, the optical sensors are located on the back of the device 100, as opposed to the touchscreen display 112 on the front of the device, so the touchscreen display is used for still and/or video image capture. It is effective to use it as a viewfinder for In some embodiments, the light sensor is placed on the front of the device so that the user's image is optionally obtained for video conferencing, and the user can see other video conference participants on the touch screen display. see above. In some embodiments, the position of the light sensor 164 can be changed by the user (e.g., by rotating the lens and sensor within the device housing), so that a single light sensor 164 can be used with the touch screen display. It is also used for teleconferencing and for capturing still and/or video images.

デバイス100はまた、任意選択的に、1つ以上の深度カメラセンサ175を含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内の対象物(例えば、顔面)の3次元モデルを作成する。いくつかの実施形態では、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、深度カメラセンサ175は、任意選択的に、撮像モジュール143によってキャプチャされた画像の種々の部分の深度マップを決定するために使用される。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ている間に、深度情報を有するユーザの画像が、任意選択的に、テレビ会議のために取得されるように、及び、深度マップデータを有する自撮り画像をキャプチャするように、デバイス100の前面に深度カメラセンサが配置されている。いくつかの実施形態では、深度カメラセンサ175は、デバイスの背面に、あるいはデバイス100の背面及び前面に配置されている。いくつかの実施形態では、深度カメラセンサ175の位置は、ユーザによって(例えば、デバイスハウジング内でレンズ及びセンサを回転させることによって)変更することができ、したがって深度カメラセンサ175が、タッチスクリーンディスプレイと共に、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。 Device 100 also optionally includes one or more depth camera sensors 175 . FIG. 1A shows a depth camera sensor coupled to depth camera controller 169 within I/O subsystem 106 . Depth camera sensor 175 receives data from the environment and creates a three-dimensional model of an object (eg, face) in the scene from a viewpoint (eg, depth camera sensor). In some embodiments, in conjunction with imaging module 143 (also referred to as a camera module), depth camera sensor 175 optionally determines depth maps of various portions of the image captured by imaging module 143. used for In some embodiments, an image of the user with depth information is optionally acquired for the videoconference while the user is viewing other videoconference participants on the touch screen display. , and a depth camera sensor is placed on the front of the device 100 to capture a selfie image with depth map data. In some embodiments, depth camera sensor 175 is located on the back of the device, or on the back and front of device 100 . In some embodiments, the position of the depth camera sensor 175 can be changed by the user (eg, by rotating the lens and sensor within the device housing) so that the depth camera sensor 175 can be used in conjunction with the touch screen display. , for video conferencing as well as for capturing still and/or video images.

デバイス100はまた、任意選択的に、1つ以上の接触強度センサ165を含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、任意選択的に、1つ以上のピエゾ抵抗ひずみゲージ、容量性力センサ、電気力センサ、圧電力センサ、光学力センサ、容量性タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(若しくは圧力)を測定するために使用されるセンサ)を含む。接触強度センサ165は、接触強度情報(例えば、圧力情報、又は圧力情報に対するプロキシ)を環境から受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接される。いくつかの実施形態では、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 also optionally includes one or more contact intensity sensors 165 . FIG. 1A shows a contact intensity sensor coupled to intensity sensor controller 159 within I/O subsystem 106 . Contact intensity sensor 165 is optionally one or more piezoresistive strain gauges, capacitive force sensors, electrical force sensors, piezoelectric force sensors, optical force sensors, capacitive touch sensitive surfaces, or other intensity sensors (e.g. , sensors used to measure the force (or pressure) of contact on the touch-sensitive surface. Contact intensity sensor 165 receives contact intensity information (eg, pressure information or a proxy for pressure information) from the environment. In some embodiments, at least one contact intensity sensor is juxtaposed or proximate to a touch-sensitive surface (eg, touch-sensitive display system 112). In some embodiments, at least one contact intensity sensor is located on the back side of device 100 , opposite touch screen display 112 located on the front side of device 100 .

また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。代わりに、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、全体として参照により本明細書に組み込まれている、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、第11/240,788号、「Proximity Detector In Handheld Device」第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されるように機能するものであり、これらの出願は、全体が参照により本明細書に組み込まれる。いくつかの実施形態では、多機能デバイスが、ユーザの耳の近くに配置される場合(例えば、ユーザが電話通話を行っている場合)、近接センサは、タッチスクリーン112をオフにして無効化する。 Device 100 also optionally includes one or more proximity sensors 166 . FIG. 1A shows proximity sensor 166 coupled to peripherals interface 118 . Alternatively, proximity sensor 166 is optionally coupled to input controller 160 within I/O subsystem 106 . Proximity sensor 166 is optionally disclosed in U.S. patent application Ser. 「Proximity Detector In Handheld Device」第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及びSerial No. 11/638,251, "Methods And Systems For Automatic Configuration Of Peripherals," which applications are hereby incorporated by reference in their entireties. In some embodiments, the proximity sensor turns off and disables the touchscreen 112 when the multifunction device is placed close to the user's ear (e.g., when the user is making a phone call). .

デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と並置される、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に移動させることによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 also optionally includes one or more tactile output generators 167 . FIG. 1A shows a tactile output generator coupled to haptic feedback controller 161 within I/O subsystem 106 . Tactile output generator 167 optionally includes one or more electroacoustic devices such as speakers or other audio components, and/or motors, solenoids, electroactive polymers, piezoelectric actuators, electrostatic actuators, or other electromechanical devices that convert energy into linear motion, such as tactile output-producing components of (eg, components that convert electrical signals to tactile outputs on the device). Contact intensity sensor 165 receives tactile feedback generation instructions from haptic feedback module 133 and generates a tactile output on device 100 that can be sensed by a user of device 100 . In some embodiments, at least one tactile output generator is juxtaposed or proximate to a touch-sensitive surface (e.g., touch-sensitive display system 112) and, optionally, the touch-sensitive surface. Tactile output is generated by moving vertically (eg, in/out of the surface of device 100) or horizontally (eg, back and forth in the same plane as the surface of device 100). In some embodiments, at least one tactile output generator sensor is located on the back of device 100 opposite touch screen display 112 located on the front of device 100 .

また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。代わりに、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、どちらも全体として参照により本明細書に組み込まれている、米国特許公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び米国特許公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計168に加えて、磁気計並びにデバイス100の場所及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。 Device 100 also optionally includes one or more accelerometers 168 . FIG. 1A shows accelerometer 168 coupled to peripherals interface 118 . Alternatively, accelerometer 168 is optionally coupled to input controller 160 within I/O subsystem 106 . Accelerometer 168 is optionally disclosed in U.S. Patent Publication No. 20050190059, "Acceleration-based Theft Detection System for Portable Electronic Devices," and U.S. Patent Publication No. 20050190059, both of which are hereby incorporated by reference in their entirety. 20060017692, "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer". In some embodiments, information is displayed on the touch screen display in portrait or landscape view based on analysis of data received from one or more accelerometers. In addition to the accelerometer 168, the device 100 includes a magnetometer and a GPS (or GLONASS or other global navigation system) receiver for obtaining information about the location and orientation (e.g., longitudinal or lateral) of the device 100. optionally included.

いくつかの実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、図1A及び図3に示すように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示すアクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占めているかを示す表示状態、デバイスの様々なセンサ及び入力コントロールデバイス116から取得した情報を含むセンサ状態、並びにデバイスの位置及び/又は姿勢に関する位置情報、のうちの1つ以上を含む。 In some embodiments, the software components stored in memory 102 include operating system 126, communication module (or instruction set) 128, touch/motion module (or instruction set) 130, graphics module (or instruction set). ) 132 , a text input module (or instruction set) 134 , a Global Positioning System (GPS) module (or instruction set) 135 , and an application (or instruction set) 136 . Additionally, in some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) stores device/global internal state 157, as shown in FIGS. 1A and 3. FIG. The device/global internal state 157 is an active application state that indicates which, if any, applications are currently active, and which applications, views, or other information may be displayed in various areas of the touchscreen display 112 . display state indicating occupancy; sensor state, which includes information obtained from the device's various sensors and input control device 116; and positional information regarding the location and/or orientation of the device.

オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込み型オペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイスの制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。 operating system 126 (e.g., Darwin®, RTXC®, LINUX®, UNIX®, OS X®, iOS®, WINDOWS®, or Embedded operating systems such as VxWorks®) include various software components and/or drivers that control and manage common system tasks (e.g., memory management, storage device control, power management, etc.). , facilitates communication between various hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えば、ユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに結合するように適合されている。いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは類似であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。 Communication module 128 facilitates communication with other devices via one or more external ports 124 and includes various software components for processing data received by RF circuitry 108 and/or external ports 124 . include. The external port 124 (e.g., Universal Serial Bus (USB), FIREWIRE®, etc.) connects to other devices directly or indirectly through a network (e.g., Internet, wireless LAN, etc.). is adapted to bind to In some embodiments, the external port is a multi-pin (e.g., , 30 pin) connector.

接触/動きモジュール130は、任意選択的に、タッチスクリーン112(ディスプレイコントローラ156と連携して)及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したか否かを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。 Contact/motion module 130 optionally detects contact with touchscreen 112 (in conjunction with display controller 156) and other touch-sensitive devices (eg, touchpads or physical click wheels). The contact/motion module 130 determines whether contact has occurred (e.g., detecting a finger-down event), the strength of the contact (e.g., the force or pressure of the contact, or alternatives to the force or pressure of the contact). determining whether there is movement of the contact and tracking movement across the touch-sensitive surface (e.g., detecting one or more events of dragging a finger); Contains various software components for performing various operations related to detecting contact, such as determining whether contact has stopped (e.g., detecting a finger-up event or interruption of contact) . Contact/motion module 130 receives contact data from the touch-sensitive surface. Determining movement of the contact point, represented by the set of contact data, optionally includes speed (magnitude), velocity (magnitude and direction), and/or acceleration (magnitude and direction) of the contact point. and/or change of direction). These operations are optionally applied to single contacts (eg, single-finger contacts) or multiple simultaneous contacts (eg, “multi-touch”/multiple-finger contacts). In some embodiments, contact/motion module 130 and display controller 156 detect contact on the touchpad.

いくつかの実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するための(例えば、ユーザがアイコン上で「クリック」したか否かを判定するための)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、強度閾値の少なくとも1つのサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変化させることなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変化させることなく、広範囲の既定閾値のうちのいずれかに設定することができる。加えて、いくつかの実装例では、デバイスのユーザは、強度閾値のセットのうちの1つ以上を調整するソフトウェア設定が提供される(例えば、システムレベルのクリック「強度」パラメータによって、個々の強度閾値を調整すること、及び/又は複数の強度閾値を一度に調整することによる)。 In some embodiments, the contact/motion module 130 is configured to: One or more sets of intensity thresholds are used. In some embodiments, at least one subset of the intensity thresholds is determined according to software parameters (e.g., the intensity thresholds are determined by the physical hardware of device 100, rather than being determined by activation thresholds of specific physical actuators). can be adjusted without changing the wear). For example, the mouse "click" threshold for a trackpad or touchscreen display can be set to any of a wide range of predefined thresholds without changing the trackpad or touchscreen display hardware. Additionally, in some implementations, the user of the device is provided with software settings that adjust one or more of a set of intensity thresholds (e.g., individual intensity by adjusting thresholds and/or adjusting multiple intensity thresholds at once).

接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指ダウンイベントを検出し、それに続いて指ダウンイベントと同じ位置(又は実質的に同じ位置)(例えば、アイコンの位置)で指アップ(リフトオフ)イベントを検出することを含む。別の例として、タッチ感知面上で指スワイプジェスチャを検出することは、指ダウンイベントを検出し、それに続いて1つ以上の指ドラッグイベントを検出し、その後それに続いて指アップ(リフトオフ)イベントを検出することを含む。 Contact/motion module 130 optionally detects gesture input by the user. Different gestures on the touch-sensitive surface have different contact patterns (eg, different movements, timing, and/or strength of the detected contacts). Thus, gestures are optionally detected by detecting specific contact patterns. For example, detecting a finger tap gesture detects a finger down event followed by a finger up (lift off) event at the same (or substantially the same) position as the finger down event (e.g., icon position). Including detecting. As another example, detecting a finger swipe gesture on a touch-sensitive surface involves detecting a finger down event followed by one or more finger drag events followed by a finger up (lift off) event. including detecting

グラフィックモジュール132は、表示されるグラフィックの視覚的な影響(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚的特性)を変化させる構成要素を含めて、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリング及び表示する様々な既知のソフトウェア構成要素を含む。本明細書では、「グラフィック」という用語は、それだけに限定されるものではないが、文字、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含む、ユーザに表示することができる任意のオブジェクトを含む。 Graphics module 132 may be used on touch screen 112 or other display to include components that change the visual impact (e.g., brightness, transparency, saturation, contrast, or other visual characteristics) of displayed graphics. includes a variety of known software components for rendering and displaying graphics. As used herein, the term "graphics" includes, but is not limited to, text, web pages, icons (such as user interface objects including softkeys), digital images, videos, animations, etc. Contains any object that can be displayed.

いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データと共に、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力する画面の画像データを生成する。 In some embodiments, graphics module 132 stores data representing graphics to be used. Each graphic is optionally assigned a corresponding code. The graphics module 132 receives, from an application or the like, one or more codes specifying the graphics to be displayed, along with coordinate data and other graphics characteristic data as appropriate, and then outputs to the display controller 156. Generates image data for the screen to be displayed.

触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、デバイス100上の1つ以上の場所で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。 Haptic feedback module 133 is used by tactile output generator(s) 167 to generate tactile output at one or more locations on device 100 in response to user interaction with device 100. Contains various software components for generating instructions.

テキスト入力モジュール134は、任意選択で、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。 Text input module 134 is optionally a component of graphics module 132 and is used for various applications (e.g., contacts 137, email 140, IM 141, browser 147, and any other application requiring text input). ) to provide a soft keyboard for entering text.

GPSモジュール135は、デバイスの位置を判定し、この情報を様々なアプリケーションで使用するために(例えば、位置に基づくダイヤル発呼で使用するために電話138へ、写真/ビデオのメタデータとしてカメラ143へ、並びに、気象ウィジェット、地域のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションへ)提供する。 GPS module 135 can determine the location of the device and use this information in various applications (e.g., to phone 138 for use in location-based dialing, camera 143 as photo/video metadata). to and to applications that provide location-based services such as weather widgets, local yellow pages widgets, and map/navigation widgets).

アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●任意選択的に気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって入手された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェット作成モジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを一体化したビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は、
●オンラインビデオモジュール155。
Application 136 optionally includes the following modules (or instruction sets) or subsets or supersets thereof.
- the contacts module 137 (sometimes called an address book or contact list);
a telephone module 138;
a teleconferencing module 139,
- email client module 140;
an instant messaging (IM) module 141;
training support module 142,
- a camera module 143 for still and/or video images;
an image management module 144;
● video player module,
● music player module,
the browser module 147,
a calendar module 148;
- Optionally weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, dictionary widget 149-5, and other user-obtained and user-created widgets a widget module 149 including one or more of 149-6;
- a widget creation module 150 for creating user-created widgets 149-6;
a search module 151,
- a video and music player module 152 that integrates a video player module and a music player module;
memo module 153,
- map module 154 and/or
Online video module 155;

任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。 Examples of other applications 136 that are optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA enabled applications, cryptography, digital writing. Rights management, speech recognition, and speech replication.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、連絡先モジュール137は、任意選択的に、アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、実際の住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始及び/又は促進することなどを含めて、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)を管理するために使用される。 In conjunction with touch screen 112, display controller 156, contact/motion module 130, graphics module 132, and text input module 134, contact module 137 optionally adds name(s) to the address book. remove name(s) from address book, phone number(s), email address(es), physical address(es), or other information to name associating, associating images with names, sorting and sorting names, providing a phone number or email address to initiate communication by phone 138, videoconferencing module 139, email 140, or IM 141 and/or or to manage an address book or contact list (eg, stored within application internal state 192 of contact module 137 in memory 102 or memory 370).

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電話モジュール138は、任意選択的に、電話番号に対応する文字シーケンスの入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、それぞれの電話番号のダイヤル、会話の実施、会話が終了したときの通話停止又はハングアップのために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 In conjunction with RF circuitry 108, audio circuitry 110, speaker 111, microphone 113, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, telephone module 138 optionally includes , enter a character sequence corresponding to a telephone number, access one or more telephone numbers in the contacts module 137, modify the entered telephone number, dial the respective telephone number, conduct a conversation, and end the conversation. Used to stop a call or hang up when As previously mentioned, wireless communication optionally uses any of a number of communication standards, protocols, and techniques.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連携して、テレビ会議モジュール139は、ユーザ命令に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了するための実行可能な命令を含む。 RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, light sensor 164, light sensor controller 158, touch/motion module 130, graphics module 132, text input module 134, contact module 137. , and telephony module 138, the videoconferencing module 139 provides executable instructions for initiating, conducting, and terminating a videoconference between the user and one or more other participants according to user instructions. include.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電子メールクライアントモジュール140は、ユーザ命令に応じて電子メールを作成、送信、受信、及び管理するための実行可能な命令を含む。画像管理モジュール144と連携して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, email client module 140 composes and sends emails in response to user commands. , including executable instructions for receiving and managing. In conjunction with the image management module 144, the email client module 140 greatly facilitates the creation and sending of emails with still or video images captured by the camera module 143.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字シーケンスの入力、以前に入力された文字の修正、それぞれのインスタントメッセージの送信(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)、インスタントメッセージの受信、及び受信したインスタントメッセージの閲覧のための実行可能な命令を含む。いくつかの実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるグラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書では、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)との両方を指す。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, instant messaging module 141 allows the input of character sequences corresponding to instant messages, previously modification of entered characters, transmission of respective instant messages (e.g. Short Message Service (SMS) or Multimedia Message Service (MMS) protocols for telephony-based instant messages, or Internet (using XMPP, SIMPLE, or IMPS for instant messaging based), receiving instant messages, and viewing received instant messages. In some embodiments, instant messages sent and/or received are optionally graphics, photos, audio files, video files supported by MMS and/or Enhanced Messaging Service (EMS). , and/or other attachments. As used herein, "instant messaging" refers to telephony-based messages (e.g., messages sent using SMS or MMS) and Internet-based messages (e.g., using XMPP, SIMPLE, or IMPS). It refers to both

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽プレーヤモジュールと連携して、トレーニングサポートモジュール142は、トレーニング(例えば、時間、距離、及び/又はカロリー燃焼目標を有する)を作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択及び再生し、並びに、トレーニングデータを表示、記憶、及び送信するための実行可能な命令を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, GPS module 135, map module 154, and music player module, training support module 142: Create workouts (e.g., with time, distance, and/or calorie burn goals), communicate with training sensors (sports devices), receive training sensor data, and calibrate sensors used to monitor training , selecting and playing music for training, and displaying, storing, and transmitting training data.

タッチスクリーン112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連携して、カメラモジュール143は、静止画像若しくはビデオ(ビデオストリームを含む)のキャプチャ及びメモリ102内への記憶、静止画像若しくはビデオの特性の修正、又はメモリ102からの静止画像若しくはビデオの削除のための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, light sensor(s) 164, light sensor controller 158, touch/motion module 130, graphics module 132, and image management module 144, camera module 143 captures still images or Contains executable instructions for capturing video (including a video stream) and storing it in memory 102 , modifying the characteristics of a still image or video, or deleting a still image or video from memory 102 .

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連携して、画像管理モジュール144は、静止画像及び/又はビデオ画像の配置、修正(例えば、編集)、あるいはその他の操作、ラベル付け、削除、提示(例えば、デジタルスライドショー又はアルバムにおける)、及び記憶のための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and camera module 143, image management module 144 arranges, modifies (or modifies) still and/or video images. edit), or other manipulation, labeling, deletion, presentation (eg, in a digital slideshow or album), and storage.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ブラウザモジュール147は、ウェブページ又はその一部分、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含めて、ユーザ命令に従ってインターネットをブラウジングするための実行可能な命令を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, browser module 147 provides web pages or portions thereof and links to web pages. Contains executable instructions for browsing the Internet according to user instructions, including retrieving, linking, receiving, and displaying attachments and other files.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、カレンダモジュール148は、ユーザの指示に従い、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダアイテム、to doリストなど)を作成し、表示し、修正し、記憶するための実行可能な命令を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, email client module 140, and browser module 147, calendar module 148 can and executable instructions for creating, displaying, modifying, and storing calendars and data associated with calendars (eg, calendar items, to-do lists, etc.) in accordance with the .

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、ウィジェットモジュール149は、任意選択的にユーザによってダウンロード及び使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, widget module 149 is optionally downloaded and used by the user. (eg weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5) or mini-applications created by users (eg , user created widget 149-6). In some embodiments, widgets include HTML (Hypertext Markup Language) files, CSS (Cascading Style Sheets) files, and JavaScript files. In some embodiments, widgets include XML (Extensible Markup Language) files and JavaScript files (eg, Yahoo! widgets).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、ウィジェットクリエータモジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。 Widget creator module 150, in conjunction with RF circuit 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, optionally creates widgets. (eg, widgetize user-specified portions of web pages).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、検索モジュール151は、ユーザ命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)に一致するメモリ102内の文字、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索するための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, contact/motion module 130, graphics module 132, and text input module 134, search module 151 provides one or more search criteria (e.g., one or more user executable instructions for searching for text, music, sounds, images, videos, and/or other files in memory 102 that match a specified search term).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びにビデオを(例えば、タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生するための実行可能な命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108, and browser module 147, video and music player module 152 can play MP3 or AAC files. Executable instructions that enable a user to download and play pre-recorded music and other sound files stored in one or more file formats such as, and videos (e.g., on touch screen 112 or external port 124 contains executable instructions for displaying, presenting, or otherwise reproducing (on an external display connected via). In some embodiments, device 100 optionally includes the functionality of an MP3 player, such as an iPod (trademark of Apple Inc.).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、メモモジュール153は、ユーザ命令に従ってメモ、to doリストなどを作成及び管理するための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, notes module 153 is an execution module for creating and managing notes, to-do lists, etc., according to user instructions. Contains possible instructions.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、地図モジュール154は、任意選択的に、ユーザ命令に従って、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の場所又はその付近の店舗及び他の対象地点に関するデータ、並びに他の場所ベースのデータ)を受信、表示、修正、及び記憶するために使用される。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, GPS module 135, and browser module 147, map module 154 optionally: Receive, display, modify, and, in accordance with user instructions, maps and data associated with maps (e.g., data regarding driving directions, stores and other points of interest at or near a particular location, and other location-based data) used to remember.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、オンラインビデオモジュール155は、ユーザが特定のオンラインビデオへのアクセス、特定のオンラインビデオのブラウジング、受信(例えば、ストリーミング及び/又はダウンロードによる)、再生(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上)、特定のオンラインビデオへのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイル形式のオンラインビデオの他の管理を行うことを可能にする命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションについての追加の説明は、その内容が全体として参照により本明細書に組み込まれている、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」において見ることができる。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108, text input module 134, email client module 140, and browser module 147, the online Video module 155 allows users to access specific online videos, browse specific online videos, receive (eg, by streaming and/or downloading), and play (eg, on a touch screen or connected via external port 124). on an external display), sending e-mails with links to specific online videos; contains instructions that allow for other management of online video in one or more file formats, such as H.264. In some embodiments, instant messaging module 141 is used rather than email client module 140 to send links to specific online videos. Additional discussion of online video applications can be found in U.S. Provisional Patent Application No. 60/936,562, entitled "Portable Multifunction Device," filed Jun. 20, 2007, the contents of which are hereby incorporated by reference in their entirety. ,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」においてcan see.

上記で特定したモジュール及びアプリケーションはそれぞれ、前述した1つ以上の機能及び本出願に記載する方法(例えば、本明細書に記載するコンピュータにより実装される方法及び他の情報処理方法)を実行する実行可能な命令のセットに対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットが、任意選択的に、組み合わされ、又は他の形で再構成される。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)にされる。いくつかの実施形態では、メモリ102は、任意選択で、上記で特定されたモジュール及びデータ構造体のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the modules and applications identified above may be implemented to perform one or more of the functions described above and the methods described herein (e.g., the computer-implemented methods and other information processing methods described herein). Corresponds to the set of possible instructions. These modules (eg, instruction sets) need not be implemented as separate software programs, procedures, or modules, and thus various subsets of these modules are optionally combined in various embodiments. modified or otherwise reconfigured. For example, a video player module is optionally combined with a music player module into a single module (eg, video and music player module 152 of FIG. 1A). In some embodiments, memory 102 optionally stores a subset of the modules and data structures identified above. In addition, memory 102 optionally stores additional modules and data structures not described above.

いくつかの実施形態では、デバイス100は、そのデバイスにおける既定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを介して実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。 In some embodiments, device 100 is a device in which operation of a predefined set of functions is performed solely through a touchscreen and/or touchpad. number of physical input control devices (push buttons, dials, etc.) is reduced.

タッチスクリーン及び/又はタッチパッドを通じてのみ実行される既定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。 A default set of functions performed only through a touchscreen and/or touchpad optionally includes navigation between user interfaces. In some embodiments, the touchpad navigates device 100 to the main menu, home menu, or root menu from any user interface displayed on device 100 when touched by a user. In such embodiments, the "menu button" is implemented using a touchpad. In some other embodiments, the menu buttons are physical push buttons or other physical input control devices rather than touchpads.

図1Bは、いくつかの実施形態に係るイベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)と、それぞれのアプリケーション136-1(例えば、前述のアプリケーション137~151、155、380~390のうちのいずれか)とを含む。 FIG. 1B is a block diagram illustrating exemplary components for event processing according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) includes event sorter 170 (eg, within operating system 126) and respective applications 136-1 (eg, the aforementioned applications 137-151, 155, any of 380-390).

イベントソータ170は、イベント情報を受信し、イベント情報が伝送されるアプリケーション136-1、及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中であるときにタッチ感知ディスプレイ112上に表示される現在のアプリケーションビュー(単数又は複数)を示すアプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定するためにイベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報が配信されるアプリケーションビュー191を判定するためにイベントソータ170によって使用される。 Event sorter 170 receives event information and determines the application 136-1 to which the event information is transmitted and the application view 191 of application 136-1. Event sorter 170 includes event monitor 171 and event dispatcher module 174 . In some embodiments, application 136-1 includes application internal state 192 that indicates the current application view(s) displayed on touch-sensitive display 112 when the application is active or running. In some embodiments, device/global internal state 157 is used by event sorter 170 to determine which application(s) is currently active, and application internal state 192 is used to determine when event information is delivered. used by event sorter 170 to determine the application view 191 to be displayed.

いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用すべき再開情報、アプリケーション136-1によって表示されている情報を示す又は表示する準備ができたユーザインタフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを可能にする状態キュー、及びユーザによって行われた前のアクションのリドゥ/アンドゥキューのうちの1つ以上などの追加の情報を含む。 In some embodiments, application internal state 192 indicates resume information to be used when application 136-1 resumes execution, information being displayed by application 136-1, or a user ready to display information. Additional features such as interface state information, one or more of a state queue that allows the user to return to a previous state or view of application 136-1, and a redo/undo queue of previous actions taken by the user. Contains information.

イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としてのタッチ感知ディスプレイ112上のユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。 Event monitor 171 receives event information from peripherals interface 118 . Event information includes information about sub-events (eg, a user touch on touch-sensitive display 112 as part of a multi-touch gesture). Peripherals interface 118 transmits information it receives from I/O subsystem 106 or sensors such as proximity sensor 166, accelerometer(s) 168, and/or microphone 113 (via audio circuitry 110). . Information that peripherals interface 118 receives from I/O subsystem 106 includes information from touch-sensitive display 112 or a touch-sensitive surface.

いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回る及び/又は所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。 In some embodiments, event monitor 171 sends requests to peripherals interface 118 at predetermined intervals. In response, peripherals interface 118 transmits event information. In other embodiments, peripherals interface 118 transmits event information only when there is a significant event (eg, receipt of input above a predetermined noise threshold and/or exceeding a predetermined duration).

いくつかの実施形態では、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。 In some embodiments, event sorter 170 also includes hit view determination module 172 and/or active event recognizer determination module 173 .

ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示するとき、サブイベントが1つ以上のビュー内のどこで行われたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。 Hit view determination module 172 provides software procedures for determining where a sub-event occurred within one or more views when touch-sensitive display 112 displays more than one view. Views are made up of controls and other elements that the user can see on the display.

アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウインドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。 Another aspect of the user interface associated with an application is the set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and touch-based gestures occur. The application view (of the respective application) in which the touch is detected optionally corresponds to a program level within the application's program hierarchy or view hierarchy. For example, the lowest level view in which touch is detected is optionally called the hit view, and the set of events recognized as appropriate input is optionally the initial view that initiates a touch gesture. The determination is based at least in part on the hit view of the touch.

ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するとき、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを特定する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成するサブイベントシーケンス内の第1のサブイベント)が行われる最も低いレベルのビューである。ヒットビューがヒットビュー判定モジュール172によって特定されると、このヒットビューは、典型的には、ヒットビューとして特定されたのと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。 The hit view determination module 172 receives information related to sub-events of touch-based gestures. When an application has multiple views arranged in a hierarchy, the hit view determination module 172 identifies the hit view as the lowest view in the hierarchy that should process the sub-event. In most situations, the hit view is the lowest level view in which the initiating sub-event (eg, the first sub-event in the sequence of sub-events forming the event or potential event) takes place. Once a hit view is identified by the hit view determination module 172, this hit view typically receives all sub-events related to the same touch or input source that was identified as the hit view.

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連付けられたエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。 Active event recognizer determination module 173 determines which view(s) in the view hierarchy should receive a particular sequence of sub-events. In some embodiments, active event recognizer determination module 173 determines that only hit views should receive a particular sequence of sub-events. In another embodiment, the active event recognizer determination module 173 determines that all views containing the physical location of the sub-event are actively involved views, thus all actively involved views are: Determine that a particular sequence of sub-events should be received. In other embodiments, even if a touch sub-event is completely localized to an area associated with one particular view, views higher up in the hierarchy remain actively involved views.

イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を伝送する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部182によって取得されるイベント情報をイベントキューに記憶する。 Event dispatcher module 174 dispatches event information to an event recognizer (eg, event recognizer 180). In embodiments that include active event recognizer determination module 173 , event dispatcher module 174 transmits event information to event recognizers determined by active event recognizer determination module 173 . In some embodiments, the event dispatcher module 174 stores event information obtained by each event receiver 182 in an event queue.

いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136-1がイベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュールであり、又は接触/動きモジュール130などのメモリ102内に記憶されている別のモジュールの一部分である。 In some embodiments, operating system 126 includes event sorter 170 . Alternatively, application 136 - 1 includes event sorter 170 . In still other embodiments, event sorter 170 is a stand-alone module or part of another module stored in memory 102 such as touch/motion module 130 .

いくつかの実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理するための命令を含む、複数のイベント処理部190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの任意の1つ以上は、ユーザインタフェースキット、又は、アプリケーション136-1が方法及び他の属性を継承する上位レベルのオブジェクト対象などの、別個のモジュールの一部である。いくつかの実施形態では、それぞれのイベント処理部190は、データ更新部176、オブジェクト更新部177、GUI更新部178、及び/又はイベントソータ170から受信されたイベントデータ179、のうちの1つ以上を含む。イベント処理部190は、任意選択的に、データ更新部176、オブジェクト更新部177、又はGUI更新部178を利用し又は呼び出して、アプリケーション内部状態192を更新する。あるいは、アプリケーションビュー191のうちの1つ以上が、1つ以上のそれぞれのイベント処理部190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178のうちの1つ以上は、それぞれのアプリケーションビュー191に含まれる。 In some embodiments, application 136-1 includes multiple event handlers 190 and one or more applications, each containing instructions for handling touch events that occur within respective views of the application's user interface. Contains view 191 . Each application view 191 of application 136 - 1 includes one or more event recognizers 180 . Typically, each application view 191 includes multiple event recognizers 180 . In other embodiments, any one or more of event recognizers 180 are separate modules, such as user interface kits or higher-level object objects from which application 136-1 inherits methods and other attributes. is part of In some embodiments, each event handler 190 processes one or more of data updater 176, object updater 177, GUI updater 178, and/or event data 179 received from event sorter 170. including. Event handler 190 optionally utilizes or calls data updater 176 , object updater 177 , or GUI updater 178 to update application internal state 192 . Alternatively, one or more of application views 191 include one or more respective event handlers 190 . Also, in some embodiments, one or more of data updater 176 , object updater 177 , and GUI updater 178 are included in each application view 191 .

それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、このイベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。 Each event recognizer 180 receives event information (eg, event data 179) from event sorter 170 and identifies events from this event information. The event recognizer 180 includes an event receiver 182 and an event comparator 184 . In some embodiments, event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188 (optionally including sub-event delivery instructions).

イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。 The event receiver 182 receives event information from the event sorter 170 . Event information includes information about sub-events, such as touches or movement of touches. Depending on the sub-event, the event information also includes additional information such as the location of the sub-event. When the sub-event involves touch movement, the event information optionally also includes the speed and direction of the sub-event. In some embodiments, the event includes rotation of the device from one orientation to another (e.g., portrait to landscape or vice versa), and the event information is the device's current orientation (device (also called the attitude of the

イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば、既定のサブイベントのシーケンス)の定義を含む。いくつかの実施形態では、イベント(187)内のサブイベントは、例えば、タッチの開始、タッチの終了、タッチの移動、タッチの取り消し、及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト対象上のドラッグである。ドラッグは、例えば、所定の段階に対する表示オブジェクト上のタッチ(又は接触)、タッチ感知ディスプレイ112にわたるタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベント処理部190に関する情報も含む。 The event comparator 184 compares the event information to predefined event or sub-event definitions and determines the event or sub-event or determines or updates the state of the event or sub-event based on the comparison. . In some embodiments, event comparator 184 includes event definitions 186 . Event definitions 186 include definitions of events (eg, predefined sequences of sub-events), eg, event 1 (187-1) and event 2 (187-2). In some embodiments, sub-events within event (187) include, for example, touch initiation, touch termination, touch movement, touch cancellation, and multiple touches. In one embodiment, the definition for event 1 (187-1) is a double tap on a displayed object. A double-tap is, for example, a first touch on a display object for a given step (touch start), a first lift-off for a given step (touch end), a second touch on a display object for a given step (touch start), and a second lift-off (end of touch) for a given stage. In another example, the definition of event 2 (187-2) is a drag on a displayed object target. Drag includes, for example, a touch (or contact) on a display object for a given step, movement of the touch across the touch-sensitive display 112, and lift-off of the touch (end of touch). In some embodiments, the event also includes information about one or more associated event handlers 190 .

いくつかの実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112上に3つのユーザインタフェースオブジェクトが表示されているアプリケーションビュー内で、タッチ感知ディスプレイ112上でタッチが検出されたとき、イベント比較部184は、ヒットテストを実行して、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定する。表示された各オブジェクトが、それぞれのイベント処理部190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベント処理部190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトに関連付けられたイベント処理部を選択する。 In some embodiments, event definitions 187 include definitions of events for respective user interface objects. In some embodiments, event comparator 184 performs hit testing to determine which user interface objects are associated with sub-events. For example, when a touch is detected on touch-sensitive display 112 in an application view in which three user interface objects are displayed on touch-sensitive display 112, event comparator 184 performs a hit test to Determine which of the two user interface objects are associated with the touch (sub-event). If each displayed object is associated with a respective event handler 190, the event comparator uses the results of the hit test to determine which event handler 190 should be activated. For example, event comparator 184 selects the event handler associated with the sub-event and object that triggers the hit test.

いくつかの実施形態では、それぞれのイベント187の定義は、サブイベントのシーケンスがイベント認識部のイベントタイプに対応するか否かが判定されるまで、イベント情報の配信を遅らせる遅延アクションも含む。 In some embodiments, each event 187 definition also includes a delay action that delays delivery of event information until it is determined if the sequence of sub-events corresponds to the event recognizer's event type.

それぞれのイベント認識部180が一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断した場合、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。 If the respective event recognizer 180 determines that the sequence of sub-events does not match any of the events in the event definition 186, the respective event recognizer 180 enters an event not possible, event failed, or event terminated state, After that, ignore the next sub-event of the touch-based gesture. In this situation, if there is another event recognizer that remains active for the hit view, that event recognizer will continue to track and process the ongoing touch gesture sub-events.

いくつかの実施形態では、それぞれのイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話することが可能となるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。 In some embodiments, each event recognizer 180 has configurable properties, flags, and/or properties that indicate to actively participating event recognizers how the event delivery system should perform sub-event delivery. or includes metadata 183 with a list. In some embodiments, metadata 183 includes configurable properties, flags, and/or a list. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate whether sub-events are delivered to various levels in the view hierarchy or program hierarchy.

いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントに関連付けられたイベント処理部190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントに関連付けられたイベント情報をイベント処理部190に配信する。イベント処理部190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントに関連付けられたフラグを投入し、そのフラグに関連付けられたイベント処理部190は、そのフラグを捕らえ、既定のプロセスを実行する。 In some embodiments, each event recognizer 180 activates the event processor 190 associated with the event when one or more specific sub-events of the event are recognized. In some embodiments, each event recognizer 180 delivers event information associated with the event to the event processor 190 . Activating the event handler 190 is separate from sending (and deferring sending) sub-events to each hit view. In some embodiments, the event recognizer 180 populates a flag associated with a recognized event, and the event handler 190 associated with that flag catches the flag and performs a predetermined process.

いくつかの実施形態では、イベント配信命令188は、イベント処理部をアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベント処理部に、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベント処理部は、イベント情報を受信し、所定の処理を実行する。 In some embodiments, event delivery instructions 188 include sub-event delivery instructions to deliver event information about the sub-event without activating the event handler. Instead, sub-event delivery instructions deliver event information to event handlers associated with a sequence of sub-events or to actively participating views. An event handler associated with a sequence of sub-events or actively participating views receives event information and performs predetermined processing.

いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新し、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新たなユーザインタフェースオブジェクトを作成し、又はユーザインタフェースオブジェクトの位置を更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。 In some embodiments, data updater 176 creates and updates data used by application 136-1. For example, the data updater 176 updates phone numbers used by the contacts module 137 or stores video files used by the video player module. In some embodiments, object updater 177 creates and updates objects used by application 136-1. For example, the object updater 177 creates new user interface objects or updates the positions of user interface objects. The GUI updater 178 updates the GUI. For example, GUI updater 178 prepares display information and sends the display information to graphics module 132 for display on a touch-sensitive display.

いくつかの実施形態では、イベント処理部(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含む又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, event handler(s) 190 includes or has access to data updater 176 , object updater 177 , and GUI updater 178 . In some embodiments, data updater 176 , object updater 177 , and GUI updater 178 are included in a single module of respective application 136 - 1 or application view 191 . In other embodiments, they are contained in two or more software modules.

タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、その全てがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された眼球運動、バイオメトリック入力、並びに/又はそれらの任意の組み合わせを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。 The foregoing description of event handling of a user's touch on a touch-sensitive display also applies to other forms of user input for operating multifunction device 100 using input devices, all of which are on touch screens. It should be understood that it does not start with . For example, mouse movement and mouse button presses, contact movement such as tapping, dragging, scrolling on touchpads, pen stylus input, devices optionally coupled with single or multiple presses or holds on the keyboard. movements, verbal commands, detected eye movements, biometric inputs, and/or any combination thereof are optionally utilized as inputs corresponding to sub-events that define the event to recognize.

図2は、いくつかの実施形態に係る、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに以下で説明される他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。いくつかの実施形態では、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上向きに及び/若しくは下向きに)、並びに/又は、デバイス100と接触した指のローリング(右から左へ、左から右へ、上向きに及び/若しくは下向きに)を、任意選択で含む。いくつかの実装例又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。 FIG. 2 illustrates portable multifunction device 100 having touch screen 112, according to some embodiments. The touchscreen optionally displays one or more graphics within a user interface (UI) 200 . In this embodiment, as well as other embodiments described below, the user may, for example, use one or more fingers 202 (not drawn to scale) or one or more styluses 203 (not shown to scale). are not drawn to scale) to select one or more of the graphics by performing a gesture on the graphics. In some embodiments, selection of one or more graphics is performed when the user breaks contact with the one or more graphics. In some embodiments, the gesture is one or more taps, one or more swipes (left to right, right to left, upward and/or downward), and/or contact with device 100. Finger rolling (right to left, left to right, upwards and/or downwards) is optionally included. In some implementations or situations, accidental contact with a graphic does not select that graphic. For example, a swipe gesture that sweeps over an application icon optionally does not select the corresponding application if the gesture corresponding to selection is a tap.

デバイス100はまた、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンを含む。前述したように、メニューボタン204は、任意選択的に、任意選択的にデバイス100上で実行される1組のアプリケーション内の任意のアプリケーション136へナビゲートするために使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112上に表示されるGUI内のソフトキーとして実装される。 Device 100 also optionally includes one or more physical buttons such as a “home” button or menu button 204 . As previously mentioned, menu button 204 is optionally used to navigate to any application 136 within the set of applications optionally running on device 100 . Alternatively, in some embodiments, menu buttons are implemented as softkeys within a GUI displayed on touch screen 112 .

いくつかの実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフにしてデバイスをロックするプッシュボタン206、音量調整ボタン208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、既定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、既定の時間が経過する前にボタンを解放することによってデバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。代替的実施形態では、デバイス100はまた、マイクロフォン113を介して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力も受け入れる。デバイス100はまた、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167を含む。 In some embodiments, the device 100 includes a touch screen 112, a menu button 204, push buttons 206 to turn the device on/off and lock the device, volume control buttons 208, a subscriber identity module (SIM) card slot. 210, a headset jack 212, and an external port 124 for docking/charging. The push button 206 optionally powers on/off the device by depressing the button and holding the button depressed for a predetermined period of time such that depressing the button for a predetermined period of time elapses. It is used to lock the device by releasing the button before doing so and/or to unlock the device or initiate the unlocking process. In an alternative embodiment, device 100 also accepts verbal input via microphone 113 to activate or deactivate some functions. Device 100 also optionally includes one or more contact intensity sensors 165 that detect the intensity of contact on touch screen 112 and/or one or more tactile sensors that generate tactile outputs for the user of device 100 . An output generator 167 is included.

図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤデバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は、ディスプレイ340を含む入出力(I/O)インタフェース330を含み、ディスプレイ340は、典型的には、タッチスクリーンディスプレイである。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350と、タッチパッド355と、デバイス300上に触知出力を生成する触知出力生成器357(例えば、図1Aを参照して前述した触知出力生成器167に類似している)と、センサ359(例えば、図1Aを参照して前述した接触強度センサ165に類似している光、加速度、近接、タッチ感知、及び/又は接触強度センサ)とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、任意選択で、CPU(単数又は複数)310からリモートに位置する1つ以上の記憶デバイスを含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102内に記憶されているプログラム、モジュール、及びデータ構造に類似したプログラム、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は、任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。 FIG. 3 is a block diagram of an exemplary multifunction device having a display and a touch-sensitive surface, according to some embodiments; Device 300 need not be portable. In some embodiments, device 300 is a laptop computer, desktop computer, tablet computer, multimedia player device, navigation device, educational device (such as a children's learning toy), gaming system, or control device (e.g., home controller for commercial use or business use). Device 300 typically includes one or more processing units (CPUs) 310, one or more network or other communication interfaces 360, memory 370, and one or more communication buses interconnecting these components. 320 included. Communication bus 320 optionally includes circuitry (sometimes called a chipset) that interconnects and controls communications between system components. Device 300 includes input/output (I/O) interface 330 including display 340, which is typically a touch screen display. The I/O interface 330 also optionally includes a keyboard and/or mouse (or other pointing device) 350, a touchpad 355, and a tactile output generator 357 ( e.g., analogous to the tactile output generator 167 described above with reference to FIG. 1A) and a sensor 359 proximity, touch sensing, and/or contact intensity sensors). Memory 370 includes high speed random access memory such as DRAM, SRAM, DDR RAM, or other random access solid state memory devices, and optionally one or more magnetic disk storage devices, optical disk storage devices, flash memory devices. , or other non-volatile solid-state storage device. Memory 370 optionally includes one or more storage devices located remotely from CPU(s) 310 . In some embodiments, memory 370 stores programs, modules and data structures similar to, or a subset thereof, stored in memory 102 of portable multifunction device 100 (FIG. 1A). memorize Additionally, memory 370 optionally stores additional programs, modules, and data structures not present in memory 102 of portable multifunction device 100 . For example, memory 370 of device 300 optionally stores drawing module 380, presentation module 382, word processing module 384, website creation module 386, disc authoring module 388, and/or spreadsheet module 390. In contrast, memory 102 of portable multifunction device 100 (FIG. 1A) optionally does not store these modules.

図3の上記で特定した要素はそれぞれ、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で特定したモジュールはそれぞれ、前述した機能を実行する命令セットに対応する。上記で特定したモジュール又はプログラム(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットは、任意選択的に、組み合わされ、又は他の形で再構成される。いくつかの実施形態では、メモリ370は、任意選択で、上記で特定されたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造体を任意選択的に記憶する。 Each of the above-identified elements of FIG. 3 are optionally stored in one or more of the memory devices previously described. Each of the modules identified above corresponds to a set of instructions that perform the functions previously described. The modules or programs (e.g., set of instructions) identified above need not be implemented as separate software programs, procedures, or modules; thus, in various embodiments, various subsets of these modules are optionally , combined or otherwise rearranged. In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. In addition, memory 370 optionally stores additional modules and data structures not described above.

次に、任意選択的に例えばポータブル多機能デバイス100上で実施されるユーザインタフェースの実施形態に注意を向ける。 Attention is now directed to user interface embodiments that are optionally implemented, for example, on portable multifunction device 100 .

図4Aは、いくつかの実施形態に係るポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi-Fi(登録商標)信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetooth(登録商標)インジケータ405、
●バッテリ状態インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408:
○不在着信又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた、電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされた、iPod(Apple Inc.の登録商標)モジュール152とも呼ばれるビデオ及び音楽プレーヤモジュール152のアイコン422、及び
●以下のような、他のアプリケーションのアイコン:
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株式」とラベル付けされた、株式ウィジェット149-2のアイコン434、
○「地図」とラベル付けされた、地図モジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136についての設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション又はモジュールのアイコン446。
FIG. 4A illustrates an exemplary user interface of a menu of applications on portable multifunction device 100 according to some embodiments. A similar user interface is optionally implemented on device 300 . In some embodiments, user interface 400 includes the following elements, or subsets or supersets thereof.
- signal strength indicator(s) 402 for wireless communication(s) such as cellular and Wi-Fi signals;
Time 404,
- Bluetooth(R) indicator 405,
- battery status indicator 406;
- A tray 408 with icons for frequently used applications, such as:
o an icon 416 of the phone module 138 labeled "phone", optionally including an indicator 414 of the number of missed calls or voicemail messages;
o Icon 418 of email client module 140 labeled "Mail", optionally including indicator 410 of number of unread emails;
o icon 420 for browser module 147, labeled "Browser"; and o icon 422 for video and music player module 152, also called iPod (trademark of Apple Inc.) module 152, labeled "iPod". , and other application icons, such as:
o IM module 141 icon 424, labeled "Message";
o Icon 426 of calendar module 148, labeled "Calendar";
o icon 428 of image management module 144, labeled "Photos";
o icon 430 for camera module 143, labeled "Camera";
o icon 432 for online video module 155, labeled "online video";
o icon 434 of Stocks widget 149-2, labeled "Stocks";
o icon 436 of map module 154, labeled "Map";
o icon 438 for weather widget 149-1, labeled "Weather";
o icon 440 of alarm clock widget 149-4, labeled "Clock";
o Icon 442 for training support module 142, labeled "Training Support";
o Icon 444 of notes module 153, labeled "Notes"; and o Settings application or module, labeled "Settings", which provides access to settings for device 100 and its various applications 136. icon 446 .

図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152のためのアイコン422は、「音楽」又は「音楽プレーヤ」と表示される。他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。いくつかの実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。 Note that the icon labels shown in FIG. 4A are merely exemplary. For example, the icon 422 for the video and music player module 152 is labeled "music" or "music player." Other labels are optionally used for various application icons. In some embodiments, the label for each application icon includes the name of the application corresponding to each application icon. In some embodiments, the label of a particular application icon is different than the name of the application corresponding to that particular application icon.

図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を生成する1つ以上の触知出力生成器357を含む。 FIG. 4B shows an exemplary display on a device (eg, device 300 of FIG. 3) having a touch-sensitive surface 451 (eg, tablet or touchpad 355 of FIG. 3) that is separate from display 450 (eg, touchscreen display 112). user interface. Device 300 also optionally includes one or more contact strength sensors (eg, one or more of sensors 359) that detect the strength of contact on touch-sensitive surface 451 and/or It includes one or more tactile output generators 357 that generate tactile outputs.

以下の例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示すディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の1次軸(例えば、図4Bの453)に対応する1次軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの場所に対応する場所(例えば、図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの動き)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。 Although some of the examples below are given with reference to input on the touchscreen display 112 (which is a combined touch-sensitive surface and display), in some embodiments the device is as shown in FIG. 4B. Detects input on a touch-sensitive surface separate from the display shown. In some embodiments, the touch-sensitive surface (eg, 451 in FIG. 4B) has a primary axis (eg, 453 in FIG. 4B) that corresponds to the primary axis (eg, 453 in FIG. 4B) on the display (eg, 450). 452). According to these embodiments, the device interacts with touch-sensitive surface 451 at locations corresponding to respective locations on the display (e.g., 460 corresponds to 468 and 462 corresponds to 470 in FIG. 4B). Touches (eg, 460 and 462 in FIG. 4B) are detected. In this way, user input (e.g., contacts 460 and 462, and their movements) detected by the device on the touch-sensitive surface (e.g., 451 in FIG. 4B) is detected by the touch-sensitive surface being separate from the display. When used by the device to operate the user interface on the multifunction device's display (eg, 450 in FIG. 4B). It should be appreciated that similar methods are optionally used for other user interfaces described herein.

加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられるが、一部の実施形態では、指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)に置き換えられることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりの)マウスクリックに続けた、(例えば、接触の移動の代わりの)スワイプの経路に沿ったカーソルの移動によって、任意選択的に置き換えられる。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの位置の上に位置する間はマウスクリックと置き換えられる(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。 Additionally, although the examples below are given primarily with reference to finger input (e.g., finger contact, finger tap gesture, finger swipe gesture), in some embodiments one or more of the finger inputs are , may be replaced by input from another input device (eg, mouse-based input or stylus input). For example, a swipe gesture is optionally replaced by a mouse click (eg, instead of contact) followed by movement of the cursor along the path of the swipe (eg, instead of moving the contact). As another example, a tap gesture is optionally replaced with a mouse click while the cursor is positioned over the location of the tap gesture (e.g., detect contact and subsequently stop detecting contact). instead). Similarly, when multiple user inputs are detected simultaneously, it will be appreciated that multiple computer mice are optionally used simultaneously, or mouse and finger contact are optionally used simultaneously. sea bream.

図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~4B)に関して説明する特徴のうちのいくつか又は全てを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下ではタッチスクリーン504、を有する。あるいは、又はタッチスクリーン504に加えて、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。 FIG. 5A shows an exemplary personal electronic device 500. As shown in FIG. Device 500 includes body 502 . In some embodiments, device 500 can include some or all of the features described with respect to devices 100 and 300 (eg, FIGS. 1A-4B). In some embodiments, the device 500 has a touch-sensitive display screen 504, hereinafter touch screen 504. Alternatively, or in addition to touchscreen 504, device 500 has a display and a touch-sensitive surface. As with devices 100 and 300, in some embodiments, touch screen 504 (or touch-sensitive surface) optionally includes one or more sensors that detect the strength of contact (e.g., touch) being applied. Includes intensity sensor. One or more intensity sensors of touch screen 504 (or touch-sensitive surface) can provide output data representing the intensity of the touch. The user interface of device 500 can respond to touches based on the intensity of the touch, meaning that different intensity touches can invoke different user interface operations on device 500 .

タッチ強度を検出及び処理する例示的な技法は、例えば、それぞれ全体として参照により本明細書に組み込まれている、国際特許第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際特許第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」という関連出願に見られる。 Exemplary techniques for detecting and processing touch intensity are disclosed, for example, in International Patent Application No. PCT/US2013/040061, "Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application", and International Patent No. WO/2014/103712, published as See related application entitled "Device, Method, and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships," International Patent Application No. PCT/US2013/069483, filed May 11.

いくつかの実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的機構とすることができる。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、アイウェア、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計のバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。 In some embodiments, device 500 has one or more input mechanisms 506 and 508 . Input mechanisms 506 and 508, if included, can be physical mechanisms. Examples of physical input mechanisms include push buttons and rotatable mechanisms. In some embodiments, device 500 has one or more attachment mechanisms. Such attachment mechanisms, if included, allow the device 500 to be attached to, for example, hats, eyewear, earrings, necklaces, shirts, jackets, bracelets, watch bands, chains, pants, belts, shoes, purses, backpacks, etc. can make it possible. These attachment mechanisms allow the device 500 to be worn by the user.

図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、図1A、図1B、及び図3に関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。加えて、I/Oセクション514は、Wi-Fi、Bluetooth(登録商標)、近距離通信(NFC)、セルラー、及び/又は他の無線通信技法を使用してアプリケーション及びオペレーティングシステムデータを受信する通信ユニット530に接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば回転可能入力デバイス又は押下可能及び回転可能入力デバイスである。いくつかの例では、入力機構508は、任意選択的にボタンである。 FIG. 5B shows an exemplary personal electronic device 500. As shown in FIG. In some embodiments, device 500 can include some or all of the components described with respect to FIGS. 1A, 1B, and 3. FIG. Device 500 has a bus 512 operatively coupling an I/O section 514 to one or more computer processors 516 and memory 518 . The I/O section 514 can be connected to a display 504, which can have a touch sensing component 522 and optionally an intensity sensor 524 (eg, a touch intensity sensor). In addition, the I/O section 514 communicates to receive application and operating system data using Wi-Fi, Bluetooth, Near Field Communication (NFC), cellular, and/or other wireless communication techniques. It can be connected to unit 530 . Device 500 can include input mechanisms 506 and/or 508 . Input mechanism 506 is optionally a rotatable input device or a depressible and rotatable input device, for example. In some examples, input mechanism 508 is optionally a button.

いくつかの例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はこれらの組み合わせなどの様々なセンサを含み、これらのセンサは全て、I/Oセクション514に動作可能に接続することができる。 In some examples, input mechanism 508 is optionally a microphone. Personal electronic device 500 optionally includes various sensors such as GPS sensor 532, accelerometer 534, orientation sensor 540 (e.g., compass), gyroscope 536, motion sensor 538, and/or combinations thereof, All of these sensors can be operatively connected to I/O section 514 .

パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶するための1つ以上の非一時的コンピュータ可読記憶媒体を含み得、それらの命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、コンピュータプロセッサに、プロセス800(図8A~8B)、プロセス1000(図10)、プロセス1200(図12)、プロセス1400(図14)、及びプロセス1600(図16)を含めた、以下に説明する技術を実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって使用するための、又は命令実行システム、装置、又はデバイスに接続されているコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体とすることができる。いくつかの実施例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの実施例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それだけに限定されるものではないが、磁気、光学、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu-ray(登録商標)技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの常駐ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。 Memory 518 of personal electronic device 500 may include one or more non-transitory computer-readable storage media for storing computer-executable instructions, which when executed by one or more computer processors 516 . , for example, in a computer processor, including process 800 (FIGS. 8A-8B), process 1000 (FIG. 10), process 1200 (FIG. 12), process 1400 (FIG. 14), and process 1600 (FIG. 16), below. The techniques described can be implemented. A computer-readable storage medium is any capable of tangibly containing or storing computer-executable instructions for use by or in connection with an instruction execution system, apparatus, or device. can be a medium of In some examples, the storage medium is a temporary computer-readable storage medium. In some examples, the storage medium is a non-transitory computer-readable storage medium. Non-transitory computer-readable storage media may include, but are not limited to, magnetic, optical, and/or semiconductor storage devices. Examples of such storage devices include magnetic discs, CDs, DVDs, or optical discs based on Blu-ray® technology, as well as resident solid state memories such as flash, solid state drives, and the like. Personal electronic device 500 is not limited to the components and configuration of FIG. 5B, but can include other or additional components in multiple configurations.

本明細書では、「アフォーダンス」という用語は、任意選択的にデバイス100、300、及び/又は500(図1A、図3、及び図5A~5B)のディスプレイスクリーン上に表示されるユーザ対話グラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及び文字(例えば、ハイパーリンク)はそれぞれ、意選択的に、アフォーダンスを構成する。 As used herein, the term “affordance” refers to a user-interacting graphical user interface optionally displayed on a display screen of device 100, 300, and/or 500 (FIGS. 1A, 3, and 5A-5B). Points to an interface object. For example, images (eg, icons), buttons, and text (eg, hyperlinks) each optionally constitute affordances.

本明細書で使用される「フォーカスセレクタ」という用語は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の場所マーカーを含むいくつかの実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の上に位置する間に、タッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で入力(例えば、押下入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接対話を有効化するタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含むいくつかの実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の場所で入力(例えば、接触による押下入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。いくつかの実装例では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動(例えば、フォーカスを1つのボタンから別のボタンへ動かすためにタブキー又は矢印キーを使用することによる)なく、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域へ動かされ、これらの実装例では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタがとる特有の形態に関わらず、フォーカスセレクタは、概して、ユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)であり、ユーザの意図する対話をユーザインタフェースによって通信するように、ユーザによって制御される(例えば、ユーザが対話することを意図しているユーザインタフェースの要素をデバイスに示すことによる)。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、対応のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、その対応のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。 As used herein, the term "focus selector" refers to an input element that indicates the current portion of the user interface with which the user is interacting. In some implementations that include a cursor or other location marker, the cursor acts as a "focus selector," so that the cursor is positioned over a particular user interface element (e.g., button, window, slider, or other user interface element). When an input (e.g., a press input) is detected on a touch-sensitive surface (e.g., touch pad 355 in FIG. 3 or touch-sensitive surface 451 in FIG. 4B) while overlying, a particular user interface element Adjusted according to the detected input. In some implementations, including a touch screen display that enables direct interaction with user interface elements on the touch screen display (e.g., touch-sensitive display system 112 of FIG. 1A or touch screen 112 of FIG. 4A), Detected touch acts as a "focus selector", thus allowing input (e.g., by touch When a press input) is detected, certain user interface elements are adjusted according to the detected input. In some implementations, focus can be moved without corresponding cursor movement or contact movement on the touch screen display (e.g., by using the tab key or arrow keys to move focus from one button to another). is moved from one area of the user interface to another area of the user interface, and in these implementations the focus selector moves as focus moves between different areas of the user interface. Regardless of the specific form it takes, a focus selector is generally a user interface element (or contact on a touch screen display) that is controlled by a user to communicate the user's intended interaction through the user interface. (eg, by indicating to the device the elements of the user interface that the user is intended to interact with). For example, the position of a focus selector (e.g., cursor, touch, or selection box) over the corresponding button while a press input is detected on a touch-sensitive surface (e.g., touchpad or touchscreen) It indicates that the user intends to activate the corresponding button (as opposed to other user interface elements shown on the device's display).

本明細書及び特許請求の範囲で使用される、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、すなわち、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後の)に関連する既定の期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。いくつかの実施形態では、特性強度を判定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。いくつかの実施形態では、特性強度は、ユーザによって動作が実行されたかどうかを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1組の1つ以上の強度閾値は、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この例では、第1の閾値を超過しない特性強度を有する接触は、第1の動作をもたらし、第1の強度閾値を超過するが第2の強度閾値を超過しない特性強度を有する接触は、第2の動作をもたらし、第2の閾値を超過する特性強度を有する接触は、第3の動作をもたらす。いくつかの実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、それぞれの動作を実行するべきか、それともそれぞれの動作を実行するのを取り止めるべきか)を判定するために使用される。 As used herein and in the claims, the term "characteristic strength" of contact refers to the properties of that contact based on one or more strengths of the contact. In some embodiments, the characteristic intensity is based on multiple intensity samples. The characteristic intensity is optionally a predefined number of intensity samples, i.e., a predefined event (e.g., after detecting a contact, before detecting lift-off of the contact, before or after detecting the start of movement of the contact, a predetermined time period (e.g., 0.05, 0.1, 0.2, 0.5, 1, 2, 5, 10 seconds). The characteristic strength of contact is optionally maximum strength of contact, mean strength of contact, average strength of contact, top 10 percentile strength of contact, strength of contact , a maximum 90 percent value of the intensity of contact, and so on. In some embodiments, the duration of contact is used in determining the characteristic strength (eg, when the characteristic strength is the average strength of the contact over time). In some embodiments, the characteristic strength is compared to a set of one or more strength thresholds to determine whether an action has been performed by the user. For example, the set of one or more intensity thresholds optionally includes a first intensity threshold and a second intensity threshold. In this example, a contact with a characteristic strength that does not exceed a first threshold results in a first action, and a contact with a characteristic strength that exceeds the first strength threshold but does not exceed a second strength threshold results in a second A contact that results in a motion of 2 and has a characteristic intensity exceeding a second threshold results in a third motion. In some embodiments, a comparison between the characteristic strength and one or more thresholds is used to determine whether to perform the first action or the second action. Instead, it is used to determine whether to perform one or more actions (e.g., whether to perform each action or not to perform each action).

図5Cは、複数の強度センサ524A~524Dによってタッチ感知ディスプレイスクリーン504上で複数の接触552A~552Eを検出することを示す。図5Cは、追加として、強度単位に対する強度センサ524A~524Dの現在の強度測定値を示す強度ダイアグラムを含む。この例では、強度センサ524A及び524Dの強度測定値はそれぞれ9強度単位であり、強度センサ524B及び524Cの強度測定値はそれぞれ7強度単位である。いくつかの実装形態では、集約強度は、複数の強度センサ524A~524Dの強度測定値の和であり、この例では32強度単位である。いくつかの実施形態では、各接触に、集約強度の一部分であるそれぞれの強度が割り当てられる。図5Dは、力の中心554からの距離に基づいて、集約強度を接触552A~552Eに割り当てることを示す。この例では、接触552A、552B、及び552Eのそれぞれに、集約強度の8強度単位の接触の強度が割り当てられ、接触552C及び552Dのそれぞれに、集約強度の4強度単位の接触の強度が割り当てられる。より一般的には、いくつかの実装例では、各接触jは、所定の数学関数Ij=A・(Dj/ΣDi)に従って、合計の強度Aの一部分である、それぞれの強度Ijが割り当てられ、ここで、Djは、力の中心からそれぞれの接触jまでの距離であり、ΣDiは、力の中心から全てのそれぞれ接触(例えば、i=1から最後まで)までの距離の和である。図5C~図5Dを参照して説明した動作は、デバイス100、300又は500と類似若しくは同一の電子デバイスを使用して行うことができる。いくつかの実施形態では、接触の特性強度は、接触の1つ以上の強度に基づいている。いくつかの実施形態では、強度センサは、単一の特性強度(例えば、単一の接触の単一の特性強度)を判定するために使用される。強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5C~図5Dに含まれていることに留意されたい。 FIG. 5C illustrates detecting multiple contacts 552A-552E on touch-sensitive display screen 504 by multiple intensity sensors 524A-524D. FIG. 5C additionally includes an intensity diagram showing current intensity measurements of intensity sensors 524A-524D versus intensity units. In this example, the intensity measurements of intensity sensors 524A and 524D are each 9 intensity units, and the intensity measurements of intensity sensors 524B and 524C are each 7 intensity units. In some implementations, the aggregate intensity is the sum of the intensity measurements of multiple intensity sensors 524A-524D, which in this example is 32 intensity units. In some embodiments, each contact is assigned a respective intensity that is a fraction of the aggregate intensity. FIG. 5D shows assigning aggregate strengths to contacts 552A-552E based on distance from center of force 554. FIG. In this example, contacts 552A, 552B, and 552E are each assigned a strength of contact of 8 intensity units of the aggregate strength, and contacts 552C and 552D are each assigned a strength of contact of 4 strength units of the aggregate strength. . More generally, in some implementations, each contact j is assigned a respective intensity Ij, which is a fraction of the total intensity A, according to a predetermined mathematical function Ij=A·(Dj/ΣDi); where Dj is the distance from the center of force to each contact j, and ΣDi is the sum of the distances from the center of force to all respective contacts (eg, from i=1 to the last). The operations described with reference to FIGS. 5C-5D may be performed using an electronic device similar or identical to device 100, 300 or 500. FIG. In some embodiments, the characteristic strength of contact is based on one or more strengths of contact. In some embodiments, an intensity sensor is used to determine a single characteristic intensity (eg, a single characteristic intensity of a single contact). Note that the intensity diagrams are not part of the display user interface and are included in FIGS. 5C-5D to aid the reader.

いくつかの実施形態では、特性強度を判定する目的のために、ジェスチャの一部分が特定される。例えば、タッチ感知面は、任意選択的に、開始場所から遷移して終了場所に到達する連続するスワイプ接触を受信し、その時点で接触の強度が増大する。この例では、終了場所での接触の特性強度は、任意選択的に、スワイプ接触全体ではなく、連続するスワイプ接触の一部分のみ(例えば、スワイプ接触のうち終了場所の部分のみ)に基づいている。いくつかの実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムがスワイプ接触の強度に適用される。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を判定する目的のために、スワイプ接触の強度の小幅な上昇又は降下を排除する。 In some embodiments, a portion of the gesture is identified for purposes of determining characteristic strength. For example, the touch-sensitive surface optionally receives successive swipe contacts transitioning from a starting location to reaching an ending location, at which point the contact increases in strength. In this example, the characteristic strength of the contact at the end location is optionally based on only a portion of the continuous swipe contact (eg, only the portion of the swipe contact at the end location) rather than the entire swipe contact. In some embodiments, a smoothing algorithm is optionally applied to the strength of the swipe contact prior to determining the characteristic strength of the contact. For example, the smoothing algorithm optionally includes one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and/or an exponential smoothing algorithm. In some situations, these smoothing algorithms eliminate small increases or decreases in strength of swipe contacts for purposes of determining characteristic strength.

タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押下の強度閾値、深い押下の強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けられる。いくつかの実施形態では、軽い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作をデバイスが実行する強度に相当する。いくつかの実施形態では、深い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作とは異なる動作をデバイスが実行する強度に相当する。いくつかの実施形態では、軽い押圧強度閾値を下回る(例えば、それを下回ると接触が検出されなくなる公称接触検出強度閾値を上回る)特性強度を有する接触が検出されたとき、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従ってフォーカスセレクタを動かす。一般に、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の様々なセットの間で一貫している。 The intensity of contact on the touch-sensitive surface is optionally one or more intensities, such as a touch detection intensity threshold, a light press intensity threshold, a deep press intensity threshold, and/or one or more other intensity thresholds. Characterized against a threshold. In some embodiments, the light pressure intensity threshold corresponds to the intensity at which the device performs actions typically associated with clicking a physical mouse button or trackpad. In some embodiments, the deep press intensity threshold corresponds to an intensity at which the device performs a different action than is typically associated with clicking a physical mouse button or trackpad. In some embodiments, when a touch is detected with a characteristic strength below a light pressure intensity threshold (e.g., above a nominal touch detection intensity threshold below which no contact is detected), the device detects the light pressure intensity Moving the focus selector according to the movement of the contact on the touch-sensitive surface without performing the actions associated with the threshold or the deep pressure intensity threshold. In general, unless otherwise stated, these intensity thresholds are consistent between different sets of user interface diagrams.

軽い押圧強度閾値を下回る強度から、軽い押圧強度閾値と深い押圧強度閾値との間の強度への、接触の特性強度の増大は、「軽い押圧」の入力と呼ばれることがある。深い押圧強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への、接触の特性強度の増大は、「深い押圧」の入力と呼ばれることがある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への、接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれることがある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への、接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれることがある。いくつかの実施形態では、接触検出強度閾値はゼロである。いくつかの実施形態では、接触検出強度閾値は、ゼロより大きい。 An increase in the characteristic strength of a contact from an intensity below the light pressure threshold to an intensity between the light pressure threshold and the deep pressure threshold is sometimes referred to as a "light pressure" input. An increase in the characteristic strength of a contact from an intensity below the deep pressure threshold to an intensity above the deep pressure threshold is sometimes referred to as a "deep pressure" input. An increase in the characteristic strength of a touch from an intensity below the touch detection intensity threshold to an intensity between the touch detection intensity threshold and the light pressure intensity threshold is sometimes referred to as detecting contact on the touch surface. A decrease in the characteristic strength of the contact from an intensity above the contact detection intensity threshold to an intensity below the contact detection intensity threshold is sometimes referred to as detecting lift-off of the contact from the touch surface. In some embodiments, the contact detection strength threshold is zero. In some embodiments, the contact detection strength threshold is greater than zero.

本明細書に記載する一部の実施形態では、それぞれの押圧入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(若しくは複数の接触)によって実行されたそれぞれの押圧入力を検出したことに応じて、1つ以上の動作が実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は複数の接触)の強度の増大を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大(例えば、それぞれの押圧入力の「ダウンストローク」)を検出したことに応じて実行される。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続く押圧入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応じて実行される。 In some embodiments described herein, in response to detecting a gesture comprising a respective pressure input or having detected a respective pressure input performed by a respective contact (or multiple contacts). One or more actions are performed in response to and each pressure input is detected based at least in part on detecting an increase in the intensity of the contact (or contacts) above the pressure input intensity threshold. . In some embodiments, the respective action is performed in response to detecting an increase in the strength of the respective contact above a pressure input strength threshold (eg, a "downstroke" of the respective pressure input). In some embodiments, the pressure input includes increasing the strength of each contact above the pressure input strength threshold followed by decreasing the strength of the contact below the pressure input strength threshold, and each action comprises a subsequent pressure Execution is in response to detecting a decrease in the intensity of the respective touch below the input threshold (eg, an "upstroke" of the respective pressure input).

図5E~5Hは、図5Eの軽い押圧の強度閾値(例えば、「IT」)を下回る強度から、図5Hの深い押圧の強度閾値(例えば、「IT」)を上回る強度への、接触562の強度の増大に対応する押圧入力を含むジェスチャの検出を示す。接触562によって実行されるジェスチャは、タッチ感知面560上で検出され、既定領域574内に表示されたアプリケーションアイコン572A~572Dを含む表示ユーザインタフェース570上では、アプリ2に対応するアプリケーションアイコン572Bの上にカーソル576が表示される。いくつかの実施形態では、ジェスチャは、タッチ感知ディスプレイ504上に検出される。強度センサは、タッチ感知面560上の接触の強度を検出する。デバイスは、接触562の強度が深い押圧の強度閾値(例えば、「IT」)を上回ってピークに達したと判定する。接触562は、タッチ感知面560上で維持される。ジェスチャの検出に応答して、ジェスチャ中に深い押圧の強度閾値(例えば、「IT」)を上回る強度を有する接触562に従って、図5F~5Hに示すように、アプリ2に対して最近開いた文書の縮尺が低減された表現578A~578C(例えば、サムネイル)が表示される。いくつかの実施形態では、1つ以上の強度閾値と比較される強度は、接触の特性強度である。接触562に対する強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5E~5Hに含まれていることに留意されたい。 FIGS. 5E-5H illustrate a contact from an intensity below the light press intensity threshold (eg, “IT L ”) in FIG. 5E to an intensity above the deep press intensity threshold (eg, “IT D ”) in FIG. 5H. 562 shows the detection of a gesture involving press input corresponding to an increase in strength. A gesture performed by contact 562 is detected on touch-sensitive surface 560 and displayed on display user interface 570, including application icons 572A-572D displayed within default area 574, over application icon 572B corresponding to app 2. A cursor 576 is displayed at . In some embodiments, gestures are detected on touch-sensitive display 504 . The intensity sensor detects the intensity of contact on touch-sensitive surface 560 . The device determines that the intensity of contact 562 has peaked above the deep press intensity threshold (eg, “IT D ”). Contact 562 is maintained on touch sensitive surface 560 . In response to detection of the gesture, according to contact 562 having an intensity above the intensity threshold of a deep press (eg, "IT D ") during the gesture, as shown in FIGS. A reduced-scale representation 578A-578C (eg, a thumbnail) of the document is displayed. In some embodiments, the strength compared to one or more strength thresholds is the characteristic strength of the contact. Note that the intensity diagram for contact 562 is not part of the display user interface and is included in FIGS. 5E-5H to aid the reader.

いくつかの実施形態では、表現578A~578Cの表示は、アニメーションを含む。例えば、図5Fに示すように、表現578Aが、アプリケーションアイコン572Bに近接して最初に表示される。アニメーションが進むにつれて、図5Gに示すように、表現578Aは上方へ動き、表現578Bが、アプリケーションアイコン572Bに近接して表示される。次いで、図5Hに示すように、表現578Aが上方へ動き、表現578Bが表現578Aに向かって上方へ動き、表現578Cが、アプリケーションアイコン572Bに近接して表示される。表現578A~578Cは、アイコン572Bの上にアレイを形成する。いくつかの実施形態では、アニメーションは、図5F~5Gに示すように、接触562の強度に従って進行し、接触562の強度が深い押圧の強度閾値(例えば、「IT」)に向かって増大するにつれて、表現578A~578Cが現れ、上方へ動く。いくつかの実施形態では、アニメーションの進行が基づいている強度は、接触の特性強度である。図5E~5Hを参照して説明する動作は、デバイス100、300、又は500に類似又は同一の電子デバイスを使用して実行することができる。 In some embodiments, the display of representations 578A-578C includes animation. For example, as shown in FIG. 5F, representation 578A is first displayed in proximity to application icon 572B. As the animation progresses, representation 578A moves upward and representation 578B is displayed closer to application icon 572B, as shown in FIG. 5G. Representation 578A then moves upward, representation 578B moves upward toward representation 578A, and representation 578C is displayed proximate application icon 572B, as shown in FIG. 5H. Representations 578A-578C form an array over icon 572B. In some embodiments, the animation progresses according to the intensity of contact 562, as shown in FIGS . As it does so, representations 578A-578C appear and move upward. In some embodiments, the strength on which the animation progression is based is the characteristic strength of the contact. The operations described with reference to FIGS. 5E-5H may be performed using an electronic device similar or identical to device 100, 300, or 500. FIG.

一部の実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との所定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な割合である)。したがって、一部の実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続くヒステリシス強度閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応答して実行される。類似して、一部の実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、その後のヒステリシス強度以下の強度への接触の強度の減少を検出するときにのみ検出され、それぞれの動作は、押圧入力(例えば、状況に依存して、接触の強度の増大又は接触の強度の減少)を検出したことに応答して実行される。 In some embodiments, the device employs intensity hysteresis to avoid inadvertent inputs, sometimes referred to as "jitter," wherein the device has a hysteresis intensity threshold that has a predetermined relationship to the pressing input intensity threshold. (e.g., the hysteresis intensity threshold is X intensity units less than the pressure input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable percentage of the pressure input intensity threshold ). Thus, in some embodiments, the pressure input includes an increase in strength of each contact above a pressure input strength threshold followed by a decrease in strength of the contact below a hysteresis strength threshold corresponding to the pressure input strength threshold, Each action is performed in response to detecting a subsequent decrease in the strength of the respective contact below the hysteresis strength threshold (eg, the "upstroke" of the respective pressure input). Analogously, in some embodiments, a pressure input causes the device to increase the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, and optionally a subsequent hysteresis intensity. Detected only when detecting a decrease in the strength of contact to a strength less than or equal to each detected pressing input (e.g., increasing the strength of the contact or decreasing the strength of the contact, depending on the situation) is executed in response to

説明を容易にするために、押圧入力強度閾値に関連付けられた押圧入力、又は押圧入力を含むジェスチャに応答して実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応答してトリガされる。更に、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応答して実行されるように動作が記載される例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応答して実行される。 For ease of explanation, descriptions of actions performed in response to a press input associated with, or a gesture including, a press input associated with a pressure input intensity threshold optionally include the an increase in intensity, an increase in intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, a decrease in intensity of the contact below the pressure input intensity threshold, and/or a hysteresis intensity corresponding to the pressure input intensity threshold. Triggered in response to detecting any decrease in the intensity of the touch below the threshold. Further, in examples in which actions are described as being performed in response to detecting a decrease in the intensity of contact below a pressure input intensity threshold, the actions optionally correspond to the pressure input intensity threshold, and in response to detecting a decrease in the intensity of the touch below a lower hysteresis intensity threshold.

図5Iは、例示的な電子デバイス580を示す。デバイス580は、本体580Aを含む。いくつかの実施形態では、デバイス580は、デバイス100、300、及び500(例えば、図1A~5B)に関して説明する特徴のうちのいくつか又は全てを含むことができる。いくつかの実施形態では、デバイス580は、1つ以上のスピーカ580B(本体580Aに隠す)、1つ以上のマイクロフォン580C、1つ以上のタッチ感知面580D、及び1つ以上のディスプレイ580Eを有する。代替の場合、又はディスプレイ及びタッチ感知面580Dに加えて、デバイスは、タッチ感知ディスプレイ(タッチスクリーンとも呼ばれる)を有する。デバイス100、300、及び500と同様に、いくつかの実施形態では、タッチ感知面580D(又はタッチスクリーン)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出するための1つ以上の強度センサを含む。タッチ感知面580D(又はタッチスクリーン)の1つ以上の強度センサによって、タッチの強度を表す出力データが提供され得る。デバイス580のユーザインタフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチが、デバイス580上で異なるユーザインタフェース動作を呼び出すことができることを意味する。いくつかの実施形態では、1つ以上のディスプレイ580Eは、1つ以上の発光ダイオード(LED)である。例えば、ディスプレイは、単一のLED、LEDクラスタ(例えば、赤色、緑色、及び青色LED)、複数の分離LED、複数の分離LEDクラスタ、又は1つ以上のLEDの他の配置であり得る。例えば、ディスプレイ580Eは、円形状(例えば、リング)に配置された9個の分離LEDクラスタのアレイであってもよい。いくつかの実施例では、1つ以上のディスプレイは、別のタイプの発光要素のうちの任意の1つ以上から構成される。 FIG. 5I shows an exemplary electronic device 580. FIG. Device 580 includes body 580A. In some embodiments, device 580 can include some or all of the features described with respect to devices 100, 300, and 500 (eg, FIGS. 1A-5B). In some embodiments, device 580 has one or more speakers 580B (hidden in body 580A), one or more microphones 580C, one or more touch-sensitive surfaces 580D, and one or more displays 580E. Alternatively, or in addition to the display and touch-sensitive surface 580D, the device has a touch-sensitive display (also called a touchscreen). As with devices 100, 300, and 500, in some embodiments, touch-sensitive surface 580D (or touch screen) is optionally configured to detect the strength of contact (e.g., touch) being applied. including one or more intensity sensors of One or more intensity sensors on touch-sensitive surface 580D (or touch screen) may provide output data representing the intensity of the touch. The user interface of device 580 can respond to touches based on the intensity of the touch, meaning that different intensity touches can invoke different user interface actions on device 580 . In some embodiments, one or more displays 580E are one or more light emitting diodes (LEDs). For example, the display can be a single LED, an LED cluster (eg, red, green, and blue LEDs), multiple separated LEDs, multiple separated LED clusters, or other arrangement of one or more LEDs. For example, display 580E may be an array of nine separate LED clusters arranged in a circle (eg, ring). In some examples, the one or more displays are composed of any one or more of another type of light emitting element.

図5Jは、例示的なパーソナル電子デバイス580を図示する。いくつかの実施形態では、デバイス580は、図1A、図1B、図3、及び図5A~5Bに関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス580は、I/Oセクション594を1つ以上のコンピュータプロセッサ596及びメモリ598に動作可能に結合するバス592を有する。I/Oセクション594は、ディスプレイ582に接続することができ、ディスプレイは、タッチ感知式構成要素584と、任意選択的に強度センサ585(例えば、接触強度センサ)とを有することができる。いくつかの実施形態では、タッチ感知式構成要素584は、ディスプレイ582とは別個の構成要素である。加えて、I/Oセクション594は、Wi-Fi、Bluetooth、近距離通信(NFC)、セルラー、及び/又は他の無線通信技術を使用してアプリケーション及びオペレーティングシステムデータを受信するための通信ユニット590に接続することができる。デバイス580は、入力メカニズム588を含むことができる。いくつかの例では、入力メカニズム588は、任意選択的にボタンである。いくつかの例では、入力メカニズム588は、任意選択的にマイクロフォンである。入力メカニズム588は任意選択的に、複数のマイクロフォン(例えば、マイクロフォンアレイ)である。 FIG. 5J illustrates an exemplary personal electronic device 580. As shown in FIG. In some embodiments, device 580 can include some or all of the components described with respect to FIGS. 1A, 1B, 3, and 5A-5B. Device 580 has a bus 592 operably coupling I/O section 594 to one or more computer processors 596 and memory 598 . The I/O section 594 can be connected to a display 582, which can have a touch-sensitive component 584 and optionally an intensity sensor 585 (eg, a contact intensity sensor). In some embodiments, touch-sensitive component 584 is a separate component from display 582 . Additionally, the I/O section 594 is a communication unit 590 for receiving application and operating system data using Wi-Fi, Bluetooth, Near Field Communication (NFC), cellular, and/or other wireless communication technologies. can be connected to Device 580 may include input mechanism 588 . In some examples, input mechanism 588 is optionally a button. In some examples, input mechanism 588 is optionally a microphone. Input mechanism 588 is optionally a plurality of microphones (eg, a microphone array).

電子デバイス580は、音声を出力するスピーカ586を含む。デバイス580は、音声データを受信し、音声データを電気信号に変換し、電気信号をスピーカ586に送信するオーディオ回路(例えば、I/Oセクション594内)を含むことができる。スピーカ586は、電気信号を人間の可聴音波に変換する。オーディオ回路(例えば、I/Oセクション594内)はまた、マイクロフォン(例えば、入力メカニズム588)によって音波から変換された電気信号を受信する。オーディオ回路(例えば、I/Oセクション594内)は、電気信号を音声データに変換する。音声データは、任意選択的に、I/Oセクション594によって、(例えば、通信ユニット590の)メモリ598及び/又はRF回路590から取得され、並びに/若しくはメモリ102及び/又はRF回路108に送信される。 Electronic device 580 includes speaker 586 for outputting audio. Device 580 may include audio circuitry (eg, in I/O section 594 ) that receives audio data, converts the audio data to electrical signals, and transmits the electrical signals to speaker 586 . Speaker 586 converts the electrical signal into human audible sound waves. Audio circuitry (eg, in I/O section 594) also receives electrical signals converted from sound waves by a microphone (eg, input mechanism 588). Audio circuitry (eg, in I/O section 594) converts electrical signals to audio data. Audio data is optionally retrieved from memory 598 and/or RF circuitry 590 (eg, of communication unit 590) and/or transmitted to memory 102 and/or RF circuitry 108 by I/O section 594. be.

パーソナル電子デバイス580のメモリ598は、コンピュータ実行可能命令を記憶するための1つ以上の非一時的コンピュータ可読記憶媒体を含み得、それらの命令は、1つ以上のコンピュータプロセッサ596によって実行されると、例えば、コンピュータプロセッサに、プロセス800(図8A~8B)、プロセス1000(図10)、プロセス1200(図12)、プロセス1400(図14)、及びプロセス1600(図16)を含めた、以下に説明する技術を実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって使用するための、又は命令実行システム、装置、又はデバイスに接続されているコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体とすることができる。いくつかの実施例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの実施例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それだけに限定されるものではないが、磁気、光学、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu-ray技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの常駐ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス580は、図5Jの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。 Memory 598 of personal electronic device 580 may include one or more non-transitory computer-readable storage media for storing computer-executable instructions, which when executed by one or more computer processors 596 , for example, in a computer processor, including process 800 (FIGS. 8A-8B), process 1000 (FIG. 10), process 1200 (FIG. 12), process 1400 (FIG. 14), and process 1600 (FIG. 16), below. The techniques described can be implemented. A computer-readable storage medium is any capable of tangibly containing or storing computer-executable instructions for use by or in connection with an instruction execution system, apparatus, or device. can be a medium of In some examples, the storage medium is a temporary computer-readable storage medium. In some examples, the storage medium is a non-transitory computer-readable storage medium. Non-transitory computer-readable storage media may include, but are not limited to, magnetic, optical, and/or semiconductor storage devices. Examples of such storage devices include magnetic discs, CDs, DVDs, or optical discs based on Blu-ray technology, as well as resident solid state memories such as flash, solid state drives, and the like. Personal electronic device 580 is not limited to the components and configuration of FIG. 5J, but can include other or additional components in multiple configurations.

次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実装されるユーザインタフェース(「UI」)及び関連付けるプロセスの実施形態に注意を向ける。 Attention is now directed to embodiments of user interfaces (“UIs”) and associated processes implemented on an electronic device such as portable multifunction device 100 , device 300 or device 500 .

図6は、いくつかの実施形態に係る物理的構造及び例示的なデバイスの1組を示す、図600を含む。図6は、図8A~8B、図10及び図12のプロセスを含む、以下に説明するプロセスを例示するために使用される。 FIG. 6 includes a diagram 600 showing a set of physical structures and exemplary devices according to some embodiments. FIG. 6 is used to illustrate the processes described below, including the processes of FIGS. 8A-8B, 10 and 12. FIG.

図600は、ホーム602及び1組のデバイス(例えば、デバイス646、デバイス604など)を含む。ホーム602は、キッチン602a、ダイニングルーム602b、寝室602c、リビングルーム602d、及びサンルーム602eなどの、複数の部屋を含む。キッチン602aはホーム602の左上部分にあり、ダイニングルーム602bはキッチン602aと寝室602cの間にあり、ここで寝室602cはダイニングルーム602bの右にある。キッチン602a及びダイニングルーム602bは、それらの間に壁を有していないが、ダイニングルーム602bと寝室602cの間は壁を有している。リビングルーム602dは、ホーム602の左下部分にあり、サンルーム602eは、ホーム602の右下部分にある。いくつかの実施形態では、ホーム602は、図6に図示される部屋以外の部屋を含み、及び/又は図6に図示される部屋を除外する。図600はホームを図示しているが、これは単に一例であり、本明細書に記載される技術は、オフィスビル、ホテル、アパートなどの他のタイプの物理的構造体で機能することができることを認識されたい。 Diagram 600 includes home 602 and a set of devices (eg, device 646, device 604, etc.). Home 602 includes multiple rooms, such as kitchen 602a, dining room 602b, bedroom 602c, living room 602d, and sunroom 602e. Kitchen 602a is in the upper left portion of home 602, and dining room 602b is between kitchen 602a and bedroom 602c, where bedroom 602c is to the right of dining room 602b. Kitchen 602a and dining room 602b do not have walls between them, but dining room 602b and bedroom 602c do. Living room 602 d is in the lower left portion of home 602 and sunroom 602 e is in the lower right portion of home 602 . In some embodiments, home 602 includes rooms other than the rooms illustrated in FIG. 6 and/or excludes the rooms illustrated in FIG. Although diagram 600 illustrates a home, this is merely an example and the techniques described herein can work with other types of physical structures such as office buildings, hotels, apartments, etc. want to be recognized.

図6に示すように、ホーム602の各部屋は、少なくとも1つのデバイスを有する。しかしながら、いくつかの実施形態では、ホーム602の部屋は、デバイスを有さない。 As shown in FIG. 6, each room of home 602 has at least one device. However, in some embodiments, rooms in home 602 do not have devices.

図6に示すように、ジョンの電話604は、ストーブとヒケの間のカウンター上に位置するキッチン602aにある。ダイニングルーム602bでは、ダイニングルームスピーカ616は、ダイニングルームテーブル上に位置している。寝室602cでは、ベッド上にパーソナルタブレット634が位置しており、寝室スピーカ636がベッドに隣接するナイトスタンド上に位置しており、寝室光632はベッドの反対側に配置される。リビングルーム602dでは、リビングルームスピーカ646及びリビングルームスピーカ648は、テレビの反対側にあり、リビングルームランプ642はテレビスクリーンの前に位置付けられる。サンルーム602eでは、サンルームスピーカ656及びサンルームスピーカ658は、部屋の両側に配置されている。 As shown in FIG. 6, John's phone 604 is in the kitchen 602a located on the counter between the stove and the sink. In dining room 602b, dining room speakers 616 are located above the dining room table. In bedroom 602c, a personal tablet 634 is located on the bed, bedroom speakers 636 are located on the nightstand adjacent to the bed, and bedroom lights 632 are located on the opposite side of the bed. In living room 602d, living room speakers 646 and 648 are on opposite sides of the television, and living room lamp 642 is positioned in front of the television screen. In solarium 602e, solarium speaker 656 and solarium speaker 658 are located on opposite sides of the room.

図6に示すように、コンピュータデバイス674及びジェーンの電話684は、ホーム602の外側にある。コンピュータデバイス674は、ホーム602から距離670である自動車のダッシュボード内の位置であり、ジェーンの電話684は、ホーム602から離れた距離680であり、現在、ジェーンの手元にある。いくつかの実施形態では、コンピュータデバイス674は、携帯電話(例えば、ジョンの電話604及び/又はジェーンの電話684に類似したパーソナルフォン)などの電子デバイスに接続され、電子デバイスは、コンピュータデバイス674にビジュアルコンテンツを表示させる命令をコンピュータデバイス674に提供する。距離670及び距離680は、ホームから離れた(例えば、1、5、10メートル)閾値距離を超えているため、コンピュータデバイス674及びジェーンの電話684は、ホーム602に対応する場所にあるとは見なされない(例えば、ホーム602のジオフェンス内にないか、又はホーム602に関連付けられた(例えば、内に設定された)無線ネットワークに接続されていない)。 As shown in FIG. 6, computing device 674 and Jane's phone 684 are outside home 602 . Computer device 674 is located in the dashboard of the car at distance 670 from home 602 and Jane's phone 684 is at distance 680 away from home 602 and is currently in Jane's possession. In some embodiments, computing device 674 is connected to an electronic device such as a mobile phone (eg, a personal phone similar to John's phone 604 and/or Jane's phone 684), which connects to computing device 674. It provides instructions to the computing device 674 to cause the visual content to be displayed. Distance 670 and distance 680 exceed the threshold distance away from home (eg, 1, 5, 10 meters), so computing device 674 and Jane's phone 684 are not considered to be at a location corresponding to home 602 . (eg, not within a geofence of home 602 or connected to a wireless network associated with (eg, established within) home 602).

この例では、図6に示すスピーカ(例えば、ダイニングルームスピーカ616、寝室スピーカ636、リビングルームスピーカ646、リビングルームスピーカ648、サンルームスピーカ656、及びサンルームスピーカ658)、光(例えば、寝室光632及びリビングルームランプ642)、及びパーソナルデバイス(例えば、ジョンの電話604、タブレット634、コンピュータデバイス674、及びジェーンの電話684)は、(例えば、ジョンのユーザアカウント又はジェーンのユーザアカウントなどのホーム602に関連付けられたユーザアカウントによって)ホーム602に(例えば、対応するグループに)指定される(例えば、プログラムでマッピングされる)。 In this example, the speakers shown in FIG. and living room lamps 642), and personal devices (e.g., John's phone 604, tablet 634, computing device 674, and Jane's phone 684) are connected to home 602 (e.g., John's user account or Jane's user account). assigned (eg, programmatically mapped) to home 602 (eg, to a corresponding group) by an associated user account.

加えて、それぞれ個々のスピーカ及び光はまた、それが配置された部屋に指定される(例えば、対応するグループにマッピングされる)。例えば、ダイニングルームスピーカ616には、ダイニングルーム602bに(例えば、対応するグループにプログラムでマッピングされる)指定される。寝室スピーカ636及び寝室光632は、寝室602cに指定される。リビングルームランプ642、リビングルームスピーカ646、及びリビングルームスピーカ648は、リビングルーム602dに指定され、サンルームスピーカ656及びサンルームスピーカ658はサンルーム602eに指定される。いくつかの実施形態では、各部屋に対応する各グループもまた、ホーム602に指定される。したがって、ホーム602の部屋にマッピングされるデバイスもまた、ホーム602に同時にマッピングされる。 Additionally, each individual speaker and light is also assigned to the room in which it is located (eg, mapped to a corresponding group). For example, dining room speakers 616 are assigned (eg, programmatically mapped to corresponding groups) dining room 602b. Bedroom speaker 636 and bedroom light 632 are designated for bedroom 602c. Living room lamps 642, living room speakers 646, and living room speakers 648 are designated living room 602d, and sunroom speakers 656 and sunroom speakers 658 are designated sunroom 602e. In some embodiments, each group corresponding to each room is also designated home 602 . Thus, devices mapped to rooms in home 602 are also mapped to home 602 at the same time.

外部デバイスは、異なる部屋に対応する2つの異なるデバイスグループに指定され得ない。例えば、ダイニングルームスピーカ616は、キッチン602a(例えば、キッチン602aに対応するグループ)及びダイニングルーム602bに同時に指定され得ない。しかしながら、それぞれの部屋にそれぞれ指定された2つのグループのデバイスは、(同じ)ゾーンにマッピングすることができる。この例では、娯楽ゾーン660は、図6のリビングルーム602d及び図6のサンルーム602eに指定される。この例では、娯楽ゾーン660は、ホーム602cの物理的部屋ではない。しかしながら、娯楽ゾーンは、サンルームリビングルーム602d及びサンルーム602eに指定されるものとしてプログラムで定義される。いくつかの実施形態では、2つの異なるゾーンは、デバイスのグループを共有する(例えば、いくつかの重畳するデバイスを含み、それぞれがいくつかの非重畳デバイスを含む)。例えば、サンルーム602eに指定されたデバイスのグループは、娯楽ゾーン660及び摂食ゾーンにマッピングすることができる(例えば、摂食ゾーンは、ダイニングルーム602b及びサンルーム602eに指定されたデバイスのグループに指定される)。 An external device cannot be assigned to two different device groups corresponding to different rooms. For example, dining room speakers 616 cannot be assigned to kitchen 602a (eg, the group corresponding to kitchen 602a) and dining room 602b at the same time. However, two groups of devices, each assigned to a respective room, can be mapped to the (same) zone. In this example, entertainment zone 660 is designated living room 602d in FIG. 6 and sunroom 602e in FIG. In this example, entertainment zone 660 is not a physical room in home 602c. However, entertainment zones are programmatically defined as being designated as solarium living room 602d and solarium 602e. In some embodiments, two different zones share groups of devices (eg, including some overlapping devices, each including some non-overlapping devices). For example, a group of devices designated for solarium 602e may be mapped to an entertainment zone 660 and an eating zone (e.g., an eating zone may be mapped to a group of devices designated for dining room 602b and solarium 602e). It is specified).

この例では、パーソナルデバイス(例えば、ジョンの電話604、タブレット634、及びジェーンの電話684)は、部屋に対応するグループにプログラムマッピングされず、ホームに対応するグループにのみマッピングされる。 In this example, personal devices (eg, John's phone 604, tablet 634, and Jane's phone 684) are not programmatically mapped to groups corresponding to rooms, but only to groups corresponding to home.

いくつかの実施形態では、図6に示すスピーカ、光、及びパーソナルデバイス(例えば、ジョンの電話604、タブレット634、ジェーンの電話684)は、1つ以上のネットワーク(例えば、無線ネットワーク(例えば、Bluetooth、NFC、Wi-Fi、4Gなど))を介して互いに直接的に接続された、又は間接的に接続されたスマートデバイスである。いくつかの実施形態では、スマートアプライアンス、スマートサーモスタット、スマートプラグアウトレットなどの他のスマートデバイスは、1つ以上のネットワークに接続される。いくつかの実施形態では、1つ以上のパーソナルデバイスはまた、スマートウォッチ、ラップトップコンピュータ、デスクトップなどの他のタイプのパーソナルデバイスを含むことができる。 In some embodiments, the speakers, lights, and personal devices (eg, John's phone 604, tablet 634, Jane's phone 684) shown in FIG. 6 are connected to one or more networks (eg, wireless networks (eg, Bluetooth , NFC, Wi-Fi, 4G, etc.)). In some embodiments, other smart devices such as smart appliances, smart thermostats, smart plug outlets, etc. are connected to one or more networks. In some embodiments, one or more personal devices can also include other types of personal devices such as smartwatches, laptop computers, desktops, and the like.

図7A~7AHは、いくつかの実施形態に係る、音声メッセージを送信するための例示的な電子デバイス及びユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図8A~8Bにおけるプロセスを含む、以下で説明するプロセスを例示するために使用される。 7A-7AH illustrate exemplary electronic devices and user interfaces for sending voice messages, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 8A-8B.

図7Aは、ユーザインタフェース702を表示する電子デバイス700を示す。図7Aでは、電子デバイス700は、ポータブル多機能デバイスであり、デバイス100、200、300、及び500のうちの任意の1つ以上に関して上述した1つ以上の構成要素を有する。以下の図に関して、いくつかの実施形態では、デバイス700は、ホーム602から離れた所定の距離未満の場所で動作している。しかしながら、他の実施形態では、デバイス700は、ホーム602から離れた所定の距離よりも遠い場所で動作している。いくつかの実施形態では、デバイス700は、ホーム602に関連付けられたネットワーク(例えば、無線ネットワーク)に接続され、そのため、デバイス700は、ホーム602に位置する少なくとも1つのデバイス(例えば、スピーカ、光)が接続される同じ無線ネットワークに接続される。いくつかの実施形態では、2つ以上の無線ネットワークは、ホーム602に関連付けられる。いくつかの実施形態では、デバイス700は、それらのネットワークのうちの少なくとも1つに接続される。いくつかの実施形態では、デバイス700は、ホーム602に関連付けられた1つ以上のネットワークに接続されない。したがって、デバイス700は、デバイス700がホーム602又はデバイス700が接続されているネットワークからの距離に関わりなく、音声マルチキャストメッセージを送信し、ホーム602内のデバイスと通信することができる。 FIG. 7A shows electronic device 700 displaying user interface 702 . 7A, electronic device 700 is a portable multifunction device having one or more components described above with respect to any one or more of devices 100, 200, 300, and 500. In FIG. With respect to the following figures, in some embodiments device 700 is operating less than a predetermined distance away from home 602 . However, in other embodiments, device 700 is operating more than a predetermined distance away from home 602 . In some embodiments, device 700 is connected to a network (e.g., wireless network) associated with home 602, so device 700 communicates with at least one device (e.g., speakers, lights) located in home 602. connected to the same wireless network to which the In some embodiments, more than one wireless network is associated with home 602 . In some embodiments, device 700 is connected to at least one of those networks. In some embodiments, device 700 is not connected to one or more networks associated with home 602 . Thus, device 700 is able to send audio multicast messages and communicate with devices within home 602 regardless of how far device 700 is from home 602 or the network to which device 700 is connected.

この説明は多くの場合、マルチキャストメッセージ(又は音声マルチキャストメッセージ)としてメッセージを指すが、このようなメッセージは任意選択的に、(1)マルチキャスト通信、(2)ブロードキャスト通信、(3)ユニキャスト通信、(4)又はこれらの任意の組み合わせを使用して送信される(例えば、(1)第1のデバイス(例えば、コントローラ)は、ユニキャスト通信を第2のデバイス(例えば、ホームのハブ)に送信し、(2)第2のデバイスは、(例えば、ユニキャスト通信からのコンテンツを含む)マルチキャスト又はブロードキャスト通信のいずれかを1つ以上の第3のデバイス(例えば、ホーム及び/又は1つ以上のパーソナルデバイス内の1つ以上のアクセサリデバイス)に送信する)。いくつかの実施形態では、マルチキャスト通信は、複数の受信者に送信される通信である。いくつかの実施形態では、ブロードキャスト通信は、チャネル又はネットワーク上のデバイスに送信される通信である。いくつかの実施形態では、ブロードキャスト通信は、チャネル又はネットワーク上の全てのデバイスに送信される通信である。いくつかの実施形態では、ユニキャスト通信は、単一の受信者に送信される通信である。そのような実施形態では、コンテンツが複数のデバイスに送信される必要がある場合、複数のユニキャスト通信が送信される。 Although this description often refers to messages as multicast messages (or audio multicast messages), such messages optionally include (1) multicast communications, (2) broadcast communications, (3) unicast communications, (4) sent using or any combination thereof (e.g., (1) a first device (e.g., controller) sends a unicast communication to a second device (e.g., home hub) and (2) the second device transmits either multicast or broadcast communications (eg, including content from unicast communications) to one or more tertiary devices (eg, home and/or one or more to one or more accessory devices within a personal device). In some embodiments, a multicast communication is a communication sent to multiple recipients. In some embodiments, broadcast communications are communications sent to devices on a channel or network. In some embodiments, broadcast communications are communications sent to all devices on a channel or network. In some embodiments, unicast communications are communications sent to a single recipient. In such embodiments, multiple unicast communications are sent if the content needs to be sent to multiple devices.

いくつかの実施形態では、ブロードキャスト通信は、チャネル又はネットワーク上の全てのデバイスに送信される通信である。そのような実施形態では、コンテンツが複数のデバイスに送信される必要がある場合、複数のユニキャスト通信が送信される。 In some embodiments, broadcast communications are communications sent to all devices on a channel or network. In such embodiments, multiple unicast communications are sent if the content needs to be sent to multiple devices.

図7Aに示すように、ユーザインタフェース702は、ホームアプリケーションアイコン704aなどのアプリケーションアイコン704を含む。アプリケーションアイコン704のそれぞれは、アプリケーションアイコンが選択されると、デバイス700にそれぞれのアプリケーションのユーザインタフェースを表示させるように、アプリケーションに対応する。例えば、ホームアプリケーションアイコン704aは、ホームアプリケーションに対応する。図7Aでは、デバイス700は、ホームアプリケーションアイコン704aに対応する場所でタップジェスチャ750a(例えば、選択)を検出する。 As shown in FIG. 7A, user interface 702 includes application icons 704, such as home application icon 704a. Each of the application icons 704 corresponds to an application such that selection of the application icon causes the device 700 to display the user interface of the respective application. For example, home application icon 704a corresponds to the home application. In FIG. 7A, device 700 detects tap gesture 750a (eg, select) at a location corresponding to home application icon 704a.

図7Bに示すように、タップジェスチャ750aの検出に応答して、デバイス700は、ホームアプリケーションのユーザインタフェース710を表示する。ユーザインタフェース710は、ホーム602に指定された複数の外部デバイスを制御するためのユーザインタフェースである。ユーザインタフェース710は、ホーム場所識別子712、状態情報714、マクロ制御716、外部デバイス制御718、ナビゲーション制御722、ホームマルチキャスト命令724、及びホームマルチキャストアフォーダンス726(例えば、選択可能なユーザインタフェースオブジェクト対象)を含む。 As shown in FIG. 7B, in response to detecting tap gesture 750a, device 700 displays home application user interface 710 . User interface 710 is a user interface for controlling a plurality of external devices designated as home 602 . User interface 710 includes home location identifier 712, state information 714, macro controls 716, external device controls 718, navigation controls 722, home multicast instructions 724, and home multicast affordances 726 (eg, selectable user interface object targets). .

ホーム場所識別子712は、ホーム602に対応する名前である。この例では、場所識別子は、ホーム602のアドレス(例えば、「メインストリート123番地」)の一部である。いくつかの実施形態では、場所識別子は、ホームに指定されたエイリアスなどのエイリアスである。いくつかの実施形態では、エイリアスは、システム作成エイリアスである。いくつかの実施形態では、エイリアスは、ユーザ作成エイリアスである。いくつかの実施形態では、場所識別子は、デバイス700のユーザ又は外部デバイスによって設定される。いくつかの実施形態では、場所識別子は、画像などのグラフィカルユーザインタフェースオブジェクト対象である。 Home location identifier 712 is the name corresponding to home 602 . In this example, the location identifier is part of the home 602 address (eg, "123 Main Street"). In some embodiments, the location identifier is an alias, such as a home-designated alias. In some embodiments, the alias is a system-created alias. In some embodiments, the alias is a user-created alias. In some embodiments, the location identifier is set by a user of device 700 or an external device. In some embodiments, the location identifier is for a graphical user interface object, such as an image.

状態情報714は、ホーム602に指定されたデバイスの一部の現在の状態に関する情報を含む。ここで、状態情報714は、少なくとも1つの光がホーム602にあることを示す。いくつかの実施形態では、状態情報714は、複数のデバイス(例えば、「寝室ファンオン」)の状態に関する情報を含む。 State information 714 includes information about the current state of the portion of the device designated Home 602 . Here, state information 714 indicates that at least one light is at home 602 . In some embodiments, status information 714 includes information about the status of multiple devices (eg, "bedroom fan on").

図7Bに示すように、ホーム場所識別子712及び状態情報714の下に2行のマクロ制御716が存在する。マクロ制御716は、それぞれのマクロを開始するためのアフォーダンス(例えば、選択可能なユーザインタフェースオブジェクト対象)である。いくつかの実施形態では、それぞれのマクロは、1つ以上の外部デバイスにアクションを実行させる。例えば、「おやすみ」マクロ制御は、選択されると、1つ以上の光をオフにさせる、1つ以上のスピーカに再生メディアを停止させる、及び/又は1つ以上のデッドボルトロックをロックさせる。 As shown in FIG. 7B, below the home location identifier 712 and state information 714 are two rows of macro controls 716 . Macro controls 716 are affordances (eg, selectable user interface object targets) for initiating respective macros. In some embodiments, each macro causes one or more external devices to perform actions. For example, a "good night" macro control, when selected, causes one or more lights to turn off, one or more speakers to stop playing media, and/or one or more deadbolt locks to lock.

更に、図7Bでは、ユーザインタフェース710は、マクロ制御716の下の外部デバイス制御718のための行を含む。図7Bでは、外部デバイス制御718の2つの行は3列にわたって延在するため、合計6つの表示がある(例えば、3つのデバイス制御がそれぞれの対応する行上にある場合)。いくつかの実施形態では、ユーザは、より少ない外部デバイス制御718を必要とする制御のために、より少ない外部デバイスを有することができる。他の実施形態では、ユーザは、より多くの外部デバイス制御718を必要とする制御のために、より多くの外部デバイスを有することができる。いくつかの実施形態では、利用可能なスクリーンスペースよりも外部デバイス制御718が表示されると、スクリーンは、全ての外部デバイス制御を表示するために、スクロールする(例えば、上下又は左及び右)。外部デバイス制御718は、ダイニングルームスピーカ制御718a、リビングルームランプ制御718b、リビングルームスピーカ制御718c、サンルームスピーカ制御718d、寝室スピーカ制御718e、及び寝室光制御718fを含む。更に、外部デバイス制御718のそれぞれは、それぞれ対応する外部デバイスの現在の状態を表す状態情報を含む。例えば、ダイニングルームスピーカ制御718aの状態情報は、ダイニングルームスピーカ616がメディアを現在再生中であり(この例では状態情報714によって表されていない)、リビングルームランプ制御718bの状態情報は、リビングルームランプ642が現在オフであることを示す(この例では状態情報714によって表される)。 Additionally, in FIG. 7B, user interface 710 includes a row for external device controls 718 below macro controls 716 . In FIG. 7B, the two rows of external device controls 718 extend over three columns, so there are a total of six displays (eg, three device controls on each corresponding row). In some embodiments, a user may have fewer external devices for controls that require fewer external device controls 718 . In other embodiments, the user may have more external devices for controls that require more external device controls 718 . In some embodiments, when more external device controls 718 are displayed than available screen space, the screen scrolls (eg, up and down or left and right) to display all external device controls. External device controls 718 include dining room speaker control 718a, living room lamp control 718b, living room speaker control 718c, sunroom speaker control 718d, bedroom speaker control 718e, and bedroom light control 718f. Additionally, each of the external device controls 718 includes state information representing the current state of the respective external device. For example, state information for dining room speaker control 718a indicates that dining room speaker 616 is currently playing media (not represented by state information 714 in this example), and state information for living room lamp control 718b indicates that the living room Indicates that lamp 642 is currently off (represented by status information 714 in this example).

外部デバイス制御718のそれぞれは、選択されたときに、ホーム602に指定された少なくとも1つのデバイスを制御する。例えば、ダイニングルームスピーカ制御718aを選択すると、ダイニングルームスピーカ616に音楽を再生又は休止させる。いくつかの実施形態では、ダイニングルームスピーカ制御718aが選択されると、ダイニングルームスピーカ制御718aの状態情報は変化して、ダイニングルームスピーカ616がメディアの再生を休止したこと(例えば、寝室スピーカ制御718eによって示すように)、又はメディアの再生を停止していることを示す。外部デバイス制御718のいくつかは、選択されたときに複数のデバイスを制御する。例えば、サンルームスピーカ制御718dは、選択されると、サンルームスピーカ656及び658にメディアの再生を再生又は休止させ、サンルームスピーカ制御718d上に表示される状態情報はそれに応じて変化する。外部デバイス制御718のいくつかは、スピーカデバイス制御ではない。例えば、外部デバイス制御718は、リビングルームランプ制御718bを含み、選択されると、リビングルームランプ制御718bに、リビングルームランプ642をオン/オフにさせ、リビングルームランプ制御718b上に表示される状態情報はそれに応じて変化する。 Each of the external device controls 718 controls at least one device designated home 602 when selected. For example, selecting dining room speaker control 718a causes dining room speaker 616 to play or pause music. In some embodiments, when dining room speaker control 718a is selected, the state information for dining room speaker control 718a changes to indicate that dining room speaker 616 has paused playing media (e.g., bedroom speaker control 718e ), or to indicate that the media has stopped playing. Some of the external device controls 718 control multiple devices when selected. For example, sunroom speaker control 718d causes sunroom speakers 656 and 658 to play or pause media playback when selected, and the status information displayed on sunroom speaker control 718d changes accordingly. Some of the external device controls 718 are not speaker device controls. For example, the external device controls 718 include a living room lamp control 718b that, when selected, causes the living room lamp control 718b to turn on/off the living room lamps 642 and the state displayed on the living room lamp control 718b. Information changes accordingly.

いくつかの実施形態では、外部デバイス制御718は、ホーム602にも指定された他の外部制御のグループから選択される。例えば、図7Bに示す6つの制御は、ホーム602にも指定された10、20、又は50(又は6よりも多い任意の他の数)の外部制御から選択することができる。いくつかの実施形態では、外部デバイス制御718は、これらの外部デバイス制御のそれぞれがお気に入りの制御であるという判定に基づいて選択される。いくつかの実施形態では、外部デバイスがお気に入りの制御であるかどうかの判定は、外部デバイス制御(又は外部デバイス)が直近に使用された、最も頻繁に使用された、新しく追加された、お気に入りの重要な外部デバイス制御として指定された(例えば、1つ以上の入力の検出を介して)、など、又はこれらの任意の組み合わせに基づいている。 In some embodiments, external device control 718 is selected from a group of other external controls that are also designated home 602 . For example, the 6 controls shown in FIG. 7B can be selected from 10, 20, or 50 (or any other number greater than 6) external controls that are also designated home 602 . In some embodiments, external device controls 718 are selected based on a determination that each of these external device controls is a favorite control. In some embodiments, the determination of whether the external device is a favorite control is based on the most recently used, most frequently used, newly added, favorite, external device control (or external device) controls. Designated as critical external device control (eg, via detection of one or more inputs), etc., or based on any combination thereof.

ユーザインタフェース710の下部は、ナビゲーション制御722である。ナビゲーション制御722は、ホームナビゲーション制御722a、部屋ナビゲーション制御722b、及び自動化ナビゲーション制御722cを含む。ナビゲーション制御722のそれぞれは、選択されると、デバイス700に、ホームアプリケーションのための異なるユーザインタフェースを表示させる。 At the bottom of user interface 710 are navigation controls 722 . Navigation controls 722 include home navigation controls 722a, room navigation controls 722b, and automated navigation controls 722c. Each of navigation controls 722, when selected, causes device 700 to display a different user interface for the home application.

図7Bに示すように、ユーザインタフェース710は、ホームマルチキャストアフォーダンス726に隣接するホームマルチキャスト命令724を含む。図7Bでは、ホームマルチキャスト命令724は、ホーム602に指定された1つ以上のデバイスにマルチキャストされる音声メッセージを送信するために、ホームマルチキャストアフォーダンス726をユーザが選択(例えば、「タップ」)する必要があることを示す。図7Bでは、デバイス700は、ホームマルチキャストアフォーダンス726に対応する場所でタップジェスチャ750bを検出する。 As shown in FIG. 7B, user interface 710 includes home multicast instructions 724 adjacent to home multicast affordances 726 . In FIG. 7B , home multicast instructions 724 require the user to select (eg, “tap”) home multicast affordance 726 to send voice messages that are multicast to one or more devices designated home 602 . indicates that there is In FIG. 7B, device 700 detects tap gesture 750b at a location corresponding to home multicast affordance 726. In FIG.

タップジェスチャ750bの検出に応答して、デバイス700は、音声マルチキャストメッセージをホーム602に指定された1つ以上のデバイスに送信するためのプロセスを開始する。いくつかの実施形態では、プロセスは、以下で説明するように、図7C、図7D、及び図7Eに図示されるユーザインタフェースを表示することを含む。いくつかの実施形態では、プロセスは、以下で説明するように、図7C1に図示されるユーザインタフェースを表示することを含む。 In response to detecting tap gesture 750 b , device 700 initiates a process to send an audio multicast message to one or more devices designated as home 602 . In some embodiments, the process includes displaying the user interface illustrated in Figures 7C, 7D, and 7E, as described below. In some embodiments, the process includes displaying the user interface illustrated in FIG. 7C1, as described below.

図7Cに示すように、タップジェスチャ750bの検出に応答して、ユーザインタフェース730は、ホーム宛先識別子732、終了アフォーダンス734、及びマルチキャスト記録アフォーダンス736を含む。ホーム宛先識別子732は、音声マルチキャストメッセージが、ホーム602に指定されたデバイスのグループに向けられたことを示す(例えば、音声マルチキャストメッセージを受信する)。終了アフォーダンス734は、ユーザインタフェース730から出るためのアフォーダンスである。いくつかの実施形態では、終了アフォーダンス734が選択されると、デバイス700は、図7Bに図示すように、ユーザインタフェース730の表示を中止し、ユーザインタフェース710を再表示する。図7Cでは、デバイス700は、マルチキャスト記録アフォーダンス736に対応する場所でタップジェスチャ750cを検出する。 In response to detecting tap gesture 750b, user interface 730 includes home destination identifier 732, exit affordance 734, and multicast recording affordance 736, as shown in FIG. 7C. Home destination identifier 732 indicates that the voice multicast message was directed to a group of devices designated home 602 (eg, to receive the voice multicast message). Exit affordance 734 is an affordance for exiting user interface 730 . In some embodiments, when exit affordance 734 is selected, device 700 ceases displaying user interface 730 and redisplays user interface 710, as illustrated in FIG. 7B. 7C, device 700 detects tap gesture 750c at a location corresponding to multicast recording affordance 736. In FIG.

図7Dに示すように、タップジェスチャ750cの検出に応答して、デバイス700はユーザインタフェース740を表示する。ユーザインタフェース740は、ユーザインタフェース730にも含まれていた、ホーム宛先識別子732と終了アフォーダンス734を含む。加えて、ユーザインタフェース740はまた、音声状態バー742及び音声波744aを含む。 In response to detecting tap gesture 750c, device 700 displays user interface 740, as shown in FIG. 7D. User interface 740 includes home destination identifier 732 and exit affordance 734 , which were also included in user interface 730 . Additionally, the user interface 740 also includes an audio status bar 742 and an audio wave 744a.

更に、図7Dでは、デバイス700はまた、タップジェスチャ750cの検出に応答して、音声マルチキャストメッセージの記録を開始する。音声マルチキャストメッセージの音声は、デバイス700の1つ以上のマイクロフォンを介して検出される。音声マルチキャストメッセージの音声は、1つ以上の外部ソース(例えば、ユーザ音声など)から検出される。ここで、記録された音声は音声波744aによって表され、それは、デバイス700によってより多くのオーディオ入力が受信されると、時間のある期間にわたって音声状態バー742を充填する。 Further, in FIG. 7D, device 700 also begins recording an audio multicast message in response to detecting tap gesture 750c. The audio of the audio multicast message is detected via one or more microphones of device 700 . Audio for the audio multicast message is detected from one or more external sources (eg, user audio, etc.). Here, recorded audio is represented by audio wave 744a, which fills audio status bar 742 over a period of time as more audio input is received by device 700. FIG.

図7Dに示すように、タップジェスチャ750cの検出に応答して、デバイス700は、マルチキャスト記録アフォーダンス736が以前に図7Cに表示された位置で、マルチキャスト記録停止アフォーダンス746を表示する。図7Dでは、デバイス700は、マルチキャスト記録停止アフォーダンス746に対応する場所でタップジェスチャ750dを検出する。 As shown in FIG. 7D, in response to detecting tap gesture 750c, device 700 displays stop multicast recording affordance 746 at the location where multicast recording affordance 736 was previously displayed in FIG. 7C. 7D, device 700 detects tap gesture 750d at a location corresponding to multicast stop affordance 746. In FIG.

図7Eに示すように、タップジェスチャ750dの検出に応答して、デバイス700はユーザインタフェース750を表示する。図7Eでは、タップジェスチャ750dの検出に応答して、デバイス700は、1つ以上の外部ソースからの音声の記録又はキャプチャを中止している。したがって、ユーザインタフェース750は、記録された音声マルチキャストメッセージの少なくとも一部を表す、音声波744aによってほとんど充填された音声状態バー742を含む。図7Eに示すように、ユーザインタフェース750は、音声マルチキャストメッセージ再生アフォーダンス752及び音声マルチキャストメッセージ削除アフォーダンス754を含む(例えば、ホーム宛先識別子732、終了アフォーダンス734、音声状態バー742、音声波744aを含むことに加えて)。いくつかの実施形態では、音声マルチキャストメッセージ再生アフォーダンス752の選択の検出に応答して、デバイス700は、音声マルチキャストメッセージの再生を開始する。いくつかの実施形態では、音声マルチキャストメッセージ削除アフォーダンス754の選択の検出に応答して、デバイス700は、音声マルチキャストメッセージを削除する。いくつかの実施形態では、音声マルチキャストメッセージ削除アフォーダンス754の選択の検出に応じて、デバイス700は、ユーザインタフェース710、730、及び/又は740を再表示する。 In response to detecting tap gesture 750d, device 700 displays user interface 750, as shown in FIG. 7E. In FIG. 7E, in response to detecting tap gesture 750d, device 700 has ceased recording or capturing audio from one or more external sources. User interface 750 thus includes an audio status bar 742 mostly filled with audio waves 744a representing at least a portion of a recorded audio multicast message. As shown in FIG. 7E, user interface 750 includes audio multicast message play affordance 752 and audio multicast message delete affordance 754 (eg, home destination identifier 732, end affordance 734, audio status bar 742, audio wave 744a). In addition to). In some embodiments, in response to detecting selection of audio multicast message playback affordance 752, device 700 initiates playback of the audio multicast message. In some embodiments, in response to detecting selection of audio multicast message deletion affordance 754, device 700 deletes the audio multicast message. In some embodiments, device 700 redisplays user interfaces 710 , 730 , and/or 740 in response to detecting selection of audio multicast message deletion affordance 754 .

図7Eに示すように、タップジェスチャ750dの検出に応答して、デバイス700は、マルチキャスト記録停止アフォーダンス746が図7Dに以前に表示された位置(図7Cではマルチキャスト記録アフォーダンス736が表示された位置)で、マルチキャスト送信アフォーダンス756を表示する。 As shown in FIG. 7E, in response to detecting tap gesture 750d, device 700 moves to the location where multicast stop affordance 746 was previously displayed in FIG. 7D (where multicast recording affordance 736 was displayed in FIG. 7C). to display the multicast transmission affordance 756 .

図7C、図7D、及び図7Eに記載されたフローの代替の場合、デバイス700は、図7Bでのタップジェスチャ750bの検出に応答して、図7C1に示すユーザインタフェースを表示することができる。図7C1に示すように、タップジェスチャ750bの検出に応答して、デバイス700は、ユーザインタフェース741を表示し、(例えば、タップジェスチャ750cなどの任意の更なるジェスチャを検出することなく)音声マルチキャストメッセージの記録を自動的に開始する。図7C1に示すように、ユーザインタフェース741は、図7C、図7D、及び図7Eに関連して上述したものと類似の技術を使用してデバイス700が表示する、ホーム宛先識別子732、終了アフォーダンス734、音声波744a、マルチキャスト送信アフォーダンス747を含む。例えば、図7C1では、音声波744aは動的であり、音声が記録されている時間の長さにわたって現在記録されている音声の1つ以上の特性(例えば、レベル、ピッチ、階調)に関して経時的に変化する。いくつかの実施形態では、音声が記録されている時間の長さにわたって音声が記録されている際、音声波744aは左に移動する。 7C, 7D, and 7E, device 700 may display the user interface shown in FIG. 7C1 in response to detecting tap gesture 750b in FIG. 7B. As shown in FIG. 7C1, in response to detecting tap gesture 750b, device 700 displays user interface 741 and sends an audio multicast message (eg, without detecting any further gestures, such as tap gesture 750c). automatically start recording. As shown in FIG. 7C1, user interface 741 includes home destination identifier 732, exit affordance 734, displayed by device 700 using techniques similar to those described above with respect to FIGS. 7C, 7D, and 7E. , audio waves 744 a , and multicast transmission affordances 747 . For example, in FIG. 7C1, sound wave 744a is dynamic and changes over time with respect to one or more characteristics (eg, level, pitch, tone) of the currently recorded sound over the length of time the sound is being recorded. changes dramatically. In some embodiments, sound waves 744a move to the left as the sound is being recorded for the length of time the sound is being recorded.

いくつかの実施形態では、音声は、7C、7D、及び7Eに記載されたフローを通して、及び/又は図7Cに記載されたフローを通す代わりに、図7Bのユーザインタフェース710又は図7C1のユーザインタフェース741を使用して記録される。例えば、ホームマルチキャストアフォーダンス726上での保持ジェスチャの検出に応答して、デバイス700は、音声マルチキャストメッセージの記録を開始する。そのような例では、記録は、保持ジェスチャが終了する(例えば、解放される)ときに停止され、ホームマルチキャストアフォーダンス726を送信アフォーダンス(例えば、マルチキャスト送信アフォーダンス756と類似)で置き換えることが発生する。いくつかの実施形態では、保持ジェスチャが終了すると、音声はマルチキャストメッセージとして自動的に送信される。いくつかの実施形態では、保持ジェスチャが終了すると、ホームマルチキャスト命令724は、音声を再生するためのアフォーダンス(例えば、音声状態バー742と類似)及び音声を削除するためのアフォーダンス(例えば、音声マルチキャストメッセージ削除アフォーダンス754と類似)に置き換えられる。別の例では、ホームマルチキャストアフォーダンス726上でのタップジェスチャの検出に応答して、ホームマルチキャストアフォーダンス726は、マルチキャスト記録アフォーダンス736と類似に動作する(例えば、(マルチキャスト記録停止アフォーダンス746と類似の)停止アフォーダンスと置き換えられる)。そのような例では、停止アフォーダンス上でのタップジェスチャの検出に応答して、(1)停止アフォーダンスは、(例えば、マルチキャスト送信アフォーダンス756と類似の)送信アフォーダンスと置き換えられ、(2)ホームマルチキャスト命令724は、音声を再生するための(例えば、音声状態バー742と類似の)アフォーダンス及び(例えば、音声マルチキャストメッセージ削除アフォーダンス754と類似の)音声を削除するためのアフォーダンスと置き換えられる。図7Eで、デバイス700は、マルチキャスト送信アフォーダンス756に対応する場所でタップジェスチャ750eを検出し、又は図7C1でデバイス700、デバイスは、マルチキャスト送信アフォーダンス747に対応する場所でタップジェスチャ750c1を検出する。 In some embodiments, instead of passing audio through the flows described in 7C, 7D, and 7E and/or through the flow described in FIG. Recorded using G.741. For example, in response to detecting a hold gesture on home multicast affordance 726, device 700 begins recording an audio multicast message. In such an example, recording is stopped when the hold gesture ends (eg, is released), and replacement of home multicast affordance 726 with a send affordance (eg, analogous to multicast send affordance 756) occurs. In some embodiments, the audio is automatically sent as a multicast message when the holding gesture ends. In some embodiments, when the hold gesture ends, home multicast instruction 724 provides an affordance to play audio (eg, similar to audio status bar 742) and an affordance to remove audio (eg, voice multicast message (similar to Delete Affordance 754). In another example, in response to detecting a tap gesture on home multicast affordance 726, home multicast affordance 726 behaves similarly to multicast recording affordance 736 (e.g., stops recording (similar to multicast recording stop affordance 746)). replaced by affordances). In such an example, in response to detecting a tap gesture on a stop affordance, (1) the stop affordance is replaced with a send affordance (eg, similar to multicast send affordance 756), and (2) a home multicast instruction 724 is replaced with an affordance for playing audio (eg, similar to audio status bar 742) and an affordance for deleting audio (eg, similar to delete audio multicast message affordance 754). In FIG. 7E, device 700 detects tap gesture 750e at a location corresponding to multicast transmission affordance 756, or in FIG.

図7Fに示すように、タップジェスチャ750e又はタップジェスチャ750c1(又は、先の段落で説明したような送信アフォーダンス上のタップジェスチャ)の検出に応答して、デバイス700は、音声マルチキャストメッセージを、ホーム602に指定された1組の外部デバイスにマルチキャスト(送信)させる。そのような送信は任意選択的に、(1)音声マルチキャストメッセージを含むメッセージを別のデバイス(例えば、ホーム内に配置されたデバイス)に送信すること、及び(2)他のデバイスが、音声マルチキャストメッセージを1組の外部デバイスに送信すること(いくつかの実施形態では、他のデバイスは、デバイス700の代わりに、外部デバイスの1組を識別する)を含む。表706は、音声マルチキャストメッセージが向けられた外部デバイスを示すために提供される。例えば、「受信した音声マルチキャストメッセージ」列のチェックマークは、音声マルチキャストメッセージがチェックマークのそれぞれの行上の外部デバイスに向けられ(例えば、送信され)たことを示し、「受信した音声マルチキャストメッセージ」列のダッシュは、音声マルチキャストメッセージがダッシュのそれぞれの列上の外部デバイスに向けられなかった(例えば、送信されていない)ことを示す。 As shown in FIG. 7F, in response to detecting tap gesture 750e or tap gesture 750c1 (or a tap gesture on a send affordance as described in the previous paragraph), device 700 sends an audio multicast message to home 602. multicast (transmit) to a set of external devices specified in . Such transmission optionally includes (1) sending a message that includes an audio multicast message to another device (e.g., a device located within a home); Sending a message to a set of external devices (in some embodiments, the other device identifies the set of external devices on behalf of device 700). Table 706 is provided to indicate the external devices to which audio multicast messages are directed. For example, a checkmark in the "Audio Multicast Messages Received" column indicates that an audio multicast message was directed (e.g., sent) to an external device on the respective row of checkmarks; A dash in a column indicates that the audio multicast message was not directed (eg, not sent) to the external device on the respective column of dashes.

図7Fでは、表706は、音声マルチキャストメッセージが各スピーカ(例えば、ダイニングルームスピーカ616、寝室スピーカ636、リビングルームスピーカ646、リビングルームスピーカ648、サンルームスピーカ656、及びサンルームスピーカ658)に向けられた(及び受信された)ことを示す。特に、音声マルチキャストメッセージはまた、パーソナルデバイス(例えば、ジョンの電話604、タブレット634、及びジェーンの電話684)にも向けられた。いくつかの実施形態では、音声マルチキャストメッセージは、パーソナルデバイスがホームに対応する場所にあったかどうか関係なく(例えば、距離670及び680が閾値距離を超えるかどうかに関係なく)パーソナルデバイスに向けられる。例えば、音声マルチキャストメッセージは、図6では、ホーム602の内側に位置するジョンの電話604及びタブレット634に向けられた。加えて、音声マルチキャストメッセージはまた、ホーム602の外側にある、コンピュータデバイス674及びジェーンの電話684(それぞれ、ホーム602から距離670及び距離680離れている)に向けられた。いくつかの実施形態では、音声マルチキャストメッセージは、パーソナルデバイスがホームのネットワークに含まれているかどうかに依存するパーソナルデバイスに向けられる(例えば、パーソナルデバイスがホームのネットワークに含まれている場合には、音声マルチキャストメッセージはパーソナルデバイスに向けられる)。 In FIG. 7F, table 706 shows that audio multicast messages are directed to each speaker (eg, dining room speaker 616, bedroom speaker 636, living room speaker 646, living room speaker 648, sunroom speaker 656, and sunroom speaker 658). (and received). Notably, voice multicast messages were also directed to personal devices (eg, John's phone 604, tablet 634, and Jane's phone 684). In some embodiments, the audio multicast message is directed to a personal device regardless of whether the personal device was at a location corresponding to home (eg, regardless of whether distances 670 and 680 exceed a threshold distance). For example, the voice multicast message was directed to John's phone 604 and tablet 634 located inside home 602 in FIG. In addition, the audio multicast message was also directed to computer device 674 and Jane's phone 684 outside home 602 (distances 670 and 680 from home 602, respectively). In some embodiments, audio multicast messages are directed to personal devices depending on whether the personal device is included in the home network (e.g., if the personal device is included in the home network, Audio multicast messages are directed to personal devices).

図7Fの表706はまた、音声マルチキャストメッセージが、いくつかの外部デバイスに向けられていなかった(したがって、音声マルチキャストメッセージを受信しなかった)ことを示すが、それらはホーム602に指定されている。例えば、表706は、音声マルチキャストメッセージが寝室光632及びリビングルームランプ642に向けられていないことを示す。いくつかの実施形態では、音声マルチキャストメッセージは、音声マルチキャストメッセージが送信されているデバイスのグループに指定されているかどうかにかかわらず、音声マルチキャストメッセージは、いくつかのタイプの外部デバイスに向けられない。いくつかの実施形態では、これらのタイプの外部デバイスは、1つ以上のオーディオ入力デバイス(例えば、マイクロフォン)及び/又は1つ以上のオーディオ出力機器(例えば、スピーカ)を有さないデバイスを含む。いくつかの実施形態では、これらのタイプの外部デバイスは、音声メッセージが送信される時間(又は時間の前)に、非アクティブであるか、給電されていない、又は機能しないデバイスを含む。 Table 706 of FIG. 7F also shows that the audio multicast message was not directed to some external devices (and therefore did not receive the audio multicast message), but they are designated home 602. . For example, table 706 shows that audio multicast messages are not directed to bedroom lights 632 and living room lights 642 . In some embodiments, the audio multicast message is not directed to some types of external devices, regardless of whether the audio multicast message is designated for the group of devices to which the audio multicast message is being sent. In some embodiments, these types of external devices include devices that do not have one or more audio input devices (eg, microphones) and/or one or more audio output devices (eg, speakers). In some embodiments, these types of external devices include devices that are inactive, unpowered, or non-functional at (or before) the time the voice message is sent.

図7Fに示すように、タップジェスチャ750e又はタップジェスチャ750c1(又は上述のように、送信アフォーダンス上のタップジェスチャ)を検出した後のある時点で、デバイス700は、ユーザインタフェース710を再表示する。いくつかの実施形態では、ユーザインタフェース710は、デバイス700がタップジェスチャ750e又はタップジェスチャ750c1を検出した後に任意の追加入力を検出することなく(例えば、タップジェスチャ750e又はタップジェスチャ750c1(又は、送信アフォーダンス上のタップジェスチャ)を検出した後の所定の時間の期間後に)(上述のように、(例えば、タップジェスチャを検出した後の所定の時間の期間後に))表示される。いくつかの実施形態では、ユーザインタフェース710は、図7Eの終了アフォーダンス734上で検出されるタップジェスチャ入力などの、1つ以上の追加入力が検出されると、ユーザインタフェース710が表示される。 As shown in FIG. 7F, at some point after detecting tap gesture 750e or tap gesture 750c1 (or the tap gesture on the transmit affordance, as described above), device 700 redisplays user interface 710. FIG. In some embodiments, the user interface 710 may detect any additional input after the device 700 detects the tap gesture 750e or the tap gesture 750c1 (e.g., tap gesture 750e or tap gesture 750c1 (or send affordance A predetermined period of time after detecting the above tap gesture)) (as described above, (eg, after a predetermined period of time after detecting the tap gesture)). In some embodiments, user interface 710 is displayed when one or more additional inputs are detected, such as the tap gesture input detected on exit affordance 734 of FIG. 7E.

いくつかの実施形態では、リビングルームランプ制御718bに対応する場所でのタップジェスチャ750f1の検出に応答して、デバイス700は、リビングルームランプ642をオン(又は現在の状態がオンであった場合はオフ)にする命令を送信する。いくつかの実施形態では、リビングルームスピーカ制御718cに対応する場所でのタップジェスチャ750f2の検出に応答して、デバイス700は、リビングルームスピーカ646及び648(又はそれらのうちの少なくとも1つ)に、メディアの再生を開始させる(例えば、又は現在の状態が再生している場合にメディアの再生を休止させる)命令を送信する。図7Fで、デバイス700は、部屋ナビゲーションアフォーダンス722bに対応する場所でタップジェスチャ750f3を検出する。 In some embodiments, in response to detecting tap gesture 750f1 at a location corresponding to living room lamp control 718b, device 700 turns living room lamp 642 on (or off). In some embodiments, in response to detecting tap gesture 750f2 at a location corresponding to living room speaker control 718c, device 700 causes living room speakers 646 and 648 (or at least one of them) to: Send an instruction to start playing the media (or pause the playing of the media if the current state is playing). In FIG. 7F, device 700 detects tap gesture 750f3 at a location corresponding to room navigation affordance 722b.

図7Gに示すように、タップジェスチャ750f3の検出に応答して、デバイス700は、ホームアプリケーションのユーザインタフェース760を表示し、ホームナビゲーション制御722a(例えば、図7Gでは太字ではない)の代わりに、ホームナビゲーション制御722b(例えば、図7Gでは太字)が選択されていることを示す。ユーザインタフェース760は、リビングルーム場所識別子762によって示されるように、リビングルーム602dに指定された複数の外部デバイスを制御するためのユーザインタフェースである。ユーザインタフェース710は、マクロ制御766、外部デバイス制御768、ナビゲーション制御722、リビングルームマルチキャスト命令774、及びリビングルームマルチキャストアフォーダンス776を含む。ユーザインタフェース760のこれらの要素は、ホーム全体のデバイスの制御であるユーザインタフェース710の要素とは対照的に、リビングルームのデバイスのための特定の制御である。いくつかの実施形態では、ユーザインタフェース760のこれらの要素のうちの任意の1つ以上は、上述した(例えば、図7Bの)ユーザインタフェース710の要素のうちの任意の1つ以上に類似の目的又は機能性を有する。いくつかの実施形態では、ユーザインタフェース760は、リビングルーム602dに指定されたデバイスの現在の状態を含む状態情報を含む。いくつかの実施形態では、デバイス700は、ユーザインタフェース710上でスワイプジェスチャを受信した後に、ホームアプリケーションのユーザインタフェース760を表示する。 As shown in FIG. 7G, in response to detection of tap gesture 750f3, device 700 displays home application user interface 760, and instead of home navigation control 722a (eg, not bolded in FIG. 7G), home . Navigation control 722b (eg, bold in FIG. 7G) is shown selected. User interface 760 is a user interface for controlling a plurality of external devices assigned to living room 602 d , as indicated by living room location identifier 762 . User interface 710 includes macro controls 766 , external device controls 768 , navigation controls 722 , living room multicast instructions 774 , and living room multicast affordances 776 . These elements of user interface 760 are specific controls for living room devices, in contrast to the elements of user interface 710, which are controls for home-wide devices. In some embodiments, any one or more of these elements of user interface 760 serve similar purposes to any one or more of the elements of user interface 710 described above (eg, in FIG. 7B). Or have functionality. In some embodiments, user interface 760 includes status information including the current status of devices assigned to living room 602d. In some embodiments, device 700 displays home application user interface 760 after receiving a swipe gesture on user interface 710 .

特に、ホームアプリケーションのユーザインタフェース(例えば、ユーザインタフェース710及び760)は、階層にレイアウトされる。例えば、ユーザインタフェース710は、階層の上位ノードであり、ホーム602に指定された外部デバイスのグループのための制御を含む。ユーザインタフェース710を表示している間、デバイス700にユーザインタフェース760を表示させる入力(例えば、単一の入力(例えば、タップジェスチャ750f))を検出することができ、それは、階層の下位ノードであり、ホーム602のそれぞれの部屋(例えば、リビングルーム602d)(及び他の部屋ではない)に指定された、外部デバイスのグループのための制御を含む。 In particular, the home application's user interfaces (eg, user interfaces 710 and 760) are laid out in a hierarchy. For example, user interface 710 is a higher node in the hierarchy and contains controls for a group of external devices designated as home 602 . While displaying user interface 710, an input (eg, a single input (eg, tap gesture 750f)) can be detected that causes device 700 to display user interface 760, which is a lower node in the hierarchy. , including controls for groups of external devices assigned to each room of home 602 (eg, living room 602d) (and not other rooms).

図7Gに示すように、外部デバイス制御768は、リビングルームスピーカ制御768a、リビングルームランプ制御768b、リビングルームスイッチ(例えば、光スイッチ)制御768c、及びリビングテレビ制御768dを含む。図7Gでは、リビングルームスピーカ制御768a及びリビングルームランプ制御768bは、選択されると、リビングルームランプデバイス制御718b及びリビングルームスピーカデバイス制御718cが、それらのそれぞれの外部デバイスに(例えば、図7Bで)実行させるアクションではなく、対応する外部デバイスのそれぞれに、同じアクションを実行させる。したがって、この例では、リビングルームスピーカ制御768a及びリビングルームランプ制御768bは、リビングルームスピーカデバイス制御718c及びリビングルームランプデバイス制御718bと効果的に同じ制御であるが、それらはそれらに対応する部品のそれぞれとは視覚的に外観が異なる。いくつかの実施形態では、リビングルームスピーカ制御768a及びリビングルームランプ制御768bは、リビングルームスピーカデバイス制御718c及びリビングルームランプデバイス制御718bと視覚的に外観が異なって見えない。 As shown in FIG. 7G, external device controls 768 include living room speaker control 768a, living room lamp control 768b, living room switch (eg, light switch) control 768c, and living room television control 768d. In FIG. 7G, living room speaker control 768a and living room lamp control 768b, when selected, activate living room lamp device control 718b and living room speaker device control 718c to their respective external devices (e.g., in FIG. 7B ) causes each of the corresponding external devices to perform the same action, rather than the action you want it to perform. Thus, in this example, living room speaker control 768a and living room lamp control 768b are effectively the same controls as living room speaker device control 718c and living room lamp device control 718b, but they are part of their corresponding components. They are visually different from each other. In some embodiments, living room speaker control 768a and living room lamp control 768b do not appear visually different from living room speaker device control 718c and living room lamp device control 718b.

図7Bに表示された外部デバイス制御718と比較すると、外部デバイス制御768は、図7Bの外部デバイス制御718の一部として表示された少なくとも1つの外部デバイス制御(例えば、リビングルームスピーカ制御768a及びリビングルームランプ制御768b)、及び表示されていない少なくとも1つの外部デバイス制御(例えば、リビングルームスイッチ制御768c及びリビングルームテレビ制御768d)を含む。換言すれば、少なくとも1つの外部デバイス(例えば、リビングルームスピーカ646及び648)は、ユーザインタフェース710及び760から制御することができ、少なくとも1つの外部デバイス(例えば、寝室スピーカ636及びユーザインタフェース760のリビングルームテレビ)は、ユーザインタフェース710及びユーザインタフェース760のうちの1つのみからのみ制御することができる。いくつかの実施形態では、リビングルームランプ制御768bに対応する場所でのタップジェスチャ750g1の検出に応答して、デバイス700は、リビングルームランプ642をオン(又は現在の状態がオンであった場合はオフ)にする命令を送信する。いくつかの実施形態では、リビングルームスピーカ制御768aに対応する場所でのタップジェスチャ750g2の検出に応答して、デバイス700は、リビングルームスピーカ646及び648(又はそれらのうちの少なくとも1つ)に、メディアの再生を開始させる(例えば、又は現在の状態が再生している場合にメディアの再生を休止させる)命令を送信する。 As compared to the external device controls 718 displayed in FIG. 7B, the external device controls 768 include at least one external device control displayed as part of the external device controls 718 in FIG. room lamp control 768b), and at least one external device control not displayed (eg, living room switch control 768c and living room television control 768d). In other words, at least one external device (eg, living room speakers 646 and 648) can be controlled from user interfaces 710 and 760, and at least one external device (eg, bedroom speakers 636 and living room speakers of user interface 760). room television) can only be controlled from only one of user interface 710 and user interface 760 . In some embodiments, in response to detecting tap gesture 750g1 at a location corresponding to living room lamp control 768b, device 700 turns living room lamp 642 on (or off). In some embodiments, in response to detecting tap gesture 750g2 at a location corresponding to living room speaker control 768a, device 700 causes living room speakers 646 and 648 (or at least one of them) to: Send an instruction to start playing the media (or pause the playing of the media if the current state is playing).

加えて、外部デバイス制御718は、図7Bのホーム602のお気に入りの制御の1組であると指定されているが、外部デバイス制御768は、図7Gのリビングルーム602dに指定された全ての制御の1組である。図7Bでは、ユーザインタフェース760は、リビングルーム602dに指定されていない外部デバイスを全く含まない。例えば、ダイニングルームスピーカ制御718a、サンルームスピーカデバイス制御718d、寝室スピーカデバイス制御718e、及び寝室光デバイス制御718fは、ユーザインタフェース760上に表示されない。いくつかの実施形態では、タップジェスチャ750f3の検出に応答して、別の部屋(例えば、寝室、サンルーム、キッチンなど)のための複数の外部デバイスを制御するためのユーザインタフェースが表示される。いくつかの実施形態では、別の部屋のための複数の外部デバイスを制御するためのユーザは、図7Gで検出される1つ以上の入力(例えば、スワイプ入力)に応答して表示される。 Additionally, external device controls 718 are designated as one set of favorite controls for home 602 in FIG. 7B, while external device controls 768 are designated for all controls designated for living room 602d in FIG. 7G. One set. In FIG. 7B, user interface 760 does not include any external devices not designated for living room 602d. For example, dining room speaker control 718 a , solarium speaker device control 718 d , bedroom speaker device control 718 e , and bedroom light device control 718 f are not displayed on user interface 760 . In some embodiments, a user interface for controlling multiple external devices for another room (eg, bedroom, solarium, kitchen, etc.) is displayed in response to detecting tap gesture 750f3. In some embodiments, a user for controlling multiple external devices for another room is displayed in response to one or more inputs (eg, swipe inputs) detected in FIG. 7G.

図7Gに示すように、ユーザインタフェース760は、リビングルームマルチキャストアフォーダンス776に隣接するリビングルームマルチキャスト命令774を含む。図7Gでは、リビングルームマルチキャスト命令774は、ユーザがリビングルーム602dに指定された1つ以上のデバイスにマルチキャストされる音声マルチキャストメッセージを送信するために、リビングルームマルチキャストアフォーダンス776を選択(例えば、「タップ」)する必要があることを示す。ここで、リビングルームマルチキャストアフォーダンス776は、(例えば、図7Bの)ホームマルチキャストアフォーダンス726とは視覚的に外観が異なって見えず、ホームマルチキャストアフォーダンス726が図7Bで表示されたデバイス700上の同じ位置に表示される。いくつかの実施形態では、リビングルームマルチキャストアフォーダンス776は、ホームマルチキャストアフォーダンス726と視覚的に外観が異なるように見える。図7Gでは、デバイス700は、リビングルームマルチキャストアフォーダンス776に対応する場所でタップジェスチャ750g3を検出する。 As shown in FIG. 7G, user interface 760 includes living room multicast instructions 774 adjacent to living room multicast affordances 776 . In FIG. 7G, living room multicast instructions 774 select living room multicast affordance 776 (e.g., “tap ”) indicates that you should Here, the living room multicast affordance 776 does not appear visually different from the home multicast affordance 726 (eg, in FIG. 7B), and the same location on the device 700 where the home multicast affordance 726 was displayed in FIG. 7B. to be displayed. In some embodiments, living room multicast affordance 776 appears visually different from home multicast affordance 726 . In FIG. 7G, device 700 detects tap gesture 750g3 at a location corresponding to living room multicast affordance 776. In FIG.

タップジェスチャ750g3の検出に応答して、デバイス700は、音声マルチキャストメッセージをリビングルーム602dに指定された1つ以上のデバイスに送信するためのプロセスを開始する。いくつかの実施形態では、プロセスは、図7Hに図示するような、ユーザインタフェース780aを表示することを含む。いくつかの実施形態では、プロセスは、デバイス700がタップジェスチャ750g3の検出に応答して表示される、図7C1のユーザインタフェース741と類似のユーザインタフェースを表示することを含む。いくつかの実施形態では、プロセスは、デバイス700が図7C1のユーザインタフェース741と類似のユーザインタフェースを表示して、リビングルーム602dに指定されたデバイスのグループに送信する音声マルチキャストメッセージを記録することを含む。いくつかの実施形態では、プロセスは、図7H~7Jに後述するように、デバイス700がユーザインタフェースを表示することを含み、ここで音声が記録され、リビングルーム602dに指定されたデバイスのグループに送信される。 In response to detecting tap gesture 750g3, device 700 initiates a process to send an audio multicast message to one or more devices designated in living room 602d. In some embodiments, the process includes displaying a user interface 780a, as illustrated in Figure 7H. In some embodiments, the process includes displaying a user interface similar to user interface 741 of FIG. 7C1 displayed in response to device 700 detecting tap gesture 750g3. In some embodiments, the process causes device 700 to display a user interface similar to user interface 741 of FIG. 7C1 to record an audio multicast message for transmission to a group of devices designated in living room 602d. include. In some embodiments, the process includes device 700 displaying a user interface, as described below in FIGS. sent.

図7Hに示すように、タップジェスチャ750g3の検出に応答して、ユーザインタフェース780aは、ユーザインタフェース780aが終了アフォーダンス734及びマルチキャスト記録アフォーダンス736も含むように、図7Cのユーザインタフェース730と類似である。しかしながら、ユーザインタフェース780aは、ホーム宛先識別子732の代わりに、リビングルーム宛先識別子782を含む。リビングルーム宛先識別子782は、リビングルーム602dに指定されたデバイスのグループが、ユーザインタフェース780aを介して送信されたマルチキャストメッセージを受信することを示す。いくつかの実施形態では、ユーザインタフェース780aは、グループの一部であるデバイスの個々の名前/識別子をリスト表示しない。いくつかの実施形態では、ユーザインタフェース730に関して上述した1つ以上の技術をユーザインタフェース780aに適用することができる。 As shown in FIG. 7H, in response to detection of tap gesture 750g3, user interface 780a is similar to user interface 730 of FIG. 7C such that user interface 780a also includes exit affordance 734 and multicast recording affordance 736. However, user interface 780 a includes living room destination identifier 782 instead of home destination identifier 732 . Living room destination identifier 782 indicates that the group of devices designated for living room 602d will receive the multicast message sent via user interface 780a. In some embodiments, user interface 780a does not list individual names/identifiers of devices that are part of a group. In some embodiments, one or more of the techniques described above with respect to user interface 730 can be applied to user interface 780a.

図7Kを参照すると、いくつかの実施形態では、ユーザインタフェース780bは、タップジェスチャ750g3の検出に応答して、リビングルーム602dに指定された1つ以上の(又は全ての)外部デバイス(例えば、スピーカ)が利用できない(例えば、非アクティブ又はオフである)という判定に従って表示される。図7Kに示されるように、ユーザインタフェース780bは、リビングルーム602dに指定された外部デバイスのうちの任意の1つ以上が利用不可能であり(又は、全てで全て未満が利用不可能である場合ではない)、マルチキャスト記録アフォーダンス736が、グレー表示又はグレーアウトとして表示されることを示すための利用不可能な示唆788を含む。図7Kでは、タップジェスチャ750kの検出に応答して、デバイス700は、マルチキャスト記録アフォーダンス736が無効化されるため、ユーザインタフェース780bの表示を継続する(例えば、リビングルーム602dに指定された1つ以上の外部デバイスが利用可能になるまで)。いくつかの実施形態では、図7Cでデバイス700がタップジェスチャ750cを検出したことに応答して、ユーザインタフェース780bと類似のユーザインタフェースが表示される。 7K, in some embodiments, user interface 780b, in response to detecting tap gesture 750g3, displays one or more (or all) external devices (e.g., speakers) assigned to living room 602d. ) is unavailable (eg, inactive or off). As shown in FIG. 7K, user interface 780b displays if any one or more of the external devices designated for living room 602d are unavailable (or if less than all are unavailable). is not), the multicast recording affordance 736 includes an unavailable indication 788 to indicate that it is displayed as grayed out or greyed out. In FIG. 7K, in response to detection of tap gesture 750k, device 700 continues to display user interface 780b as multicast recording affordance 736 is disabled (eg, one or more designated for living room 602d). until an external device becomes available). In some embodiments, a user interface similar to user interface 780b is displayed in response to device 700 detecting tap gesture 750c in FIG. 7C.

図7Hに戻ると、デバイス700は、マルチキャスト記録アフォーダンス736に対応する場所でタップジェスチャ750hを受信する。 Returning to FIG. 7H, device 700 receives tap gesture 750 h at a location corresponding to multicast recording affordance 736 .

図7Iに示すように、タップジェスチャ750hの受信に応答して、デバイス700は、1つ以上の外部ソースから(例えば、デバイス700のマイクロフォンを使用して)音声の記録を開始し、図7Dのユーザインタフェース740と類似のユーザインタフェース784を表示する。ユーザインタフェース740のように、ユーザインタフェース784は、終了アフォーダンス734、音声状態バー742、及びマルチキャスト記録停止アフォーダンス746を含む。しかしながら、ユーザインタフェース784は、音声波744aによって表される図7Dに記録された音声から記録されている、異なる音声を表す音声波744bを含む。ユーザインタフェース784はまた、ホーム宛先識別子732の代わりに、リビングルーム宛先識別子782を含む。いくつかの実施形態では、ユーザインタフェース740に関して上述した1つ以上の技術をユーザインタフェース784に適用することができる。図7Iでは、デバイス700は、マルチキャスト記録停止アフォーダンス746に対応する場所でタップジェスチャ750iを検出する。 In response to receiving tap gesture 750h, device 700 begins recording audio from one or more external sources (eg, using device 700's microphone), as shown in FIG. A user interface 784 similar to user interface 740 is displayed. Like user interface 740 , user interface 784 includes end affordance 734 , audio status bar 742 , and stop multicast recording affordance 746 . However, user interface 784 includes audio wave 744b representing a different audio recorded from the audio recorded in FIG. 7D represented by audio wave 744a. User interface 784 also includes living room destination identifier 782 instead of home destination identifier 732 . In some embodiments, one or more of the techniques described above with respect to user interface 740 can be applied to user interface 784 . 7I, device 700 detects tap gesture 750i at a location corresponding to multicast stop affordance 746. In FIG.

図7Jに示すように、タップジェスチャ750iの検出に応答して、デバイス700は、ユーザインタフェース786を表示し、1つ以上の外部ソースからの音声の記録又はキャプチャを停止する。ユーザインタフェース786は、(音声波744aの代わりに)表示されている音声波744b、及び(ホーム宛先識別子732の代わりに)表示されているリビングルーム宛先識別子782を除いて、ユーザインタフェース750と類似している。いくつかの実施形態では、ユーザインタフェース750に関して上述した1つ以上の技術をユーザインタフェース786に適用することができる。図7Jでは、デバイス700は、マルチキャスト送信アフォーダンス756に対応する場所でタップジェスチャ750j(又は、上述したように、図7C1のユーザインタフェース741と類似したユーザインタフェース上でのタップジェスチャ(例えば、タップジェスチャ750c1と類似))を検出する。 As shown in FIG. 7J, in response to detecting tap gesture 750i, device 700 displays user interface 786 and stops recording or capturing audio from one or more external sources. User interface 786 is similar to user interface 750, except that audio wave 744b is displayed (instead of audio wave 744a), and living room destination identifier 782 is displayed (instead of home destination identifier 732). ing. In some embodiments, one or more of the techniques described above with respect to user interface 750 can be applied to user interface 786 . In FIG. 7J, the device 700 performs a tap gesture 750j at a location corresponding to the multicast transmission affordance 756 (or, as described above, a tap gesture on a user interface similar to user interface 741 of FIG. 7C1 (eg, tap gesture 750c1 and similar)).

いくつかの実施形態では、デバイス700は、図7Lに示すように、タップジェスチャ750j(又は、上述したように、図7C1のユーザインタフェース741と類似のユーザインタフェース上でのタップジェスチャ(例えば、タップジェスチャ750c1と類似)の検出に応答して、ユーザインタフェース790を表示する。デバイス700は、音声マルチキャストメッセージがリビングルーム602dに指定された外部デバイスの1つ以上(又は全て)に伝送することができないとの判定のとき、ユーザインタフェース790を表示する。ユーザインタフェース790は、音声マルチキャストメッセージが目標化された外部デバイスに伝送されなかったことを示すために、示唆791を伝送しない。いくつかの実施形態では、デバイス700が図7Eのタップジェスチャ750e又は図7C1のタップジェスチャ750c1を検出したことに応答して、ユーザインタフェース790と類似のユーザインタフェースが表示される。 In some embodiments, the device 700 performs a tap gesture 750j, as shown in FIG. 7L (or, as described above, a tap gesture on a user interface similar to the user interface 741 of FIG. 750c1), displays user interface 790. Device 700 indicates that the audio multicast message cannot be transmitted to one or more (or all) of the external devices designated in living room 602d. display user interface 790. User interface 790 does not transmit indication 791 to indicate that the audio multicast message was not transmitted to the targeted external device. , a user interface similar to user interface 790 is displayed in response to device 700 detecting tap gesture 750e of FIG. 7E or tap gesture 750c1 of FIG. 7C1.

いくつかの実施形態では、ユーザインタフェース730、740、750、780a、780b、784、786、及び790のうちの任意の1つ以上は、記録された音声マルチキャストメッセージの意図された目標をスワップするためのアフォーダンスを含む(例えば、宛先識別子を変更する)。例えば、音声マルチキャストメッセージを第1のグループのデバイス(例えば、ホーム602に指定されたデバイス)に送信するためのプロセスの開始後(図7Jを示す間、及び上述のような図7C1のユーザインタフェース741に類似のユーザインタフェース上の入力750j又は(例えば、タップジェスチャ750c1と類似の)タップジェスチャを受信する前などの)、デバイス700は、記録された音声マルチキャストメッセージの意図された目標(例えば、又は意図された目標をスワップするための複数のアフォーダンス)を第1のグループのデバイスから第2のグループのデバイス(例えば、ダイニングルーム602bに指定されたデバイス)へとスワップするためのアフォーダンスの選択を検出することができる。 In some embodiments, any one or more of user interfaces 730, 740, 750, 780a, 780b, 784, 786, and 790 are configured to swap the intended target of the recorded audio multicast message. (e.g. changing the destination identifier). For example, after initiating the process for sending an audio multicast message to a first group of devices (e.g., devices designated as Home 602) (during illustration of FIG. 7J, and user interface 741 of FIG. 7C1 as described above). (such as before receiving an input 750j on a user interface similar to or a tap gesture (eg, similar to tap gesture 750c1), device 700 responds to the intended target (eg, or intended A plurality of affordances for swapping objectives) from a first group of devices to a second group of devices (e.g., devices designated for dining room 602b). be able to.

いくつかの実施形態では、音声は、タップジェスチャ750gの検出に応答して表示される、図7C1のユーザインタフェース741と類似のユーザインタフェースから記録され、送信される。いくつかの実施形態では、音声は、図7H~7Jに記載されたフローの代わりに、図7Gのユーザインタフェース760から記録される。例えば、リビングルームマルチキャストアフォーダンス776上での保持ジェスチャの検出に応答して、デバイス700は、音声マルチキャストメッセージの記録を開始する。そのような例では、記録は、保持ジェスチャが終了する(例えば、解放される)ときに停止され、リビングルームマルチキャストアフォーダンス776を送信アフォーダンス(例えば、マルチキャスト送信アフォーダンス756と類似)で置き換えることが発生する。そのような例では、リビングルームマルチキャスト命令774は、音声を再生するためのアフォーダンス(例えば、音声状態バー742と類似)及び音声を削除するためのアフォーダンス(例えば、音声マルチキャストメッセージ削除アフォーダンス754と類似)に置き換えられる。別の例では、リビングルームマルチキャストアフォーダンス776上でのタップジェスチャの検出に応答して、リビングルームマルチキャストアフォーダンス776は、マルチキャスト記録アフォーダンス736と類似に動作する(例えば、(マルチキャスト記録停止アフォーダンス746と類似の)停止アフォーダンスと置き換えられる)。そのような例では、停止アフォーダンス上でのタップジェスチャの検出に応答して、停止アフォーダンスは、(例えば、マルチキャスト送信アフォーダンス756と類似の)送信アフォーダンスと置き換えられ、リビングルームマルチキャスト命令774は、音声を再生するための(例えば、音声状態バー742と類似の)アフォーダンス及び(例えば、音声マルチキャストメッセージ削除アフォーダンス754と類似の)音声を削除するためのアフォーダンスと置き換えられる。 In some embodiments, audio is recorded and transmitted from a user interface similar to user interface 741 of FIG. 7C1 that is displayed in response to detection of tap gesture 750g. In some embodiments, audio is recorded from user interface 760 of FIG. 7G instead of the flow described in FIGS. 7H-7J. For example, in response to detecting a hold gesture on living room multicast affordance 776, device 700 begins recording an audio multicast message. In such an example, recording stops when the hold gesture ends (eg, is released), causing replacement of living room multicast affordance 776 with a send affordance (eg, similar to multicast send affordance 756). . In such an example, living room multicast instructions 774 include an affordance for playing audio (eg, similar to audio status bar 742) and an affordance for deleting audio (eg, similar to delete audio multicast message affordance 754). be replaced by In another example, in response to detecting a tap gesture on living room multicast affordance 776, living room multicast affordance 776 operates similarly to multicast recording affordance 736 (e.g., similar to multicast recording stop affordance 746). ) is replaced by the Stop Affordance). In such an example, in response to detecting a tap gesture on a stop affordance, the stop affordance is replaced with a send affordance (eg, similar to multicast send affordance 756), and living room multicast instructions 774 turn audio off. Replaced by affordances to play (eg, similar to audio status bar 742) and affordances to delete audio (eg, similar to delete audio multicast message affordance 754).

図7Mの表706に示すように、タップジェスチャ750j(若しくは、先の段落で説明したような、送信アフォーダンス上のタップジェスチャ又は上述のように図7C1のユーザインタフェース741と類似のユーザインタフェース上のタップジェスチャ(例えば、タップジェスチャ750c1と類似))の検出に応答して、デバイス700は、音声マルチキャストメッセージを、リビングルーム602dに指定された1組の外部デバイスにマルチキャスト(送信又は方向付け)させる。そのような送信は任意選択的に、(1)音声マルチキャストメッセージを含むメッセージを別のデバイス(例えば、リビングルームに配置されたデバイス)に送信すること、及び(2)他のデバイスが、音声マルチキャストメッセージを1組の外部デバイスに送信すること(いくつかの実施形態では、他のデバイスは、デバイス700の代わりに、外部デバイスの1組を識別する)を含む。表706に示すように、音声マルチキャストメッセージは、音声マルチキャストメッセージを受信する、リビングルームスピーカ646及び648のみに向けられる。特に、音声マルチキャストメッセージは、パーソナルデバイス(例えば、ジョンの電話604、タブレット634、及びジェーンの電話684)に向けられていない、その理由は、パーソナルデバイスが部屋に対応するグループに指定されていない(例えば、パーソナルデバイスは、リビングルーム602dに対応するグループに指定されていない)ためである。更に、音声マルチキャストメッセージは、リビングルームランプ642に向けられない、その理由は、リビングルームランプ642が、上述した(例えば、図7Fの)類似の理由のために音声マルチキャストメッセージを受信することができる外部デバイスのタイプではないためである。 As shown in table 706 of FIG. 7M, a tap gesture 750j (or a tap gesture on a transmit affordance as described in the previous paragraph or a tap on a user interface similar to user interface 741 of FIG. 7C1 as described above). In response to detecting a gesture (eg, similar to tap gesture 750c1), device 700 multicasts (sends or directs) an audio multicast message to a set of external devices designated in living room 602d. Such transmission optionally includes (1) sending a message containing an audio multicast message to another device (e.g., a device located in a living room); and (2) the other device Sending a message to a set of external devices (in some embodiments, the other device identifies the set of external devices on behalf of device 700). As shown in table 706, audio multicast messages are directed only to living room speakers 646 and 648, which receive audio multicast messages. In particular, audio multicast messages are not directed to personal devices (e.g., John's phone 604, tablet 634, and Jane's phone 684) because the personal devices are not assigned to the group corresponding to the room ( For example, personal devices are not assigned to the group corresponding to living room 602d). Additionally, the audio multicast messages are not directed to living room lamps 642, since living room lamps 642 can receive audio multicast messages for similar reasons discussed above (eg, in FIG. 7F). This is because it is not the type of external device.

図7Mでは、デバイス700は、フレーズ「ヘイ、アシスタント、マルチキャストこんにちは」を含む音声入力792aを検出する。音声入力792aの一部を検出した後しばらくして、デバイス700はユーザインタフェース794に示唆794a(例えば、ユーザインタフェース794の左側)を表示する。ここで、示唆794aは、音声入力792aの一部の応答である。示唆794aは、「ご用件は何でしょうか?」と書いてある文字である。いくつかの実施形態では、デバイス700は、示唆794aの可聴バージョンを含むメディアを出力する。 In FIG. 7M, device 700 detects voice input 792a that includes the phrase "Hey Assistant Multicast Hello". Some time after detecting a portion of speech input 792a, device 700 displays suggestion 794a on user interface 794 (eg, on the left side of user interface 794). Here, suggestion 794a is a partial response to voice input 792a. Suggestion 794a is text that reads, "What is your business?" In some embodiments, device 700 outputs media that includes an audible version of suggestion 794a.

図7Nでは、図7Mのユーザインタフェース794を表示した後、デバイス700は、ユーザインタフェース794の右側に示唆794bを表示する。加えて、デバイス700は、ユーザインタフェース794の左側及び示唆794bの下に示唆794cを表示する。示唆794bは、音声入力792aに含まれる可聴フレーズに対応する文字である「ヘイ、アシスタント、マルチキャストこんにちは」と書いてある文字である。加えて、示唆794cは、「OK、あなたのマルチキャストをメインストリート123番地に送りました」と書いてある文字である。特に、メインストリート123番地は、ホーム602の識別子(例えば、図7Bのホーム場所識別子712)である。いくつかの実施形態では、デバイス700は、応答794cの可聴バージョンを含むメディアを出力する。 7N, after displaying user interface 794 of FIG. 7M, device 700 displays suggestion 794b on the right side of user interface 794. In FIG. In addition, device 700 displays suggestions 794c on the left side of user interface 794 and below suggestions 794b. Suggestion 794b is a letter written "Hey Assistant Multicast Hello" which is the letter corresponding to the audible phrase contained in voice input 792a. In addition, suggestion 794c is the text that says "OK, I sent your multicast to 123 Main Street." In particular, 123 Main Street is an identifier for home 602 (eg, home location identifier 712 in FIG. 7B). In some embodiments, device 700 outputs media including an audible version of response 794c.

図7Nの表706に示すように、音声入力792aを検出した後、図7Fに関連して上述したように、デバイス700は、音声マルチキャストメッセージをホーム602に指定された1つ以上のデバイスに向ける(例えば、送信する)。表706は、(上述のように)デバイスがホームに対応する場所にあるかどうかにかかわらず、及び/又はデバイスがホームに関連付けられたネットワークに接続されているかどうかにかかわらず、音声マルチキャストメッセージ(例えば、「こんにちは」)がホームの各スピーカ(例えば、ダイニングルームスピーカ616、寝室スピーカ636、リビングルームスピーカ646、リビングルームスピーカ648、サンルームスピーカ656、及びサンルームスピーカ658)に向けられ、音声マルチキャストメッセージ(例えば、「こんにちは」)が、ホームのパーソナルデバイス(例えば、ジョンの電話604、タブレット634、ジェーンの電話684)に向けられたことを示す。 As shown in table 706 of FIG. 7N, after detecting audio input 792a, device 700 directs an audio multicast message to one or more devices designated as home 602, as described above in connection with FIG. 7F. (e.g. send). Table 706 displays audio multicast messages ( "Hello") is directed to each speaker in the Home (e.g., dining room speaker 616, bedroom speaker 636, living room speaker 646, living room speaker 648, sunroom speaker 656, and sunroom speaker 658) and audio multicast Indicates that the message (eg, "hello") was directed to a home personal device (eg, John's phone 604, tablet 634, Jane's phone 684).

図7Oに示すように、図7Nでユーザインタフェース794を表示した後しばらくして、デバイス700は、ユーザインタフェース710を表示する。ユーザインタフェース710を表示している間に、デバイス700は、図7Oで寝室スピーカ制御718eに対応する場所で、ジェスチャ750o(例えば、長押しジェスチャ)を検出する。 As shown in FIG. 7O, some time after displaying user interface 794 in FIG. 7N, device 700 displays user interface 710 . While displaying user interface 710, device 700 detects gesture 750o (eg, long press gesture) at the location corresponding to bedroom speaker control 718e in FIG. 7O.

図7Pに示すように、ジェスチャ750oの検出に応答して、デバイス700は、寝室スピーカ636を制御するための複数の設定アフォーダンスを含むユーザインタフェース796を表示する(例えば、部屋設定(例えば、寝室スピーカ636が寝室602cに指定されていることを示すために寝室が図7Pで選択されている場合)、お気に入りの設定(例えば、お気に入りに含まれる場所が図7Pで選択され、これにより、寝室スピーカ制御718eをユーザインタフェース710上に表示させることができる))。図7Pに示すように、設定アフォーダンスのうちの1つはマルチキャスト設定アフォーダンス796aであり、これは、寝室スピーカ636がマルチキャストメッセージを受信するように構成されているという示唆を含む。図7Pでは、デバイス700は、マルチキャスト設定アフォーダンス796aに対応する場所でタップジェスチャ750pを検出する。 As shown in FIG. 7P, in response to detecting gesture 750o, device 700 displays user interface 796 that includes multiple setting affordances for controlling bedroom speakers 636 (e.g., room settings (e.g., bedroom speakers)). 7P to indicate that 636 is designated as bedroom 602c), set favorites (e.g., locations included in the favorites are selected in FIG. 7P, thereby enabling bedroom speaker control). 718e can be displayed on the user interface 710)). As shown in FIG. 7P, one of the setting affordances is multicast setting affordance 796a, which includes an indication that bedroom speakers 636 are configured to receive multicast messages. In FIG. 7P, device 700 detects tap gesture 750p at a location corresponding to multicast setup affordance 796a.

図7Qに示すように、タップジェスチャ750pの検出に応答して、デバイス700は、マルチキャスト設定トグル798aを含む、ユーザインタフェース798を表示する。図7Qでは、マルチキャスト設定トグル798aは、寝室スピーカ636がマルチキャストメッセージ(例えば、設定トグルの右側に表示された円)を受信するように構成されていることを示す。図7Qでは、デバイス700は、マルチキャスト設定アフォーダンス798aに対応する場所でタップジェスチャ750qを検出する。 As shown in FIG. 7Q, in response to detecting tap gesture 750p, device 700 displays user interface 798, including multicast settings toggle 798a. In FIG. 7Q, multicast settings toggle 798a indicates that bedroom speakers 636 are configured to receive multicast messages (eg, the circle displayed to the right of the settings toggle). In FIG. 7Q, device 700 detects tap gesture 750q at a location corresponding to multicast setup affordance 798a.

図7Rに示すように、タップジェスチャ750q、デバイス700の検出に応答して、マルチキャストトグル798aの状態を変更し(例えば、設定トグルの左側に円を移動させる)、寝室スピーカ636がマルチキャストメッセージを受信するように構成されていないことを示す。いくつかの実施形態では、図7Pのマルチキャスト設定アフォーダンス796aは、異なるユーザインタフェース(例えば、ユーザインタフェース798)にナビゲートすることなく、オンからオフへの設定を変更するように選択可能である。 As shown in FIG. 7R, tap gesture 750q changes the state of multicast toggle 798a (eg, moves the circle to the left of the settings toggle) in response to detecting device 700, causing bedroom speakers 636 to receive the multicast message. Indicates that it is not configured to In some embodiments, the multicast setting affordance 796a of FIG. 7P is selectable to change the setting from on to off without navigating to a different user interface (eg, user interface 798).

図7Sでは、デバイス700は、フレーズ「ヘイ、アシスタント、サンルームへのマルチキャスト、こんにちは」を含む音声入力792bを検出する。音声入力792bの一部を検出した後しばらくして、デバイス700はユーザインタフェース794に示唆794d(例えば、ユーザインタフェース794の左側)を表示する。ここで、示唆794dは、音声入力792bの一部の応答である。示唆794dは、「ご用件は何でしょうか?」と書いてある文字である。いくつかの実施形態では、デバイス700は、示唆794dの可聴バージョンを含むメディアを出力する。 In FIG. 7S, device 700 detects voice input 792b that includes the phrase "Hey Assistant, multicast to solarium, hello." Some time after detecting a portion of speech input 792b, device 700 displays suggestion 794d in user interface 794 (eg, left side of user interface 794). Here, suggestion 794d is a partial response to voice input 792b. Suggestion 794d is text that reads, "What is your business?" In some embodiments, device 700 outputs media containing an audible version of suggestion 794d.

図7Tでは、図7Sでユーザインタフェース794を表示した後、デバイス700は、ユーザインタフェース794の右側に示唆794eを表示し、ユーザインタフェース794の左側(及び示唆794eの下)に示唆794fを表示する。示唆794eは、音声入力792bに含まれる可聴フレーズに対応する文字である「ヘイ、アシスタント、サンルームへのマルチキャスト、こんにちは」と書いてある文字である。加えて、示唆794fは、「OK、あなたのマルチキャストをサンルームに送りました」と書いてある文字である。特に、「サンルーム」は、図6のサンルーム602eに指定されるデバイスのグループの識別子である。 In FIG. 7T, after displaying user interface 794 in FIG. 7S, device 700 displays suggestion 794e on the right side of user interface 794 and suggestion 794f on the left side of user interface 794 (and below suggestion 794e). Suggestion 794e is the letters that say "Hey Assistant, Multicast to Solarium, Hello" which are letters that correspond to the audible phrase contained in voice input 792b. Additionally, suggestion 794f is text that says "OK, your multicast has been sent to the solarium." In particular, "sunroom" is an identifier for a group of devices designated as sunroom 602e in FIG.

図7Tの表706に示すように、音声入力792bを検出した後、デバイス700は、音声マルチキャストメッセージをサンルーム602eに指定された1つ以上のデバイスに向ける(例えば、送信する)。表706は、音声マルチキャストメッセージ(例えば、「こんにちは」)が、サンルームスピーカ656及びサンルームスピーカ658に向けられ、音声マルチキャストメッセージ(例えば、「こんにちは」)が他のデバイスに向けられていないことを示す。特に、音声入力792bは、識別子(例えば、「サンルーム」)を含んでいるが、音声792aは識別子を含んでいなかった。したがって、いくつかの実施形態では、音声入力が識別子なしで検出されると、デバイス700は、音声マルチキャストメッセージを既定のグループに指定されたデバイスのグループに送信する。いくつかの実施形態では、既定のグループは、図7Nに関連して上述したように、ホームに対応するグループ(例えば、ホーム602を有するなど)である。 As shown in table 706 of FIG. 7T, after detecting audio input 792b, device 700 directs (eg, transmits) an audio multicast message to one or more devices designated to solarium 602e. Table 706 indicates that audio multicast messages (eg, "Hello") are directed to solarium speakers 656 and solarium speakers 658, and audio multicast messages (eg, "Hello") are not directed to other devices. show. In particular, voice input 792b included an identifier (eg, "sunroom"), while voice 792a did not. Accordingly, in some embodiments, when audio input is detected without an identifier, device 700 transmits an audio multicast message to a group of devices designated as a default group. In some embodiments, the default group is the group corresponding to Home (eg, with Home 602, etc.), as described above in connection with FIG. 7N.

図7Uでは、デバイス700は、フレーズ「ヘイ、アシスタント、娯楽ゾーンへのマルチキャスト、こんにちは」を含む音声入力792cを検出する。音声入力792cの一部を検出した後しばらくして、デバイス700はユーザインタフェース794に示唆794g(例えば、ユーザインタフェース794の左側)を表示する。ここで、示唆794gは、音声入力792cの一部の応答である。示唆794gは、「ご用件は何でしょうか?」と書いてある文字である。いくつかの実施形態では、デバイス700は、示唆794gの可聴バージョンを含むメディアを出力する。 In FIG. 7U, device 700 detects voice input 792c that includes the phrase "Hey Assistant, multicast to entertainment zone, hello." Some time after detecting a portion of speech input 792c, device 700 displays suggestion 794g in user interface 794 (eg, left side of user interface 794). Here, suggestion 794g is a partial response to voice input 792c. Suggestion 794g is a letter that reads, "What is your business?" In some embodiments, device 700 outputs media containing an audible version of suggestion 794g.

図7Vでは、図7Uのユーザインタフェース794を表示した後しばらくして、デバイス700は、ユーザインタフェース794の左側(及び示唆794hの下)に示唆794iを表示する。示唆794iは、「OK、あなたのマルチキャストを娯楽ゾーンに送りました」と書いてある文字である。ゾーンは、複数のデバイスのグループの識別子である。ここで、娯楽ゾーン660は、図6のサンルーム602eに対応するデバイスのグループ、及び図6のリビングルーム602dに対応するデバイスのグループに指定される。 In FIG. 7V, some time after displaying user interface 794 of FIG. 7U, device 700 displays suggestion 794i on the left side of user interface 794 (and below suggestion 794h). Suggestion 794i is text that says "OK, your multicast has been sent to the entertainment zone." A zone is an identifier for a group of devices. Here, entertainment zone 660 is assigned to the group of devices corresponding to solarium 602e of FIG. 6 and the group of devices corresponding to living room 602d of FIG.

図7Vの表706に示すように、音声入力792cを検出した後、デバイス700は、音声マルチキャストメッセージを娯楽ゾーンに指定された1つ以上のデバイスに向ける(例えば、送信する)。表706は、音声マルチキャストメッセージ(例えば、「こんにちは」)が、リビングルームスピーカ646、リビングルームスピーカ648、サンルームスピーカ656、及びサンルームスピーカ658に向けられ、音声マルチキャストメッセージ(例えば、「こんにちは」)が他のデバイスに向けられていないことを示す。 As shown in table 706 of FIG. 7V, after detecting audio input 792c, device 700 directs (eg, transmits) an audio multicast message to one or more devices designated as entertainment zones. Table 706 shows that an audio multicast message (eg, "Hello") is directed to living room speaker 646, living room speaker 648, sunroom speaker 656, and sunroom speaker 658, and an audio multicast message (eg, "Hello") is not directed to another device.

図7Vに示すように、デバイス700はまた、新しい音声マルチキャストメッセージが、サンルーム602eに指定されたデバイスのグループから受信されたことを示す、マルチキャスト通知708aも表示する。新しい音声マルチキャストメッセージは、図7Tで送信された音声マルチキャストメッセージへの返信である。 As shown in FIG. 7V, the device 700 also displays a multicast notification 708a indicating that a new audio multicast message has been received from the group of devices designated for solarium 602e. The new audio multicast message is a reply to the audio multicast message sent in Figure 7T.

図7Wでは、デバイス700は、フレーズ「ヘイ、アシスタント、マルチキャスト、もうすぐ立ち去るつもりである」を含む音声入力792dを検出する。 In FIG. 7W, device 700 detects voice input 792d that includes the phrase "Hey Assistant Multicast I'm leaving soon."

図7Xでは、音声入力792dを検出した後しばらくして、デバイス700は、ユーザインタフェース794の左側及び示唆794iの下に示唆794jを表示する。示唆794jは、「ヘイ、アシスタント、マルチキャスト、もうすぐ立ち去るつもりである」と書いてある文字である。この文字は、音声入力792dに含まれる可聴フレーズに対応する。ここで、音声入力792dは、識別子を含まない。加えて、図7Xでは、デバイス700はまた、ユーザインタフェース794の右側及び示唆794jの下に表示794kを表示する。示唆794kは、「OK、あなたのマルチキャストをサンルームに送りました」と書いてある文字である。 In FIG. 7X, some time after detecting voice input 792d, device 700 displays suggestion 794j on the left side of user interface 794 and below suggestion 794i. Suggestion 794j is text that reads "Hey Assistant Multicast I'm leaving soon." This character corresponds to an audible phrase contained in voice input 792d. Here, voice input 792d does not include an identifier. Additionally, in FIG. 7X, device 700 also displays display 794k on the right side of user interface 794 and below suggestion 794j. Suggestion 794k is text that says "OK, your multicast has been sent to the solarium."

図7Xの表706に示すように、音声入力792dを検出した後、デバイス700は、音声マルチキャストメッセージをサンルームに指定されたデバイスのグループに送信するためのプロセス(例えば、「もうすぐ立ち去るつもりである」)を開始する。具体的には、デバイス700は、サンルームの識別子を含む音声入力792dなしに、音声マルチキャストメッセージをサンルーム602eに指定された1つ以上のデバイスに向ける(例えば、送信する)。したがって、マルチキャスト通知708aを受信した後の所定の時間の期間内に音声入力792dが検出されたため、デバイス700は、既定のグループ(ホーム602に対応するグループ)の代わりに、次の検出された音声マルチキャストメッセージをサンルームにインテリジェントに向ける。いくつかの実施形態では、デバイス700は、前のマルチキャストメッセージがサンルームに送信されたときから所定の時間内に音声入力702dが受信されたため、次に検出された音声マルチキャストメッセージを、既定のグループの代わりに、サンルームにインテリジェントに送信する。いくつかの実施形態では、2つの異なるゾーンは、少なくとも1つのデバイスのグループ(例えば、特定の部屋に指定された同じグループのデバイス)を共有することができる。 As shown in table 706 of FIG. 7X, after detecting audio input 792d, device 700 initiates a process (e.g., "I'm leaving soon") to send an audio multicast message to a group of devices designated for the solarium. ”). Specifically, the device 700 directs (eg, transmits) an audio multicast message to one or more devices designated to the solarium 602e without an audio input 792d that includes an identifier for the solarium. Therefore, because audio input 792d was detected within a predetermined time period after receiving multicast notification 708a, device 700 would instead select the default group (the group corresponding to home 602) for the next detected audio Intelligently direct multicast messages to solariums. In some embodiments, device 700 sends the next detected audio multicast message to the default group because audio input 702d was received within a predetermined amount of time after the previous multicast message was sent to the solarium. intelligently send it to the solarium instead. In some embodiments, two different zones can share at least one group of devices (eg, the same group of devices assigned to a particular room).

図7Xに示すように、デバイス700はまた、音声マルチキャストメッセージが、サンルーム602eに指定されたデバイスのグループから受信されたことを示す、マルチキャスト通知708bも表示する。ここで、デバイス700は、10:19にこのメッセージを受信する。 As shown in FIG. 7X, device 700 also displays multicast notification 708b indicating that an audio multicast message has been received from a group of devices designated for solarium 602e. Device 700 now receives this message at 10:19.

図7Yでは、デバイス700は、フレーズ「ヘイ、アシスタント、マルチキャスト、ディナーに行きましょう」を含む音声入力792eを検出し、示唆794lを有するユーザインタフェース794を表示する。示唆794lは、「ご用件は何でしょうか?」と書いてある。図7Yでは、時間は現在、10:30である(例えば、図7Xのユーザインタフェースが表示されてから11分が経過した)。 In FIG. 7Y, device 700 detects voice input 792e containing the phrase "Hey Assistant Multicast Let's go to dinner" and displays user interface 794 with suggestion 794l. Suggestion 794l reads, "What is your business?" In Figure 7Y, the time is now 10:30 (eg, 11 minutes have passed since the user interface of Figure 7X was displayed).

図7Zでは、図7Yでユーザインタフェース794を表示した後、デバイス700は、ユーザインタフェース794の右側に示唆794mを表示し、ユーザインタフェース794の左側(及び示唆794mの下)に示唆794nを表示する。示唆794mは、音声入力792eに含まれる音声フレーズに対応する文字である「ヘイ、アシスタント、マルチキャスト、ディナーに行きましょう」と書いてある文字である。加えて、示唆794nは、「OK、あなたのマルチキャストをメインストリート123番地に送りました」と書いてある文字である。 In FIG. 7Z, after displaying user interface 794 in FIG. 7Y, device 700 displays suggestion 794m on the right side of user interface 794 and suggestion 794n on the left side of user interface 794 (and below suggestion 794m). Suggestion 794m is the text that says "Hey, Assistant, Multicast, Let's go to dinner", which is the text that corresponds to the spoken phrase contained in voice input 792e. In addition, suggestion 794n is text that says "OK, I sent your multicast to 123 Main Street."

図7Zの表706に示すように、音声入力792eを検出した後、デバイス700は、音声マルチキャストメッセージ(例えば、「ディナーに行きましょう」)をホーム602に指定された1つ以上のデバイスに向ける(例えば、送信する)が、ホーム602の識別子を含む音声入力792eはない。ここで、マルチキャスト通知708bが受信されてから所定の時間の期間よりも長い時間が経過したため、デバイス700は、次の検出された音声マルチキャストメッセージを、サンルーム602eの代わりに、既定のグループ(ホーム602に対応するグループ)にインテリジェントに送信する。いくつかの実施形態では、デバイス700は、前のマルチキャストメッセージがサンルーム602eに送信されたときから所定の時間内に音声入力702eが受信されなかったため、検出された音声マルチキャストメッセージを、既定のグループにインテリジェントに送信する。 After detecting voice input 792e, device 700 directs a voice multicast message (eg, "Let's go to dinner") to one or more devices designated as home 602, as shown in table 706 of FIG. 7Z. (eg, transmit), but there is no voice input 792e containing the home 602 identifier. Now, more than the predetermined time period has passed since multicast notification 708b was received, so device 700 sends the next detected audio multicast message to the default group (home) instead of solarium 602e. 602) intelligently. In some embodiments, the device 700 sends the detected audio multicast message to the default group because no audio input 702e was received within a predetermined time after the previous multicast message was sent to the solarium 602e. intelligently send to

更に、図7Zの表706に示すように、(図7Nとは対照的に)図7Zのマルチキャストメッセージは、図7Qのタップジェスチャ750qの検出に応答して、寝室スピーカ636のマルチキャスト設定がオフされたため、寝室スピーカ636には向けられなかった。 Further, as shown in table 706 of FIG. 7Z, the multicast message of FIG. 7Z (as opposed to FIG. 7N) indicates that the multicast setting of bedroom speaker 636 is turned off in response to detecting tap gesture 750q of FIG. 7Q. Therefore, it was not aimed at the bedroom speaker 636 .

図7Zでユーザインタフェース794を表示した後しばらくして、デバイス700は図7AAに示すようにユーザインタフェース710を表示する。図7AAでは、デバイス700は、図7AAのホーム場所識別子712の上方にある、ホーム設定アフォーダンス928に対応する場所でタップジェスチャ750aaを検出する。 Some time after displaying user interface 794 in FIG. 7Z, device 700 displays user interface 710 as shown in FIG. 7AA. In FIG. 7AA, device 700 detects tap gesture 750aa at a location corresponding to home setting affordance 928 above home location identifier 712 in FIG. 7AA.

図7ABに示すように、タップジェスチャ750aaの検出に応答して、デバイス700はユーザインタフェース797を表示する。ユーザインタフェース797は、ホームアプリケーションに指定された1つ以上のパーソナルデバイスを有する人々797aのグループ(例えば、ホーム602aに対応するグループ)を含む。ユーザインタフェース797はまた、マルチキャスト許可アフォーダンス797bを含む。図7ABでは、デバイス700は、マルチキャスト許可アフォーダンス797bに対応する場所でタップジェスチャ750abを検出する。 In response to detecting tap gesture 750aa, device 700 displays user interface 797, as shown in FIG. 7AB. User interface 797 includes a group of people 797a who have one or more personal devices assigned to the Home application (eg, the group corresponding to Home 602a). User interface 797 also includes multicast grant affordance 797b. In FIG. 7AB, device 700 detects tap gesture 750ab at a location corresponding to multicast grant affordance 797b.

図7ACに示すように、タップジェスチャ750abの検出に応答して、デバイス700は、音声マルチキャストメッセージがパーソナルデバイスに送信されることを可能にすべきタイミングの複数のオプションを含む、ユーザインタフェース799を表示する。図7ACでは、オプションはネバーオプション779a、アットホームオプション779b、及び任意の時間オプション799cを含む。図7ACでは、任意の時間オプション799cが選択される。したがって、いくつかの実施形態では、デバイス700は、デバイス700の場所に関わりなく、任意の時間にマルチキャストメッセージを受信するように構成される。いくつかの実施形態では、ネバーオプション779aに対応する場所でのタップジェスチャ750c1の検出に応答して、デバイス700は、デバイス700の場所に関わりなく、マルチキャストメッセージを決して受信しないように構成される。いくつかの実施形態では、アットホームオプション799bに対応する場所でのタップジェスチャ750c2の検出に応答して、デバイス700は、デバイス700がホーム602に対応する又はホーム602内の場所にある間に、マルチキャストメッセージのみを受信するように構成されている(例えば、ホームの閾値距離内、又はデバイスがホーム602に関連付けられた1つ以上のネットワークに接続されているかどうかに関する)。いくつかの実施形態では、デバイス700が距離670及び距離680、ホームから離れているとき、コンピュータデバイス674及びジェーンの電話684などのデバイス700は、それらの距離が閾値距離よりも長い場合には、ホームオプション799bで選択されたときに、音声マルチキャストメッセージを受信しない。いくつかの実施形態では、デバイスがホームから離れている間に、メッセージのみを受信するオプションなどの1つ以上のオプションが選択可能であり、表示される。いくつかの実施形態では、デバイス700がホーム602に関連付けられた1つ以上のネットワークに接続される(例えば、ホームWi-Fiネットワークに接続される)と、デバイス700は、アットホームオプション799bが選択されたときに、音声マルチキャストメッセージを受信し、デバイス700がホーム602に関連付けられた1つ以上のネットワークに接続されていない(例えば、ホームWi-Fiネットワークに接続されていない)と、デバイス700は、アットホームオプション799bが選択されたときにも(例えば、デバイスの場所に関わりなく)、音声マルチキャストメッセージを受信しない。 As shown in FIG. 7AC, in response to detecting the tap gesture 750ab, the device 700 displays a user interface 799 that includes multiple options for when audio multicast messages should be allowed to be sent to personal devices. do. In FIG. 7AC, the options include never option 779a, at home option 779b, and any time option 799c. In Figure 7AC, the optional time option 799c is selected. Accordingly, in some embodiments, device 700 is configured to receive multicast messages at any time regardless of device 700's location. In some embodiments, in response to detecting tap gesture 750c1 at a location corresponding to never option 779a, device 700 is configured to never receive multicast messages regardless of device 700's location. In some embodiments, in response to detecting tap gesture 750c2 at a location corresponding to at-home option 799b, device 700 may, while device 700 is at a location corresponding to or within home 602, Configured to receive only multicast messages (eg, within a threshold distance of home or whether the device is connected to one or more networks associated with home 602). In some embodiments, when device 700 is away from home at distance 670 and distance 680, device 700, such as computing device 674 and Jane's phone 684, if their distance is greater than a threshold distance, Do not receive audio multicast messages when selected in home option 799b. In some embodiments, one or more options are selectable and displayed, such as an option to only receive messages while the device is away from home. In some embodiments, when device 700 is connected to one or more networks associated with home 602 (eg, connected to a home Wi-Fi network), device 700 selects at-home option 799b. received an audio multicast message and device 700 is not connected to one or more networks associated with home 602 (eg, not connected to a home Wi-Fi network), device 700 , does not receive audio multicast messages even when at-home option 799b is selected (eg, regardless of device location).

図7AD~7AEは、タブレット634などのデバイス700よりも大きなスクリーンを有するデバイス上で上述したユーザインタフェースを表示するための例示的なユーザインタフェースを示す。図7ADのユーザインタフェース711は、上述のユーザインタフェース710に対応する。加えて、図7AEのユーザインタフェース731は、上述のユーザインタフェース730に対応する。しかしながら、上述したユーザインタフェースのいずれかは、図7A~7ACのために上述したものと1つ以上の類似の技術を使用して、タブレット634上で表示及び遷移することができる。 7AD-7AE show exemplary user interfaces for displaying the user interfaces described above on a device having a screen larger than device 700, such as tablet 634. FIG. User interface 711 in FIG. 7AD corresponds to user interface 710 described above. Additionally, user interface 731 in FIG. 7AE corresponds to user interface 730 described above. However, any of the user interfaces described above can be displayed and transitioned on tablet 634 using one or more techniques similar to those described above for FIGS. 7A-7AC.

図7AF~7AHは、スマートウォッチ701などのデバイス700よりも小さいスクリーンを有するデバイス上に上述のユーザインタフェースを表示するための例示的なユーザインタフェースを示す。図7AFのユーザインタフェース713は、上述のユーザインタフェース710に対応する。その上、図7AGのユーザインタフェース741は、上述のユーザインタフェース740に対応する。更に、図7AHのユーザインタフェース751は、上述のユーザインタフェース750に対応する。しかしながら、上述したユーザインタフェースのいずれかは、図7A~7ACのために上述したものと1つ以上の類似の技術を使用して、スマートウォッチ701上で表示及び遷移することができる。 7AF-7AH show exemplary user interfaces for displaying the user interfaces described above on a device having a smaller screen than device 700, such as smartwatch 701. FIG. User interface 713 in FIG. 7AF corresponds to user interface 710 described above. Moreover, user interface 741 of FIG. 7AG corresponds to user interface 740 described above. Further, user interface 751 in FIG. 7AH corresponds to user interface 750 described above. However, any of the user interfaces described above can be displayed and transitioned on smartwatch 701 using one or more techniques similar to those described above for FIGS. 7A-7AC.

図8A~8Bは、いくつかの実施形態に係る、音声メッセージを送信するための方法を示すフロー図である。方法800は、ディスプレイ生成構成要素(例えば、タッチ感知ディスプレイ)と通信するコンピュータシステム(例えば、100、300、500、634、674、700、701、850)で実行される。方法800のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 8A-8B are flow diagrams illustrating methods for sending voice messages, according to some embodiments. Method 800 is performed in a computer system (eg, 100, 300, 500, 634, 674, 700, 701, 850) in communication with a display generating component (eg, touch sensitive display). Some acts of method 800 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

後述するように、方法800は、いくつかの実施形態に係る、音声メッセージを送信するための直観的方法を提供する。本方法は、音声メッセージを送信するユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作成する。バッテリ動作式のコンピューティングデバイスの場合には、ユーザが音声メッセージをより高速かつより効率的に送信することを有効化することにより、電力が節約され、バッテリ充電の間隔が増す。 As discussed below, method 800 provides an intuitive method for sending voice messages, according to some embodiments. The method reduces the cognitive burden of users sending voice messages, thereby creating a more efficient human-machine interface. In the case of battery-operated computing devices, enabling users to send voice messages faster and more efficiently saves power and increases intervals between battery charges.

コンピュータシステムは(802)、ディスプレイ生成構成要素を介して、第1のユーザインタフェース(例えば、730)(例えば、1組の外部デバイスを制御するためのユーザインタフェース)を表示する。第1のユーザインタフェースは、第1の選択可能なユーザインタフェースオブジェクト対象(例えば、726)を含み(例えば、ディスプレイを含む)、第1の選択可能なユーザインタフェースオブジェクト対象の選択は、第1の音声メッセージを1組の外部デバイス(例えば、図7Fの706)(例えば、1組の外部デバイスの各外部デバイス)に記録(例えば、マイクロフォンを介してコンピュータシステムで)し、送信するためのプロセス(例えば、ユーザインタフェース730、740、及び750)を開始し、1組の外部デバイスは、1つ以上の外部デバイスの第1の1組(例えば、616)と、1つ以上の外部デバイスの第2の1組(例えば、646、648)とを含む。いくつかの実施形態では、第1の選択可能なユーザインタフェースオブジェクト対象を表示している間に、コンピュータシステムは、第1の選択可能なユーザインタフェースオブジェクト対象の選択に対応する入力を受信し、第1の選択可能なユーザインタフェースオブジェクト対象の選択に対応する入力の受信に応答して、コンピュータシステムは、1つ以上のデバイスの第1の1組及び1つ以上のデバイスの第2の1組(例えば、外部デバイスの1組)に音声メッセージを記録し、送信するためのユーザインタフェースを表示する。いくつかの実施形態では、1つ以上のデバイスの第1の1組は、1つ以上のデバイスの第2の1組とは異なる。いくつかの実施形態では、1組の外部デバイスを制御するためのユーザインタフェースは、1つ以上のデバイスの第1の1組及び1つ以上のデバイスの第2の1組に対応する複数の表現及び/又はアクセサリ制御ユーザインタフェースオブジェクト対象を表示することを含む。いくつかの実施形態では、複数のアクセサリ制御ユーザインタフェースオブジェクト対象は、1つ以上のデバイスの第1の1組に対応し、1つ以上のデバイスの第2の1組は1つ以上の選択可能なユーザインタフェースオブジェクト対象の1組である。いくつかの実施形態では、複数のアクセサリ制御ユーザインタフェースオブジェクト対象のそれぞれは、選択されると、1組の外部デバイスのそれぞれのアクセサリデバイスに、1つ以上の機能を実行させる、及び/又はそれぞれのアクセサリデバイスの状態を変更させる。いくつかの実施形態では、1組の外部デバイスは、1つ以上のデバイス(例えば、スマートスピーカ)の第1の1組又は1つ以上のデバイス(例えば、スマートスピーカ)の第2の1組にないタイプの外部電子デバイス(例えば、セルラー電話、タブレットコンピュータ)を含む。いくつかの実施形態では、外部デバイスの1組は、トップレベルの場所(又は宛先)(例えば、第1のタイプの場所)(例えば、ホーム場所、ビジネス、オフィス(トップレベルの場所にある場所(例えば、1つ以上の場所を定義する場所(例えば、サブ場所)及び/又はトップレベルの場所の場所によって定義されるエリア及び/又は周辺部内にある1つ以上の領域(又はゾーン)、場所の階層のトップレベルにある場所、1つ以上の場所(例えば、サブ位置)に(例えば、プログラムで)リンクされた場所及び/又は1つ以上の領域(又はゾーン)))に関連付けられている。いくつかの実施形態では、外部デバイスの1組は、デバイスの第1のグループ(例えば、デバイスのサブグループ)及びデバイスの第2のグループ(例えば、デバイスのサブグループ)を含む。いくつかの実施形態では、デバイスのサブグループは、トップレベルの場所のサブ場所(例えば、トップレベルの場所の境界、領域、若しくは周辺に、及び/又はトップレベルの場所に定義され、特定され、及び/又はリンクされ(例えば、プログラムでリンクされ)(例えば、ユーザによって)配置された部屋)及び/又はトップレベルの場所内(例えば、トップレベルの場所の境界、エリア、又は周辺部内及び/又は(例えば、ユーザによって)定義され、特定され、及び/又はリンクされた)のゾーン(例えば、2つ以上のサブ場所によって定義される場所)(トップレベルの場所内で(例えば、トップレベルの場所内にリビングルーム及びダイニングルームを含む娯楽ゾーン、トップレベルの場所内に2つ以上の寝室、リビングルーム、バスルームを含むパーソナルゾーン)に関連付けられる。いくつかの実施形態では、目標グループは、デバイスのサブグループに関連付けられ、デバイスのトップレベルグループではない。 The computer system (802) displays, via a display generation component, a first user interface (eg, 730) (eg, a user interface for controlling a set of external devices). The first user interface includes a first selectable user interface object target (e.g., 726) (e.g., includes a display), and selection of the first selectable user interface object target comprises a first voice. A process for recording (e.g., via a microphone in a computer system) and transmitting (e.g., , user interfaces 730, 740, and 750) and the set of external devices is a first set of one or more external devices (e.g., 616) and a second set of one or more external devices. a set (eg, 646, 648). In some embodiments, while displaying the first selectable user interface object target, the computer system receives input corresponding to selection of the first selectable user interface object target; In response to receiving input corresponding to selection of one selectable user interface object target, the computer system generates a first set of one or more devices and a second set of one or more devices ( For example, displaying a user interface for recording and sending voice messages to a set of external devices. In some embodiments, the first set of one or more devices is different than the second set of one or more devices. In some embodiments, a user interface for controlling a set of external devices includes multiple representations corresponding to a first set of one or more devices and a second set of one or more devices. and/or displaying accessory control user interface object objects. In some embodiments, the plurality of accessory control user interface object targets corresponds to a first set of one or more devices and a second set of one or more devices is one or more selectable set of user interface object objects. In some embodiments, each of the plurality of accessory control user interface object targets, when selected, causes a respective accessory device of the set of external devices to perform one or more functions and/or a respective Cause an accessory device to change state. In some embodiments, the set of external devices is connected to the first set of one or more devices (eg, smart speakers) or the second set of one or more devices (eg, smart speakers). This includes any type of external electronic device (eg, cellular phone, tablet computer). In some embodiments, the set of external devices is a top-level location (or destination) (e.g., a first type of location) (e.g., a home location, a business, an office (a location at a top-level location ( For example, one or more regions (or zones) within an area and/or perimeter defined by a location (e.g., sub-location) defining one or more locations and/or a location of a top-level location; A location at the top level of the hierarchy, a location linked (eg, programmatically) to one or more locations (eg, sub-locations) and/or associated with one or more regions (or zones)). In some embodiments, the set of external devices includes a first group of devices (eg, a subgroup of devices) and a second group of devices (eg, a subgroup of devices). In configuration, sub-groups of devices are defined, identified, and/or linked to sub-locations of a top-level location (e.g., at the boundaries, regions, or perimeters of the top-level location and/or to the top-level location). (e.g., programmatically linked) and placed (e.g., by a user)) and/or within a top-level location (e.g., within a boundary, area, or perimeter of the top-level location and/or (e.g., a user defined, identified and/or linked) (e.g. a place defined by two or more sub-places) (within a top-level place (e.g. a living room within a top-level place and an entertainment zone that includes a dining room, a personal zone that includes two or more bedrooms, a living room, and a bathroom within a top-level location.In some embodiments, target groups are subgroups of devices. Associated and not a top-level group of devices.

第1のユーザインタフェースは、第1の外部アクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象(例えば、718の1つ)(例えば、選択可能なユーザインタフェースオブジェクト対象)を含み、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択(例えば、750f1、750f2)は、第1の外部アクセサリデバイスの状態を変更する(例えば、ドアをロック又はロック解除させ、光をオン又はオフにする)ための命令を送信するプロセス(例えば、選択によって命令の送信を引き起こす)を開始する。いくつかの実施形態では、入力の受信に応答して、コンピュータシステムは、第1の外部アクセサリデバイスの状態を変更するための命令を送信するプロセス(例えば、選択によって命令の送信を引き起こす)を開始し、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の視覚的見掛けを第1の視覚的見掛けから、第1の視覚的見掛けとは異なる第2の視覚的見掛けに変更する(例えば、押圧した押された状態(又はその逆)、第1の色から第2の色に、1つ以上の差分文字(例えば、「オンからオフ」(又はその逆)))。 The first user interface includes a first accessory control user interface object target (eg, one of 718) corresponding to the first external accessory device (eg, a selectable user interface object target); Accessory control user interface object target selection (e.g., 750f1, 750f2) commands to change the state of the first external accessory device (e.g., lock or unlock doors, turn lights on or off). (e.g. selection triggers the transmission of an instruction). In some embodiments, in response to receiving the input, the computer system initiates a process (e.g., selection causes transmission of the command) to send the command to change the state of the first external accessory device. and change the visual appearance of the first accessory control user interface object target from the first visual appearance to a second visual appearance that is different from the first visual appearance (e.g., pressed pressed state (or vice versa), from a first color to a second color, one or more difference characters (eg, "on to off" (or vice versa)).

コンピュータシステムは、第1のユーザインタフェース(例えば、第1のユーザインタフェース)を表示している間に、第2のユーザインタフェース(例えば、760)を表示する要求に対応する入力(例えば、750f3)(例えば、単一のユーザ入力(例えば、1つ以上の外部デバイスの第2の1組を制御するためのユーザインタフェースにナビゲーションする選択可能なユーザインタフェースオブジェクト対象又はアイコン上のタップ入力)又は第1の選択可能なユーザインタフェースオブジェクト対象が表示されている間に受信される複数のユーザ入力)を受信する(804)(例えば、1つ以上の外部デバイスの第2の1組を制御するためのユーザインタフェース(例えば、1つ以上の外部デバイスの第1の1組を制御することなく))。いくつかの実施形態では、コンピュータシステムは、コンピュータシステムが第2のユーザインタフェースを表示するための選択可能なユーザインタフェースオブジェクト対象の選択を受信すると、第2のユーザインタフェースを表示する要求を受信する。 The computer system, while displaying a first user interface (e.g., first user interface), receives an input (e.g., 750f3) corresponding to a request to display a second user interface (e.g., 760) ( For example, a single user input (e.g., a tap input on a selectable user interface object object or icon that navigates to a user interface for controlling a second set of one or more external devices) or a first Receive 804 a plurality of user inputs received while selectable user interface objects are displayed (e.g., a user interface for controlling a second set of one or more external devices). (eg, without controlling a first set of one or more external devices). In some embodiments, the computer system receives a request to display the second user interface when the computer system receives a selection of selectable user interface object targets for displaying the second user interface.

第2のユーザインタフェースを表示する要求の受信に応答して、コンピュータシステムは、第2のユーザインタフェース(例えば、760)を表示する(806)。第2のユーザインタフェースは、第2の選択可能なユーザインタフェースオブジェクト対象(812)(例えば、776)を含み(例えば、表示することを含む)、第2の選択可能なユーザインタフェースオブジェクト対象の選択は、第2の音声メッセージを1つ以上の外部デバイスの第1の1組(例えば、図7Mの706)に送信することなく、第2の音声メッセージを1つ以上の外部デバイスの第2の1組(例えば、646、648)に記録し、送信するためのプロセス(例えば、ユーザインタフェース780a、784、及び786a)を開始する。第2のユーザインタフェースは、(例えば、1つ以上のデバイスの第1の1組に対応せずに)第2の外部アクセサリデバイス(例えば、642、646、648)に対応する第2のアクセサリ制御ユーザインタフェースオブジェクト対象(814)(例えば、768のうちの1つ)(例えば、選択可能なユーザインタフェースオブジェクト対象)を含み、第2のアクセサリ制御ユーザインタフェースオブジェクト対象の選択(例えば、750g1、750g2)は、第2の外部アクセサリデバイスの状態を変更するための命令(例えば、選択によって命令の送信を引き起こす)を送信するプロセスを開始する。いくつかの実施形態では、入力の受信に応答して、コンピュータシステムは、第2の外部アクセサリデバイスの状態を変更するための命令を送信するプロセス(例えば、選択によって命令の送信を引き起こす)を開始し、第2のアクセサリ制御ユーザインタフェースオブジェクト対象の視覚的見掛けを第1の視覚的見掛けから、第1の視覚的見掛けとは異なる第2の視覚的見掛けに変更する(例えば、押圧した押された状態(又はその逆)、第1の色から第2の色に、1つ以上の差分文字(例えば、「オンからオフ」(又はその逆)))。いくつかの実施形態では、第2のユーザインタフェースを表示する要求の受信に応答して、コンピュータシステムは、第1のユーザインタフェース及び第1のユーザインタフェースオブジェクト対象の表示を中止する。いくつかの実施形態では、第2の選択可能なユーザインタフェースオブジェクト対象は、第1の選択可能なユーザインタフェースオブジェクト対象に置き換わる。いくつかの実施形態では、第2の選択可能なユーザインタフェースオブジェクト対象は、第1の選択可能なユーザインタフェースオブジェクト対象が以前に表示された場所と同じ場所で表示される。いくつかの実施形態では、第2のユーザインタフェースは、第1のユーザインタフェースの表示に置き換わる。いくつかの実施形態では、コンピュータシステムは、第2のユーザインタフェースからの1つ以上の外部デバイスの第1の1組(例えば、アクセサリ制御ユーザインタフェースオブジェクト対象は、表示されない、1つ以上のデバイスの第1の1組のうちの1つに対応する)を制御することができない(例えば、外部デバイスを状態変更させることができない)。いくつかの実施形態では、第1のユーザインタフェースは、1つ以上の外部デバイスの第1の1組に対応する1つ以上の表現及び/又はアクセサリ制御ユーザインタフェースオブジェクト対象の1組を(1つ以上の外部デバイスの第2の1組に対応する1つ以上の表現の1組を表示することなく)表示することを含む。いくつかの実施形態では、アクセサリ制御ユーザインタフェースオブジェクト対象のそれぞれは、選択されると、それぞれのデバイスに1つ以上の機能を実行させるか、又はそれぞれのデバイスの状態を変更させる。いくつかの実施形態では、第2の選択可能なユーザインタフェースオブジェクト対象を表示している間に、コンピュータシステムは、第2の選択可能なユーザインタフェースオブジェクト対象の選択に対応する入力を受信し、第2の選択可能なユーザインタフェースオブジェクト対象の選択に対応する入力の受信に応答して、コンピュータシステムは、音声メッセージを1つ以上の外部デバイスの第1の1組に送信することなく、1つ以上の外部デバイスの第2の1組に音声メッセージを記録し、送信するためのユーザインタフェースを表示する。いくつかの実施形態では、第2の選択可能なユーザインタフェースオブジェクト対象を表示している間に、コンピュータシステムは、選択可能なユーザインタフェースオブジェクト対象を表示することを含む1つ以上の外部デバイスの第1の1組を(例えば、1つ以上の外部デバイスの第2の1組を制御することなく)制御するためのユーザインタフェースを表示する要求に対応するユーザ入力(例えば、スワイプ入力)を受信し、それは、選択されると、音声メッセージを1つ以上の外部デバイスの第2の1組に送信することなく、音声メッセージを1つ以上の外部デバイスの第1の1組に記録し、送信するためのプロセスを開始する。いくつかの実施形態では、音声メッセージは、コンピュータシステムで記録される音声を含む。いくつかの実施形態では、音声メッセージを外部デバイスに記録し、送信するプロセスは、コンピュータシステムを使用して(例えば、コンピュータシステムと通信するマイクロフォンを使用して)音声メッセージを記録することを含む。いくつかの実施形態では、音声メッセージは、コンピュータシステムのユーザの声の音声を含む。制御の1組を制御する階層的ユーザインタフェースを提供することで、各ユーザインタフェースがそれぞれの階層のノードに対応することが、デバイスの別のそれぞれの1組を制御するための別のユーザインタフェースにユーザがどのように直感的にナビゲーションすることができるかに関する視覚的フィードバックと共に、それぞれのユーザインタフェースを介して制御することができる、制御の階層のデバイスの1組に関する視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-シスインタフェースをより効率的にし、加えて、ユーザがデバイスをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In response to receiving the request to display the second user interface, the computer system displays (806) the second user interface (eg, 760). The second user interface includes (e.g., including displaying) a second selectable user interface object target (812) (e.g., 776), wherein selection of the second selectable user interface object target is , sending the second voice message to the second one of the one or more external devices without sending the second voice message to the first set of one or more external devices (eg, 706 in FIG. 7M). Initiate a process (eg, user interfaces 780a, 784, and 786a) to record and transmit a set (eg, 646, 648). The second user interface is a second accessory control corresponding to a second external accessory device (eg, 642, 646, 648) (eg, not corresponding to the first set of one or more devices) A user interface object target (814) (e.g., one of 768) includes (e.g., a selectable user interface object target), and the selection of the second accessory control user interface object target (e.g., 750g1, 750g2) is , initiates the process of sending an instruction (eg, selection causes transmission of the instruction) to change the state of the second external accessory device. In some embodiments, in response to receiving the input, the computer system initiates a process (e.g., selection causes transmission of the command) to send the command to change the state of the second external accessory device. and change the visual appearance of the second accessory control user interface object target from the first visual appearance to a second visual appearance that is different from the first visual appearance (e.g., pressed pressed state (or vice versa), from a first color to a second color, one or more difference characters (eg, "on to off" (or vice versa)). In some embodiments, in response to receiving a request to display the second user interface, the computer system ceases displaying the first user interface and the first user interface object target. In some embodiments, the second selectable user interface object target replaces the first selectable user interface object target. In some embodiments, the second selectable user interface object target is displayed at the same location where the first selectable user interface object target was previously displayed. In some embodiments, the second user interface replaces the display of the first user interface. In some embodiments, the computer system selects a first set of one or more external devices from a second user interface (e.g., accessory control user interface object targets are not displayed, one or more devices corresponding to one of the first set) cannot be controlled (eg, an external device cannot change state). In some embodiments, the first user interface displays a set of one or more representations and/or accessory control user interface object objects corresponding to a first set of one or more external devices (one displaying (without displaying) a set of one or more representations corresponding to the second set of said external devices. In some embodiments, each of the accessory control user interface object targets causes the respective device to perform one or more functions or change the state of the respective device when selected. In some embodiments, while displaying the second selectable user interface object target, the computer system receives input corresponding to selection of the second selectable user interface object target; In response to receiving input corresponding to selection of two selectable user interface object targets, the computer system, without transmitting a voice message to the first set of one or more external devices, performs one or more display a user interface for recording and sending a voice message to a second set of external devices in . In some embodiments, while displaying a second selectable user interface object target, the computer system controls a first display of one or more external devices including displaying a selectable user interface object target. receive user input (e.g., swipe input) corresponding to a request to display a user interface for controlling one set of one (e.g., without controlling a second set of one or more external devices); , which, when selected, records and transmits a voice message to a first set of one or more external devices without transmitting the voice message to a second set of one or more external devices. start the process for In some embodiments, the voice message includes voice recorded by a computer system. In some embodiments, the process of recording and transmitting the voice message to the external device includes recording the voice message using a computer system (eg, using a microphone in communication with the computer system). In some embodiments, the voice message includes the audio of the voice of the user of the computer system. By providing a hierarchical user interface for controlling one set of controls, each user interface corresponding to a node in a respective hierarchy can be assigned to another user interface for controlling another respective set of devices. Provide visual feedback to the user regarding the set of devices in the hierarchy of controls that can be controlled via their respective user interfaces, along with visual feedback regarding how the user can intuitively navigate. . Improve the usability of the computer system by providing the user with improved visual feedback (e.g., assist the user in providing appropriate input when operating/interacting with the computer system) It makes the user-system interface more efficient (by reducing user error and reducing user error), as well as reducing power usage by enabling users to use the device more quickly and efficiently. , to improve the battery life of computer systems.

いくつかの実施形態では、第1の外部アクセサリデバイス(例えば、718b)は、第2の外部アクセサリデバイス(例えば、768c)とは異なる。いくつかの実施形態では、第1の外部アクセサリデバイスは、「ホーム」グループの下にグループ化されるが、「ダイニングルーム」カテゴリ(例えば、寝室に位置する光)の一部ではなく、第2の外部アクセサリデバイスは、「ホーム」グループ、「ダイニングルーム」カテゴリ(例えば、ダイニングルームに位置する光)の両方の下にグループ化される外部デバイスである。対照的に、いくつかの実施形態では、第1の外部アクセサリデバイスは、第2の外部アクセサリデバイスと同じデバイスである(例えば、それらは、ダイニングルームに配置された同じ光であるか、又はそれらは、ダイニングルームに配置された同じスマートスピーカである)。 In some embodiments, the first external accessory device (eg, 718b) is different than the second external accessory device (eg, 768c). In some embodiments, the first external accessory device is grouped under the "Home" group, but is not part of the "Dining Room" category (e.g., a light located in the bedroom), but is the second external accessory device. are external devices that are grouped under both the "Home" group, the "Dining Room" category (eg, a light located in the dining room). In contrast, in some embodiments, the first external accessory device is the same device as the second external accessory device (eg, they are the same lights placed in the dining room, or they are is the same smart speaker placed in the dining room).

いくつかの実施形態では、第1の選択可能なユーザインタフェースオブジェクト対象(例えば、726)(例えば、第1のユーザインタフェースの一部として表示されている間)は、ディスプレイ生成構成要素を介して(例えば、ディスプレイ生成構成要素上に)、第1の場所(例えば、726及び776の場所)で表示され、第2の選択可能なユーザインタフェースオブジェクト対象(例えば776)(例えば、第2のユーザインタフェースの一部として表示されている間)は、ディスプレイ生成構成要素を介して(例えば、ディスプレイ生成構成要素上に)、第1の場所(例えば、726及び776の場所)で表示される。いくつかの実施形態では、第1のユーザインタフェースを表示している間に受信された入力は、第2の選択可能なユーザインタフェースオブジェクト対象で第1の選択可能なユーザインタフェースオブジェクト対象の表示を置き換えさせる。予め定められた条件が満たされたときに、第1の選択可能なユーザインタフェース又は第2の選択可能なユーザインタフェースオブジェクト対象を同じ場所で提供することにより、ユーザは、選択可能なユーザインタフェースオブジェクト対象の任意の異なる動作特性(例えば、デバイスのどの特定の1組が選択可能、特定の選択可能なユーザインタフェースオブジェクト対象が記録の音声メッセージを送信する)を識別することを必要とせずに、マルチキャストのための選択可能なユーザインタフェースオブジェクト対象を素早くに突き止めることができる。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, the first selectable user interface object target (eg, 726) (eg, while displayed as part of the first user interface) is via a display generation component ( on a display generating component), displayed at a first location (e.g., locations 726 and 776), and a second selectable user interface object target (e.g., 776) (e.g., of a second user interface). while being displayed as part of it) is displayed at a first location (eg, locations 726 and 776) via the display generating component (eg, on the display generating component). In some embodiments, input received while displaying the first user interface replaces display of the first selectable user interface object target with a second selectable user interface object target. Let By co-presenting the first selectable user interface object or the second selectable user interface object object when a predetermined condition is met, the user can select the selectable user interface object object. (e.g., which particular set of devices is selectable, which particular selectable user interface object object transmits the voice message of the record) of multicast can quickly locate selectable user interface object targets for improve the usability of computer systems by providing users with improved visual feedback (e.g., assisting users in providing appropriate input when operating/interacting with devices; reduce power usage by making the user-system interface more efficient (by reducing user error) as well as enabling users to use the computer system more quickly and efficiently; Improve computer system battery life.

いくつかの実施形態では、第1の外部アクセサリデバイス(例えば、646、648)(例えば、スマートスピーカであって、第1のアクセサリ制御ユーザインタフェースオブジェクト対象を使用して音楽の再生が構成することができるもの)が1組の外部デバイスに含まれる(例えば、第1の外部アクセサリデバイスは第1のユーザインタフェースから構成可能で、音声(コンピュータシステムで記録された)は第1の選択可能なユーザインタフェースオブジェクト対象を使用して第1の外部アクセサリデバイスに送信される)。いくつかの実施形態では、第1のユーザインタフェースは、第3の外部アクセサリデバイス(例えば、642)に対応する第3のアクセサリ制御ユーザインタフェースオブジェクト対象(例えば、718b)(例えば、選択可能なユーザインタフェースオブジェクト対象)を含む。いくつかの実施形態では、第3のアクセサリ制御ユーザインタフェースオブジェクト対象の選択は、第3の外部アクセサリデバイスの状態を変更する(例えば、ドアをロック又はロック解除させ、光をオン又はオフにする)命令を送信する(例えば、選択によって命令の送信を引き起こす)プロセスを開始する。いくつかの実施形態では、第3の外部アクセサリデバイス(例えば、642)は、1組の外部デバイスに含まれず、第1の選択可能なユーザインタフェースオブジェクト対象(例えば、776)の選択は、第1の音声メッセージを第3の外部アクセサリデバイス(例えば、7Fの706)に送信する(及び/又は記録する)ためのプロセスを開始しない。いくつかの実施形態では、第1のユーザインタフェースは、制御され得る(例えば、オン/オフにされる)が、第1の音声メッセージが送信されない(例えば、外部アクセサリデバイスが、音声メッセージを再生するためのスピーカを有さないため)いくつかの外部アクセサリデバイスのアクセサリ制御ユーザインタフェースオブジェクト対象を含み、及び第1のユーザインタフェースは、制御され得る(例えば、オン/オフにされる)、かつ第1の音声メッセージが送信される(例えば、外部アクセサリデバイスが音声メッセージの再生のためのスピーカを有するため)いくつかの外部アクセサリデバイスのアクセサリ制御ユーザインタフェースオブジェクト対象を含む。いくつかの実施形態では、第2のユーザインタフェースは、制御され得る(例えば、オン/オフにされる)が、第2の音声メッセージが送信されない(例えば、外部アクセサリデバイスが、音声メッセージを再生するためのスピーカを有さないため)いくつかの外部アクセサリデバイスのアクセサリ制御ユーザインタフェースオブジェクト対象を含み、及び第2のユーザインタフェースは、制御され得る(例えば、オン/オフにされる)、かつ第2の音声メッセージが送信される(例えば、外部アクセサリデバイスが音声メッセージの再生のためのスピーカを有するため)いくつかの外部アクセサリデバイスのアクセサリ制御ユーザインタフェースオブジェクト対象を含む。いくつかの実施形態では、1つ以上の外部デバイスの第1の1組(例えば、音声メッセージが送信される寝室グループのデバイス)は、第1の外部アクセサリデバイス(例えば、音声メッセージが送信されない寝室グループの光)を含まず、及び外部デバイスの第2の1組(例えば、音声メッセージが送信されるダイニングルームのデバイス)は、第2の外部アクセサリデバイス(例えば、音声メッセージが送信されないダイニングルームグループの光)を含まない。したがって、いくつかの実施形態では、音声メッセージは、アクセサリ制御ユーザインタフェースオブジェクト対象を使用して制御することができる全てのデバイスに必ずしも送信されず、それは、選択されると、それぞれのアクセサリデバイスに1つ以上の機能を実行させる、及び/又はそれぞれのアクセサリデバイスの状態を変更させる。いくつかの実施形態では、それぞれのアクセサリ制御ユーザインタフェースオブジェクト対象を使用して(1つ以上の機能を実行するため、及び/又はそれぞれのアクセサリデバイスの状態を変更するために)制御することができる外部デバイスは、1組の外部デバイス(例えば、外部デバイスの第1又は第2の1組)に含まれ、したがって、音声メッセージをその外部デバイスに送信することができ、外部デバイスを別個に制御することができる。 In some embodiments, a first external accessory device (e.g., 646, 648) (e.g., a smart speaker) may be configured to play music using the first accessory control user interface object target. can be included in a set of external devices (e.g., a first external accessory device can be configured from a first user interface, audio (recorded by a computer system) can be a first selectable user interface transmitted to the first external accessory device using the object target). In some embodiments, the first user interface is a third accessory control user interface object target (eg, 718b) corresponding to a third external accessory device (eg, 642) (eg, a selectable user interface object). In some embodiments, selection of the third accessory control user interface object target changes the state of the third external accessory device (e.g., locks or unlocks doors, turns lights on or off). Initiate the process of sending an order (eg, selection triggering the sending of an order). In some embodiments, the third external accessory device (eg, 642) is not included in the set of external devices and selection of the first selectable user interface object target (eg, 776) is to a third external accessory device (eg, 706 at 7F). In some embodiments, the first user interface can be controlled (eg, turned on/off) but the first voice message is not sent (eg, an external accessory device plays the voice message). includes an accessory control user interface object object for some external accessory device (because it does not have a speaker for the device), and the first user interface can be controlled (e.g., turned on/off) and the first voice messages are sent (eg, because the external accessory device has a speaker for playback of the voice message). In some embodiments, the second user interface can be controlled (eg, turned on/off), but the second voice message is not sent (eg, an external accessory device plays the voice message). includes an accessory control user interface object target for some external accessory devices (because they do not have speakers for the device), and a second user interface can be controlled (e.g., turned on/off) and a second voice messages are sent (eg, because the external accessory device has a speaker for playback of the voice message). In some embodiments, a first set of one or more external devices (e.g., bedroom group devices to which voice messages are sent) are connected to a first external accessory device (e.g., bedroom group devices to which voice messages are not sent). group lights), and a second set of external devices (e.g., dining room devices to which voice messages are sent) includes a second external accessory device (e.g., dining room group lights to which voice messages are not sent). light). Therefore, in some embodiments, the voice message is not necessarily sent to all devices that can be controlled using the accessory control user interface object object; it is sent to each accessory device once it is selected. Cause one or more functions to be performed and/or change the state of the respective accessory device. In some embodiments, each accessory control user interface object target can be used to control (to perform one or more functions and/or change the state of the respective accessory device) The external device is included in a set of external devices (e.g., a first or second set of external devices), so that voice messages can be sent to the external device and separately control the external device be able to.

いくつかの実施形態では、第1のユーザインタフェースは、トップレベルの場所(例えば、602)(例えば、構造、ホーム)に対応し、第2のユーザインタフェースは、第1のタイプ(例えば、602a~602e)(例えば、構造の部屋、家のダイニングルーム)の第1のサブ場所(例えば、602d)に対応する。いくつかの実施形態では、1つ以上の外部デバイスの第2の1組(例えば、646、648)は、第1のサブ場所(例えば、602d)に対応する(例えば、1つ以上の外部デバイスの第2の1組は、第1のタイプのサブ場所に指定されている)。いくつかの実施形態では、(例えば、任意の)1つ以上の外部デバイスの第2の1組(例えば、646、648)は、第1のサブ場所に対応する1つ以上の外部デバイス(例えば、602a~602e)の第2の1組に基づいて、第1のタイプ(例えば、構造の任意の他の部屋)の第2のサブ場所(例えば、602a、602b、602c、又は602e)(例えば、第1のサブ場所以外の任意のサブ場所)に対応するように作ることができない。いくつかの実施形態では、第1のユーザインタフェースは、トップレベルの場所に対応し、第2のユーザインタフェースは、トップレベルの場所のサブ場所(例えば、ホームの部屋)に対応する。いくつかの実施形態では、第1の部屋及び第2の部屋は、ゾーン(例えば、一緒にグループ化された部屋の集合)の一部である。いくつかの実施形態では、1つ以上の外部デバイスの第2の1組は、第2のユーザインタフェースが対応する部屋に位置する(例えば、ユーザによって)識別されるデバイスである。 In some embodiments, a first user interface corresponds to a top level location (eg, 602) (eg, structure, home) and a second user interface corresponds to a first type (eg, 602a-602a). 602e) (eg, structure room, home dining room) corresponds to the first sub-location (eg, 602d). In some embodiments, the second set of one or more external devices (eg, 646, 648) corresponds to the first sub-location (eg, 602d) (eg, one or more external devices are designated as sub-locations of the first type). In some embodiments, the second set (eg, 646, 648) of one or more external devices (eg, any) is one or more external devices (eg, , 602a-602e), a second sub-location (eg, 602a, 602b, 602c, or 602e) of the first type (eg, any other room of the structure) (eg, , any sub-location other than the first sub-location). In some embodiments, the first user interface corresponds to a top level place and the second user interface corresponds to a sub-place (eg, a room in a home) of the top level place. In some embodiments, the first room and the second room are part of a zone (eg, a collection of rooms grouped together). In some embodiments, the second set of one or more external devices are devices identified (eg, by the user) located in the room to which the second user interface corresponds.

いくつかの実施形態では、第1のユーザインタフェースは、トップレベルの場所(例えば、構造、ホーム)に対応し、第2のユーザインタフェースは、第1のタイプ(例えば、602a~602e)(例えば、複数の部屋)の複数(例えば、602a~602e)のサブ場所に対応する第2のタイプ(娯楽ゾーン(例えば、602d及び602e))(例えば、第1のゾーン、メインフロア)の第3のサブ場所に対応する。いくつかの実施形態では、1つ以上の外部デバイスの第2の1組は、第1のタイプの複数のサブ場所(例えば、602a~602e)に含まれる1つ以上の外部デバイスの第2の1組に基づいて、第3のサブ場所に対応する(例えば、第1の部屋(例えば、ホームのダイニングルーム)及び第2の部屋(例えば、ホームの寝室)を含む、構造体の複数の部屋)。いくつかの実施形態では、第1のユーザインタフェースは、トップレベルの場所に対応し、第2のユーザインタフェースは、トップレベルの場所のサブ場所(例えば、ホームの複数の部屋)に対応する。いくつかの実施形態では、1つ以上の外部デバイスの第2の1組は、第1の部屋に指定された少なくとも1つのデバイスと第2の部屋に指定された少なくとも1つのデバイスとを含む。いくつかの実施形態では、トップレベルの場所は、第3のサブ場所が対応しない少なくとも1つのデバイスに対応する(例えば、ホームは、第3のサブ場所内に含まれないいくつかのデバイスを含む)。 In some embodiments, the first user interface corresponds to a top-level location (eg, structure, home) and the second user interface corresponds to a first type (eg, 602a-602e) (eg, A third sub-location of a second type (entertainment zones (eg, 602d and 602e)) (eg, first zone, main floor) corresponding to multiple (eg, 602a-602e) sub-locations (eg, multiple rooms). correspond to the location. In some embodiments, the second set of one or more external devices is a second set of one or more external devices included in the plurality of sub-locations (eg, 602a-602e) of the first type. Based on the set, multiple rooms of the structure corresponding to a third sub-location (e.g., including a first room (e.g., dining room of the home) and a second room (e.g., bedroom of the home) ). In some embodiments, the first user interface corresponds to a top-level place and the second user interface corresponds to sub-places (eg, multiple rooms of a home) of the top-level place. In some embodiments, the second set of one or more external devices includes at least one device designated for the first room and at least one device designated for the second room. In some embodiments, the top-level location corresponds to at least one device that the third sub-location does not correspond to (e.g., Home includes some devices not contained within the third sub-location ).

いくつかの実施形態では、第2の外部アクセサリデバイスは、第2のタイプの第3のサブ場所(例えば、娯楽ゾーン(例えば、602d及び602e))(例えば、第1のゾーン)に関連付けられる(例えば、対応する)。いくつかの実施形態では、第2の外部アクセサリデバイス(例えば、646、648)はまた、第3のサブ場所とは異なる第2のタイプ(例えば、娯楽ゾーン(例えば、602d及び602e))の第4のサブ場所(例えば、第2のゾーン)に関連付けられる(例えば、対応する)。いくつかの実施形態では、第2のゾーンは、サブ場所(例えば、ホームの複数の部屋)である。いくつかの実施形態では、第2のゾーンは、第1のゾーンに関連付けられていない外部アクセサリデバイスと関連付けられる。いくつかの実施形態では、コンピュータシステムは、様々なゾーンにメッセージを記録し、送信するためのプロセスを開始することができる。第1のゾーン及び第2のゾーンは、デバイスの異なる1組に対応することができ、そのうちのいくつかは第1のゾーン及び第2のゾーンの両方に対応し、そのうちのいくつかは、第1のゾーン又は第2のゾーンのうちの1つのみに対応する。 In some embodiments, the second external accessory device is associated with a third sub-location of the second type (eg, entertainment zones (eg, 602d and 602e)) (eg, the first zone) ( corresponding). In some embodiments, the second external accessory device (e.g., 646, 648) is also a third sub-location of a second type (e.g., entertainment zones (e.g., 602d and 602e)) that is different than the third sub-location. 4 sub-locations (eg, second zone). In some embodiments, the second zone is a sub-location (eg, multiple rooms of a home). In some embodiments, the second zone is associated with an external accessory device not associated with the first zone. In some embodiments, the computer system can initiate processes for recording and sending messages to various zones. The first zone and the second zone can correspond to different sets of devices, some of which correspond to both the first zone and the second zone, some of which correspond to the first It corresponds to only one of the 1 zone or the 2nd zone.

いくつかの実施形態では、1つ以上の外部デバイスの第2の1組(例えば、646、648)は、第1の場所(例えば、602d)(例えば、部屋、サブ場所、ゾーン)に関連付けられたものであって、第2の音声メッセージを1つ以上の外部デバイスの第1の1組に送信することなく、第2の音声メッセージを1つ以上の外部デバイスの第2の1組に記録し、送信するためのプロセスは、第1の場所(例えば、782)(例えば、音声メッセージが送信される部屋又はゾーンの名前を指定する文字)の示唆(例えば、文字示唆、グラフィカル示唆)を表示することを含む。いくつかの実施形態では、音声メッセージを記録し、送信するためのプロセスは、それぞれの音声メッセージが送信される外部デバイスに対応する場所の示唆を表示することを含む。いくつかの実施形態では、第1のユーザインタフェースは、トップレベルの場所(例えば、ホームなどの構造)に対応し、第2のユーザインタフェースは、トップレベルの場所のサブ場所(例えば、ホームの部屋、ホームのゾーン)に対応する。いくつかの実施形態では、第2のユーザインタフェースを表示すると、コンピュータシステムは、第2の選択可能なユーザインタフェースオブジェクト対象の選択(例えば、タップオン、押圧、及び保持)を検出する。いくつかの実施形態では、第2の選択可能なユーザインタフェースオブジェクト対象の選択の検出に応答して、コンピュータシステムは、記録ユーザインタフェースオブジェクト対象(例えば、選択可能な記録ボタン)であって、記録ユーザインタフェースの選択(例えば、タップ、押圧、及び保持)が、コンピュータシステムによって検出された音声を記録することによって、音声メッセージの記録を生じさせるもの、及びサブ場所(例えば、音声メッセージが送信される部屋又はゾーンの名前を指定する文字)の示唆(例えば、文字示唆、グラフィカル示唆)を同時に含む記録ユーザインタフェースを(例えば、第2のユーザインタフェースの全て又は一部を置き換えることによって)表示する。いくつかの実施形態では、第2のユーザインタフェースは、サブ場所の示唆を含む。音声メッセージがマルチキャストされることが意図されているデバイスのグループに関連付けられた場所の示唆を表示することにより、ユーザに、音声メッセージを記録し、送信するためのプロセスの状態に関する視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, a second set of one or more external devices (eg, 646, 648) is associated with the first location (eg, 602d) (eg, room, sublocation, zone). recording the second voice message to the second set of one or more external devices without transmitting the second voice message to the first set of one or more external devices and the process for sending displays an indication (e.g., textual indication, graphical indication) of the first location (e.g., 782) (e.g., characters designating the name of the room or zone in which the voice message is to be sent) including doing In some embodiments, the process for recording and sending voice messages includes displaying a corresponding location indication to the external device to which each voice message is to be sent. In some embodiments, the first user interface corresponds to a top-level place (e.g., a structure such as Home) and the second user interface corresponds to a sub-place of the top-level place (e.g., a room in Home). , home zone). In some embodiments, upon displaying the second user interface, the computer system detects selection (eg, tapping on, pressing and holding) of a second selectable user interface object target. In some embodiments, in response to detecting selection of a second selectable user interface object target, the computer system selects a recording user interface object target (e.g., a selectable recording button) and a recording user Interface selection (e.g., tapping, pressing, and holding) causes recording of voice messages by recording sounds detected by the computer system, and sub-locations (e.g., rooms in which voice messages are sent). (eg, by replacing all or part of the second user interface) simultaneously with suggestions (eg, textual suggestions, graphical suggestions). In some embodiments, the second user interface includes sub-location suggestions. Provides users with visual feedback on the status of the process for recording and transmitting voice messages by displaying location suggestions associated with groups of devices to which voice messages are intended to be multicast. do. improve the usability of computer systems by providing users with improved visual feedback (e.g., assisting users in providing appropriate input when operating/interacting with devices; reduce power usage by making the user-system interface more efficient (by reducing user error) as well as enabling users to use the computer system more quickly and efficiently; Improve computer system battery life.

いくつかの実施形態では、音声メッセージを外部デバイスに記録し、送信するためのプロセスを開始することの一部として、コンピュータシステムは、自動的に(例えば、音声の記録を開始する要求に対応するユーザ入力を介在させることなく)、新しい音声メッセージの記録を行い、記録されている音声の動的示唆(例えば、744a)を含む記録ユーザインタフェース(例えば、741)を表示する。 In some embodiments, as part of initiating the process for recording and transmitting a voice message to an external device, the computer system automatically responds to requests to initiate voice recording (e.g., Record a new voice message (without intervening user input) and display a recording user interface (eg, 741) that includes dynamic suggestions (eg, 744a) of the voice being recorded.

いくつかの実施形態では、コンピュータシステムは、記録ユーザインタフェースオブジェクト対象の選択(例えば、タップ、押圧、及び保持)を検出する。記録ユーザインタフェースオブジェクト対象の選択の検出に応答して、コンピュータシステムは、音声メッセージを記録する。音声メッセージを記録した後(及び音声メッセージを送信する前に)、コンピュータシステムは、メッセージが送信される外部デバイスを変更するオプションを提供する。いくつかの実施形態では、コンピュータシステムは、ドロップダウンアフォーダンスのアクティブ化を受信し、それに応じて、1つ以上のサブ場所(それぞれは、それぞれの外部デバイスの1組に対応する)を表示する。コンピュータシステムは、1つ以上のサブ場所のうちの1つの選択及び音声メッセージを送信する確認を受信する。それに応じて、コンピュータシステムは、第2のユーザインタフェースに対応する1つ以上の外部デバイスの第2の1組ではなく、選択されたサブ場所に対応する外部デバイスのそれぞれの1組に音声メッセージを送信する。 In some embodiments, the computer system detects selections (eg, taps, presses, and holds) of recorded user interface object targets. In response to detecting selection of the record user interface object subject, the computer system records the voice message. After recording the voice message (and before sending the voice message), the computer system offers the option of changing the external device to which the message is sent. In some embodiments, the computer system receives activation of a dropdown affordance and, in response, displays one or more sub-locations (each corresponding to a respective set of external devices). A computer system receives a selection of one of the one or more sublocations and a confirmation to send the voice message. In response, the computer system sends the voice message to each one of the one or more external devices corresponding to the selected sub-location rather than to the second set of one or more external devices corresponding to the second user interface. Send.

いくつかの実施形態では、1組の外部デバイスは、パーソナルモバイル電子装置(例えば、604、634、684)(例えば、スマートフォン、携帯電話、携帯時計)を含む。いくつかの実施形態では、パーソナルモバイル電子装置は、1つ以上のデバイスの第1の1組に含まれず、1つ以上の外部デバイスの第2の1組に含まれない。いくつかの実施形態では、パーソナルモバイル電子装置は、トップレベルの場所の任意のサブ場所に全く指定されないが、トップレベルの場所のメンバーである。したがって、いくつかの実施形態では、第1の選択可能なユーザインタフェースオブジェクト対象を選択することにより、パーソナルモバイル電子装置(及び、トップレベルの場所のメンバーである任意の他のパーソナルモバイル電子装置)を含む、1組の外部デバイスに音声メッセージを記録し、送信するプロセスが開始される。 In some embodiments, the set of external devices includes personal mobile electronic devices (eg, 604, 634, 684) (eg, smart phones, cell phones, pocket watches). In some embodiments, personal mobile electronic devices are not included in the first set of one or more devices and are not included in the second set of one or more external devices. In some embodiments, the personal mobile electronic device is never assigned to any sub-location of the top-level location, but is a member of the top-level location. Thus, in some embodiments, selecting the first selectable user interface object target will cause the personal mobile electronic device (and any other personal mobile electronic device that is a member of the top-level place) to A process is initiated to record and send a voice message to a set of external devices, including:

いくつかの実施形態では、1つ以上の外部デバイスの第2の1組は、パーソナルモバイル電子装置(例えば、604、634、684)(例えば、スマートフォン、携帯電話、携帯時計)を含まない。いくつかの実施形態では、パーソナルモバイル電子装置は、1つ以上のデバイスの第1の1組に含まれず、1つ以上のデバイスの第2の1組に含まれない。いくつかの実施形態では、1組の外部デバイスは、パーソナルモバイル電子装置を含み、したがって、第1のユーザインタフェースから送信された音声メッセージは、パーソナルモバイル電子装置(及び、任意選択的に、ホームの一部である他のモバイル機器)に送信される。いくつかの実施形態では、第2のユーザインタフェース(又はサブ場所に対応する任意のユーザインタフェース)から送信された音声メッセージは、パーソナルモバイル電子装置に送信されない(及び、任意選択的に、ホームの一部である他のモバイル機器にも送信されない)。いくつかの実施形態では、コンピュータシステムは、パーソナルモバイル電子装置をトップレベルの場所の任意のサブ場所に指定することを拒否するが、パーソナルモバイル電子装置をトップレベルの場所に指定することを可能にする。したがって、いくつかの実施形態では、第2の選択可能なユーザインタフェースオブジェクト対象を選択することにより、パーソナルモバイル電子装置(又は、トップレベルの場所のメンバーである任意の他のパーソナルモバイル電子装置)を含まない、1つ以上のデバイスの第2の1組に音声メッセージを記録し、送信するプロセスが開始される。 In some embodiments, the second set of one or more external devices does not include a personal mobile electronic device (eg, 604, 634, 684) (eg, smart phone, cell phone, watch). In some embodiments, personal mobile electronic devices are not included in the first set of one or more devices and are not included in the second set of one or more devices. In some embodiments, the set of external devices includes a personal mobile electronic device, so voice messages sent from the first user interface are sent to the personal mobile electronic device (and optionally the home other mobile devices that it is part of). In some embodiments, voice messages sent from the second user interface (or any user interface corresponding to a sub-location) are not sent to the personal mobile electronic device (and optionally the home one). is not sent to other mobile devices that are part of it). In some embodiments, the computer system denies assigning a personal mobile electronic device to any sub-location of a top-level location, but allows a personal mobile electronic device to be assigned to a top-level location. do. Thus, in some embodiments, selecting the second selectable user interface object target will cause the personal mobile electronic device (or any other personal mobile electronic device that is a member of the top-level place) to A process of recording and transmitting a voice message to a second set of one or more devices, which is not included, is initiated.

いくつかの実施形態では、コンピュータシステムは、第2のユーザインタフェースを表示した後に、入力(例えば、750q)(例えば、ユーザ入力、設定ユーザインタフェース上の入力)を受信し、1つ以上の外部デバイスの第2の1組(例えば、638)に音声メッセージを送信することを無効にする。いくつかの実施形態では、音声メッセージを1つ以上の外部デバイスの第2の1組に送信することを無効にするための入力の受信に応答して、コンピュータシステムは、第1の選択可能なユーザインタフェースオブジェクト対象(例えば、726)の選択を介し(例えば、第1の選択可能なユーザインタフェースオブジェクト対象の選択を介して、1つ以上の外部デバイスの第1の1組への音声メッセージの送信を無効にすることなく)、及び第2の選択可能なユーザインタフェースオブジェクト対象(例えば、776)の選択を介して1つ以上の外部デバイスの第2の1組に音声メッセージを送信することを無効にする(例えば、768a)。いくつかの実施形態では、1つ以上の外部デバイスの第2の1組への音声メッセージの送信を無効にした後、第1のユーザインタフェースへナビゲートし、第1の選択可能なユーザインタフェースオブジェクト対象の選択を受信することにより、音声メッセージを1つ以上の外部デバイスの第2の1組に送信することなく、1つ以上の外部デバイスの第1の1組に音声メッセージを記録し、送信するプロセスが開始される。いくつかの実施形態では、1つ以上の外部デバイスの第2の1組に音声メッセージを送信することを無効にするための入力の受信に応答して、コンピュータシステムは、1つ以上の外部デバイスの第2の1組を外部デバイスの1組から除去する。いくつかの実施形態では、1つ以上の外部デバイスの第2の1組への音声メッセージの送信を無効にした後に、第2のユーザインタフェースへナビゲートし、第2の選択可能なユーザインタフェースオブジェクト対象の選択を受信することで、音声メッセージを任意のデバイスに記録し、送信するプロセスは開始されない。いくつかの実施形態では、1つ以上の外部デバイスの第2の1組への音声メッセージの送信を無効にした後、第2のユーザインタフェースは、第2の選択可能なユーザインタフェースオブジェクト対象を含まない(又は、ユーザインタフェースオブジェクト対象の非選択可能/無効化バージョンを含む)、それにより、音声メッセージを1つ以上の外部デバイスの第2の1組に記録し、送信するプロセスを開始することができない。 In some embodiments, after displaying the second user interface, the computer system receives input (e.g., 750q) (e.g., user input, input on the settings user interface) and one or more external devices. disables sending voice messages to the second set (eg, 638) of . In some embodiments, in response to receiving input to disable sending voice messages to a second set of one or more external devices, the computer system selects a first selectable Sending a voice message to a first set of one or more external devices via selection of a user interface object target (e.g., 726) (e.g., via selection of a first selectable user interface object target) ), and sending voice messages to a second set of one or more external devices via selection of a second selectable user interface object target (e.g., 776). (eg 768a). In some embodiments, after disabling the transmission of voice messages to the second set of one or more external devices, navigating to the first user interface and selecting the first selectable user interface object Recording and transmitting a voice message to a first set of one or more external devices without transmitting the voice message to a second set of one or more external devices by receiving a selection of targets process is started. In some embodiments, in response to receiving input to disable sending voice messages to a second set of one or more external devices, the computer system causes the one or more external devices to from the set of external devices. In some embodiments, after disabling transmission of voice messages to a second set of one or more external devices, navigating to a second user interface and selecting a second selectable user interface object Receiving the subject selection does not initiate the process of recording and sending a voice message to any device. In some embodiments, after disabling transmission of voice messages to the second set of one or more external devices, the second user interface includes a second selectable user interface object target. (or including a non-selectable/disabled version of the user interface object object), thereby initiating the process of recording and transmitting voice messages to a second set of one or more external devices. Can not.

いくつかの実施形態では、第1のユーザインタフェースは、トップレベルの場所(例えば、602)(例えば、ホームなどの構造)に対応し、第2のユーザインタフェースは、トップレベルの場所(例えば、602)のサブ場所(例えば、602a~602d)(例えば、ホームの部屋、ホームのゾーン)に対応する。いくつかの実施形態では、コンピュータシステムは、(例えば、第1のユーザインタフェースを表示しておらず、第2のユーザインタフェースを表示していない間)、コンピュータシステム(例えば、コンピュータシステムのマイクロフォン)と通信するマイクロフォンで、デジタルアシスタントの自然言語要求を含むオーディオ入力(例えば、792a~792e)を受信し(808)、オーディオ入力は、音声メッセージ(例えば、「マルチキャスト」という用語を含む)、場所識別子(例えば、トップレベルの場所、サブ場所)、及び音声メッセージ(例えば、音声メッセージを送信するプロセスを開始するための命令の後に受信される、及び/又は場所の識別子の後に受信される)を含む。いくつかの実施形態では、場所識別子がトップレベルの場所(例えば、782a)に対応するとの判定に従って、コンピュータシステムは、双方向音声通信チャネルを確立することなく(全二重音声通信チャネルを確立することなく)、音声メッセージを、1つ以上の外部デバイスの第1の1組及び1つ以上の外部デバイスの第2の1組を含む、外部デバイスの1組での再生のため、外部デバイスの1組の任意のデバイスに送信する(810)(例えば、マルチキャスト)。いくつかの実施形態では、場所識別子がサブ場所(例えば、792b、792c)に対応するとの判定に従って、コンピュータシステムは、1つ以上の外部デバイスの第2の1組で再生し、1つ以上の外部デバイスの第1の1組で再生しないために、外部デバイスの1組の任意のデバイスとの全二重音声通信チャネルを確立することなく、音声メッセージを送信する(812)(例えば、マルチキャスト)。いくつかの実施形態では、コンピュータシステムは、リモート装置(例えば、サービス、外部デバイスの1組の外部デバイス)が、それぞれの外部デバイスに対応する外部デバイスに音声メッセージを分配することができるように、音声メッセージと共に場所識別子を送信する。 In some embodiments, the first user interface corresponds to a top-level place (eg, 602) (eg, a structure such as Home) and the second user interface corresponds to the top-level place (eg, 602 ) (eg, 602a-602d) (eg, Home Room, Home Zone). In some embodiments, the computer system (e.g., while not displaying the first user interface and not displaying the second user interface) communicates with the computer system (e.g., the computer system's microphone). At the communicating microphone, audio input (e.g., 792a-792e) including natural language requests of the digital assistant is received (808), where the audio input includes voice messages (e.g., including the term "multicast"), location identifiers (e.g., top-level location, sub-location), and voice messages (eg, received after an instruction to initiate the process of sending a voice message and/or received after a location identifier). In some embodiments, upon determining that the location identifier corresponds to a top-level location (eg, 782a), the computer system establishes a full-duplex voice communication channel without establishing a two-way voice communication channel (e.g., 782a). external devices for playback on a set of external devices, including a first set of one or more external devices and a second set of one or more external devices. Send 810 to a set of arbitrary devices (eg, multicast). In some embodiments, upon determining that the location identifier corresponds to a sub-location (eg, 792b, 792c), the computer system plays on a second set of one or more external devices, Transmit 812 a voice message (eg, multicast) without establishing a full-duplex voice communication channel with any device in the set of external devices in order not to play it back on the first set of external devices. . In some embodiments, the computer system enables a remote device (e.g., a service, a set of external devices) to distribute voice messages to external devices corresponding to each external device. Send the location identifier with the voice message.

いくつかの実施形態では、外部デバイスに音声メッセージを記録し、送信するためのプロセスを開始することの一部が含まれるときに、コンピュータは、記録ユーザインタフェースオブジェクト対象(例えば、736)(例えば、選択可能な記録ボタン)であって、記録ユーザインタフェースオブジェクト対象の選択(例えば、750c)(例えば、タップしてから、音声メッセージが完了したら端部を押圧する、音声メッセージを発声している間に押圧して保持する、タップして、コンピュータシステムが音声メッセージの端部を識別することを可能にする)が、コンピュータシステムによって検出された音声を記録することによって、音声メッセージの記録を生じさせるもの、及び送信ユーザインタフェースオブジェクト対象(例えば、756)(例えば、選択可能な送信ボタン)であって、第2のユーザインタフェースオブジェクト対象の選択(例えば、750e)(例えば、タップ)が、コンピュータシステムに、外部デバイスに音声メッセージを送信させるものを同時に含む、記録ユーザインタフェース(例えば、730、740、750)を(例えば、第2のユーザインタフェースの全て又は一部を置き換えることによって)表示する。いくつかの実施形態では、記録ユーザインタフェースはまた、音声メッセージが送信される外部デバイスに対応する、場所(例えば、トップレベルの場所、サブ場所、音声メッセージが送信される部屋又はゾーンの名前を指定する文字)の示唆(例えば、文字示唆、グラフィカル示唆)を同時に含む。 In some embodiments, when part of initiating a process for recording and transmitting a voice message to an external device is included, the computer directs the recording user interface object target (eg, 736) (eg, selectable record button) to select a recording user interface object target (e.g., 750c) (e.g., tap and then press the end when the voice message is complete; while speaking the voice message); (press and hold, tap to allow the computer system to identify the end of the voice message) causes recording of the voice message by recording the sound detected by the computer system , and a send user interface object target (e.g., 756) (e.g., selectable send button), wherein selection of a second user interface object target (e.g., 750e) (e.g., tap) causes the computer system to Display (eg, by replacing all or part of the second user interface) a recording user interface (eg, 730, 740, 750) that also includes one that causes an external device to send a voice message. In some embodiments, the recording user interface also specifies the name of the location (e.g., top-level location, sub-location, room or zone where the voice message is sent) corresponding to the external device to which the voice message is sent. (e.g., textual suggestion, graphical suggestion) at the same time.

いくつかの実施形態では、コンピュータシステムは、マイクロフォンを含む1つ以上の入力デバイスと通信する。いくつかの実施形態では、第1の音声メッセージを1組の外部デバイスに記録し、送信するためのプロセス(例えば、ユーザインタフェース730、740、750)の一部として、コンピュータシステムは、マイクロフォンを介して、第2のオーディオ入力を受信する。いくつかの実施形態では、コンピュータシステムは、第1の音声メッセージを1組の外部デバイスに送信するものであって、第1の音声メッセージは、第2のオーディオ入力(例えば、の記録を含む)に基づく。 In some embodiments, the computer system communicates with one or more input devices including microphones. In some embodiments, as part of the process (e.g., user interface 730, 740, 750) for recording and transmitting the first voice message to a set of external devices, the computer system via a microphone. to receive a second audio input. In some embodiments, the computer system sends a first voice message to a set of external devices, the first voice message including a recording of the second audio input (eg, based on.

方法800(例えば、図8A~8B)に関して上述したプロセスの詳細は、後述する方法にも同様に当てはまることに留意されたい。例えば、方法800は、任意選択的に、方法1000及び1200に関して後述する様々な方法の特性のうちの任意の1つ以上を含む。例えば、コンピュータシステムは、同じシステムであってもよい。別の例では、方法800で送信された音声メッセージは、1000で受信したメディアとすることができる。別の例では、方法1200で送信された音声入力は、方法1000で受信したメディアと同じであり得る。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the process details described above with respect to method 800 (eg, FIGS. 8A-8B) apply equally to the methods described below. For example, method 800 optionally includes any one or more of the various method features described below with respect to methods 1000 and 1200 . For example, the computer systems may be the same system. In another example, the voice message sent in method 800 can be media received in 1000 . In another example, the audio input sent in method 1200 may be the same media received in method 1000 . For the sake of brevity, these details are not repeated below.

図9A~9Xは、いくつかの実施形態に係る、通知を表示するための例示的なデバイス及び例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図10のプロセスを含む後述のプロセスを例示するために使用される。 9A-9X illustrate exemplary devices and exemplary user interfaces for displaying notifications, according to some embodiments. The user interfaces of these figures are used to illustrate the processes described below, including the process of FIG.

「マルチキャストメッセージ」及び/又は「音声マルチキャストメッセージ」というフレーズは、図7A~7AH、図8A~8B、図11A~11F、及び図12に記載されているのと類似の技術を使用して、デバイスから送信されるマルチキャストメッセージを指すために、本明細書では、図9A~9Xに関して概して使用される。しかしながら、本明細書で使用するとき、マルチキャストメッセージ及び/又は音声マルチキャストメッセージは、必ずしもデバイス700の他の特徴を使用して送信されるマルチキャスト通信を含むことを意図するものではない。 The phrases "multicast message" and/or "audio multicast message" are used to describe a device, using techniques similar to those described in FIGS. is generally used herein with respect to FIGS. 9A-9X to refer to multicast messages sent from. However, as used herein, multicast messages and/or audio multicast messages are not necessarily intended to include multicast communications sent using other features of device 700 .

図9Aは、ユーザインタフェース900を表示する電子デバイス700を示す。図9Aでは、電子デバイス700は、ポータブル多機能デバイスであり、デバイス100、200、300、及び500のうちの任意の1つ以上に関して上述した1つ以上の構成要素を有する。以下に説明する図に関して、いくつかの実施形態では、デバイス700は、ホーム602から離れた閾値距離未満の場所で動作している。しかしながら、他の実施形態では、デバイス700は、ホーム602から離れた閾値距離よりも遠い場所で動作している。 FIG. 9A shows electronic device 700 displaying user interface 900 . 9A, electronic device 700 is a portable multifunction device having one or more components described above with respect to any one or more of devices 100, 200, 300, and 500. In FIG. With respect to the figures described below, in some embodiments device 700 is operating less than a threshold distance away from home 602 . However, in other embodiments, device 700 is operating more than a threshold distance away from home 602 .

図9Aに示すように、ユーザインタフェース900は、上述のように(例えば、図6及び図7A~7AH)、ホームアプリケーションに対応する設定ユーザインタフェースである。ここで、設定ユーザインタフェースは、デバイス700に登録されている人物(例えば、ユーザ)、及びホームアプリケーション(例えば、図7ABの人々797aのグループ)によって認識されている人物(例えば、ユーザ)である、カムアップルシードの設定ページである。図9Aに示すように、デバイス700は、図9Aで有効化されているマルチキャストオプション900aによって示される、マルチキャスト通知を受信するように構成されている。マルチキャストオプション900aが有効化されるため、マルチキャスト通知は、図9B~9Xに示されるようにデバイス700によって受信される。いくつかの実施形態では、デバイス700は、マルチキャストオプション900aに対応する場所でタップジェスチャ950aを検出する。いくつかの実施形態では、タップジェスチャ950a(又は1つ以上の後続のタップジェスチャ)の検出に応答して、デバイス700は、マルチキャストオプション900aを有効化から無効化に変更し、デバイス700は、本明細書に記載されるフローに基づいて送信されるマルチキャストメッセージを受信するように構成されていない。したがって、いくつかの実施形態では、マルチキャストオプション900aが無効化されると、デバイス700はマルチキャストメッセージを受信しない。 As shown in FIG. 9A, user interface 900 is the settings user interface corresponding to the Home application, as described above (eg, FIGS. 6 and 7A-7AH). Here, the configuration user interface is a person (e.g., user) registered on device 700 and a person (e.g., user) recognized by the home application (e.g., group of people 797a in FIG. 7AB). This is the setting page of Kam Apple Seed. As shown in FIG. 9A, device 700 is configured to receive multicast notifications, indicated by multicast option 900a being enabled in FIG. 9A. Because multicast option 900a is enabled, multicast notifications are received by device 700 as shown in FIGS. 9B-9X. In some embodiments, device 700 detects tap gesture 950a at a location corresponding to multicast option 900a. In some embodiments, in response to detecting tap gesture 950a (or one or more subsequent tap gestures), device 700 changes multicast option 900a from enabled to disabled, and device 700 turns off this Not configured to receive multicast messages sent according to the flows described herein. Accordingly, in some embodiments, device 700 does not receive multicast messages when multicast option 900a is disabled.

図9B~9Hは、ある時間の期間にわたって表示されているマルチキャスト通知及び非マルチキャスト通知を示し、同時にマルチキャストオプション900aが有効化されている。具体的には、図9B~9Hは、デバイスの特定の目標グループにも向けられる新しいマルチキャスト通知が、所定の時間の期間内に受信されない限り、表示の消滅又は中止(例えば、所定の時間の期間後)のデバイスの特定の目標グループに向けられる(例えば、それに対応する)そのマルチキャスト通知(例えば、本明細書に記載の方法を使用して送信されるマルチキャストメッセージ)を示す。いくつかの実施形態では、デバイスの特定の目標グループは、ホーム(例えば、図6のホーム602)、部屋(例えば、図6のダイニングルーム602b、寝室602c)、又はゾーン(例えば、例えば図7Uに関連して説明されるような「娯楽ゾーン」)に指定されたデバイスのグループである。 Figures 9B-9H show multicast and non-multicast notifications displayed over a period of time while multicast option 900a is enabled. Specifically, FIGS. 9B-9H show that the display disappears or ceases (e.g., for a predetermined period of time) unless a new multicast notification directed to a particular target group of devices is received within a predetermined period of time. 12 shows that multicast announcement (eg, a multicast message sent using the methods described herein) directed to (eg, corresponding to) a particular target group of devices (eg, after). In some embodiments, a particular target group of devices may be a home (eg, home 602 in FIG. 6), a room (eg, dining room 602b, bedroom 602c in FIG. 6), or a zone (eg, in FIG. 7U). A group of devices designated as an "entertainment zone" as described in connection therewith.

例えば、図9Bでは、10:00 AMで、デバイス700は、更新されたコンテンツがニュースアプリケーションによって公開されたことを示すデータを受信する。 For example, in FIG. 9B, at 10:00 AM, device 700 receives data indicating that updated content has been published by the news application.

図9Bに示すように、データの受信に応答して、デバイス700は、ニュース通知902を含むユーザインタフェースを表示する。図9Bでは、ニュース通知902はマルチキャスト通知ではない。したがって、ニュース通知902は、マルチキャストオプション900aが有効化されているか無効にされているかにかかわらず、表示される。換言すれば、マルチキャストオプション900aの状態は、マルチキャスト通知ではないため、ニュース通知902に影響を与えない。 In response to receiving the data, device 700 displays a user interface including news notification 902, as shown in FIG. 9B. In FIG. 9B, news notification 902 is not a multicast notification. Accordingly, news notification 902 is displayed regardless of whether multicast option 900a is enabled or disabled. In other words, the state of multicast option 900a does not affect news notification 902 because it is not a multicast notification.

10:02 AMで、デバイス700は、新しい音声マルチキャストメッセージが(例えば、電子デバイス700を含むデバイスに向けられて)ホーム602に送信されたことを示すデータ(「ホーム目標グループ」)を受信する。いくつかの実施形態では、データは、新しい音声マルチキャストメッセージの受信機としての目標グループ識別子(例えば、「ホーム」)を含む。 At 10:02 AM, device 700 receives data (“home target group”) indicating that a new audio multicast message (eg, directed to devices including electronic device 700) has been sent to home 602 . In some embodiments, the data includes target group identifiers (eg, "home") as recipients of new audio multicast messages.

図9Cに示すように、データの受信に応答して、デバイス700は、10:02 AMで受信したデータを表す、マルチキャスト通知904を表示する。図9Cでは、マルチキャスト通知904は、ニュース通知902と同時に表示される。マルチキャスト通知904は、アプリケーション示唆904a、通知タイプ示唆904b、送信者示唆904c、目標示唆904d、及び受信示唆の時間904eを含む。 As shown in FIG. 9C, in response to receiving the data, device 700 displays multicast notification 904 representing the data received at 10:02 AM. In FIG. 9C, multicast notification 904 is displayed concurrently with news notification 902 . Multicast notification 904 includes application suggestion 904a, notification type suggestion 904b, sender suggestion 904c, goal suggestion 904d, and time of receipt suggestion 904e.

アプリケーション示唆904aは、通知を提供するアプリケーションを示す。ここで、アプリケーション示唆904aは、ホームアプリケーションに指定され、図7Aのホームアイコン704aと類似している、グラフィカル表現アイコンを含む。 Application suggestion 904a indicates the application that provides the notification. Here, application suggestion 904a includes a graphical representation icon designated as the home application, similar to home icon 704a of FIG. 7A.

通知タイプ示唆904bは、通知の通知タイプを示す。ここで、通知タイプはマルチキャスト通知である。 Notification type suggestion 904b indicates the notification type of the notification. where the notification type is multicast notification.

送信者示唆904cは、音声マルチキャストメッセージの送信者を示す。ここで、送信者は、音声マルチキャストメッセージを送信するプロセスを開始したデバイス(例えば、ホーム目標グループにあるデバイス)と登録されている人物、ジョンである。いくつかの実施形態では、送信者が人物である場合、送信者の識別情報は、1つ以上の音声識別アルゴリズムを使用して、音声マルチキャストメッセージに対応する音声入力を分析する1つ以上のデバイスによって確立される。いくつかの実施形態では、送信者の識別情報が人物として確立できない場合、送信者示唆904cは、送信者が、音声マルチキャストメッセージを送信するデバイスなどのデバイス(例えば、「リビングスピーカ」)であることを示す。いくつかの実施形態では、送信者が人物として確立されておらず、例えば、人物が、音声マルチキャストメッセージを送信するためのプロセスを開始した送信者デバイスと登録されていないとき、及び/又は複数の人々が、音声マルチキャストメッセージを送信するためのプロセスを開始した送信者デバイスと登録されているときに、人物は送信者デバイスで確立されていない。 Sender suggestion 904c indicates the sender of the audio multicast message. Here, the sender is John, the person registered with the device that initiated the process of sending the audio multicast message (eg, the device in the home target group). In some embodiments, if the sender is a person, the identity of the sender is obtained from one or more devices that analyze audio input corresponding to the audio multicast message using one or more audio identification algorithms. established by In some embodiments, if the identity of the sender cannot be established as a person, the sender suggestion 904c is that the sender is a device (e.g., a "living speaker"), such as a device that transmits audio multicast messages. indicate. In some embodiments, when the sender is not established as a person, e.g., when the person is not registered with the sender device that initiated the process to send the audio multicast message, and/or when multiple When people are registered with the sender device that initiated the process for sending audio multicast messages, the person has not been established with the sender device.

目標示唆904dは、音声マルチキャストメッセージが対応するデバイスの目標グループを示す。ここで、目標示唆904dは、ホーム目標グループ(例えば、「ホームから」)である。いくつかの実施形態では、(音声マルチキャストメッセージに対応する)目標グループは、図7E~7F、図7J~7M、及び図7S~7Uに関連して上述したように、音声マルチキャストメッセージの送信者によって識別されるグループである。いくつかの実施形態では、目標グループは、1つ以上のユーザ入力(例えば、音声入力(例えば、792a~729d)及び/又はジェスチャ(例えば、750b及び750g3)に基づいて、音声マルチキャストメッセージの送信者によって識別される。いくつかの実施形態では、返信メッセージがデバイス700で受信されるとき、目標グループは、最初の音声マルチキャストメッセージに基づいて識別される。例えば、デバイス700は、デバイス700が寝室602cに指定されたデバイスのグループに最初の音声マルチキャストメッセージを以前に向けた場合など、ある状況では寝室602cに対応する目標グループを有する返信音声マルチキャストメッセージを受信することができる。 Target suggestion 904d indicates the target group of devices to which the audio multicast message corresponds. Here, goal suggestion 904d is a home goal group (eg, "from home"). In some embodiments, the target group (corresponding to the audio multicast message) is determined by the sender of the audio multicast message, as described above in connection with FIGS. 7E-7F, 7J-7M, and 7S-7U A group that is identified. In some embodiments, the target group is based on one or more user inputs (eg, voice inputs (eg, 792a-729d) and/or gestures (eg, 750b and 750g3) to identify senders of voice multicast messages). In some embodiments, the target group is identified based on the initial audio multicast message when the return message is received at device 700. For example, device 700 determines that device 700 is in bedroom 602c. A return audio multicast message having a target group corresponding to bedroom 602c may be received in some circumstances, such as if the initial audio multicast message was previously directed to a group of devices designated as .

受信示唆904eの時間は、通知が表示されたとき(又は、いくつかの実施形態では、通知に対応するデータが受信されたとき)を示す。ここで、受信示唆904eの時間は、通知が「NOW(現在)」又は10:02 AMで表示されたことを示す。 The time of receipt suggestion 904e indicates when the notification was displayed (or, in some embodiments, when data corresponding to the notification was received). Here, the time of reception suggestion 904e indicates that the notification was displayed at "NOW" or 10:02 AM.

図9Dに示すように、10:09 AMに、デバイス700は、ニュース通知902の表示を継続し、マルチキャスト通知904の表示を中止する。いくつかの実施形態では、通知904は、マルチキャスト通知が表示されることを中止した後に、デバイス700のユーザインタフェース上に全く表示されない。いくつかの実施形態では、通知904は、マルチキャスト通知が表示されることを中止した後の任意の他の時点で、図9Dのユーザインタフェース上に表示されない。いくつかの実施形態では、デバイスは、保留中の通知(例えば、ユーザによって影響を受けていない通知)を検視するためにユーザ入力を受信し、それに応じて、マルチキャスト通知904を表示することなく、新しい通知902を表示する。 At 10:09 AM, device 700 continues to display news notification 902 and ceases to display multicast notification 904, as shown in FIG. 9D. In some embodiments, notification 904 is not displayed on the user interface of device 700 at all after multicast notifications cease to be displayed. In some embodiments, notification 904 is not displayed on the user interface of FIG. 9D at any other time after multicast notifications cease to be displayed. In some embodiments, the device receives user input to review pending notifications (e.g., notifications that have not been affected by the user) and, in response, displays the multicast notification 904. Display new notifications 902 .

図9Dに示すように、デバイス700は、マルチキャスト通知904の減衰期間(例えば、1秒、30秒、60秒、300秒など)の終了前(及び/又は所定の時間の期間内)、ホーム目標グループに対応する新しい音声マルチキャストメッセージに対応するデータが受信されないため、マルチキャスト通知904の表示を中止する(ディスプレイがオンの場合でも)。他方、デバイス700は、ニュース通知902がマルチキャスト通知ではなく、所定の時間の期間が経過すると(及び、ディスプレイがオンである場合)、デバイス700は、ニュース通知902の表示を継続する。 As shown in FIG. 9D, the device 700 may send the home target before the expiration (and/or within a predetermined time period) of the multicast notification 904 decay period (eg, 1 second, 30 seconds, 60 seconds, 300 seconds, etc.). Stop displaying the multicast notification 904 (even if the display is on) because no data corresponding to the new audio multicast message corresponding to the group has been received. On the other hand, the device 700 continues to display the news notification 902 if the news notification 902 is not a multicast notification and the predetermined period of time has elapsed (and the display is on).

図9E~9Hは、図9B~9Dに関連して上述した例に加えて、技術の例を示す。図9B~9Dでは、マルチキャスト通知(例えば、所定の時間の期間)の減衰期間は、例示目的のみのために5分である。いくつかの実施形態では、減衰期間は5分より短く、又は長い。 Figures 9E-9H illustrate examples of techniques in addition to those described above in connection with Figures 9B-9D. In FIGS. 9B-9D, the decay period for multicast notifications (eg, predetermined time periods) is 5 minutes for illustrative purposes only. In some embodiments, the decay period is shorter or longer than 5 minutes.

10:10に、デバイス700では、データの3つの異なる1組を受信する。データの第1の1組は、ホーム目標グループに対応する新しい音声マルチキャストメッセージが受信されたことを示す。データの第2の1組は、寝室602cに指定されたデバイスのグループ(「寝室目標グループ」)に対応する新しい音声マルチキャストメッセージが受信されたことを示す。データの第3の1組は、娯楽ゾーン(「娯楽ゾーン目標グループ」)に指定されたデバイスのグループ(「娯楽ゾーン目標グループ」)(例えば、リビングルーム602d及びサンルーム602eに指定されたデバイスのグループの組み合わせ)に対応する新しい音声マルチキャストメッセージが受信されたことを示す。 At 10:10, device 700 receives three different sets of data. A first set of data indicates that a new audio multicast message corresponding to the home target group has been received. A second set of data indicates that a new audio multicast message has been received corresponding to the group of devices designated for bedroom 602c (the "bedroom target group"). A third set of data is a group of devices (“entertainment zone target group”) designated to an entertainment zone (“entertainment zone target group”) (e.g., devices designated to living room 602d and sunroom 602e). group combination) has been received.

いくつかの実施形態では、データの第1の1組は、ホーム目標グループに対応する、最初の音声マルチキャストメッセージ又は返信音声マルチキャストメッセージ(例えば、デバイス700が送信した最初の音声マルチキャストメッセージへの返信)を表す。いくつかの実施形態では、データの第2の1組のデータ及びデータの第3の1組は、それぞれ対応する目標グループに別々に送信された最初の音声マルチキャストメッセージに応答して受信される、返信音声マルチキャストメッセージ、すなわち、音声マルチキャストメッセージを表す。いくつかの実施形態では、データの第2の1組のデータ及びデータの第3の1組は、上述のように(例えば、図7M、図7T、図7V、及び図7X)、デバイス700がゾーン又は部屋の目標グループに指定されておらず、それらの目標グループから送信される最初のメッセージを受信することができないため、それぞれの目標グループから受信される最初のメッセージではない。 In some embodiments, the first set of data is the initial audio multicast message or reply audio multicast message (eg, reply to the initial audio multicast message sent by device 700) corresponding to the home target group. represents In some embodiments, the second set of data and the third set of data are received in response to the first audio multicast message sent separately to the respective target groups; Represents a return audio multicast message, ie, an audio multicast message. In some embodiments, the second set of data and the third set of data are generated by device 700 as described above (eg, FIGS. 7M, 7T, 7V, and 7X). It is not the first message received from each target group because it has not been assigned to a zone or room target group and cannot receive the first message sent from those target groups.

図9Eに示すように、3つのデータの1組の受信に応答して、デバイス700はマルチキャスト通知906a、908a、及び910を表示する。デバイス700はまた、ニュース通知902を表示し続ける。図9Eに示すように、通知は通知リストに表示される。リスト(例えば、ニュース通知902)の下部に最も古い通知が表示され、最も新しい通知はリストの最上部にある(例えば、マルチキャスト通知910)。したがって、通知906a、908a、及び910は、ほぼ同時に表示されたが、通知906a、908a、及び910は、図9Eに示す順序でそれぞれ表示された。いくつかの実施形態では、通知は、異なる順序で、又は異なる配列で表示される。 As shown in FIG. 9E, device 700 displays multicast notifications 906a, 908a, and 910 in response to receiving a set of three data. Device 700 also continues to display news notification 902 . The notifications are displayed in the notification list, as shown in FIG. 9E. The oldest notifications are displayed at the bottom of the list (eg, news notifications 902) and the newest notifications are at the top of the list (eg, multicast notifications 910). Thus, although notifications 906a, 908a, and 910 were displayed approximately simultaneously, notifications 906a, 908a, and 910 were each displayed in the order shown in FIG. 9E. In some embodiments, the notifications are displayed in a different order or arrangement.

図9Eに示すように、通知906aは、音声マルチキャストメッセージがホーム目標グループから「ジョン」によって送信されたことを示す。通知908aは、音声マルチキャストメッセージが寝室目標グループから「ジェーン」によって送信されたことを示し、通知910は、音声マルチキャストメッセージが、娯楽ゾーン目標グループから「エマ」によって送信されたことを示す。図9Eに示すように、新しいマルチキャスト通知のうちの3つ全ては、データが10:10 AMに最近受信された(又は最近表示された)ため、「NOW」の時間受信示唆を含む。しかしながら、そのデータが10:00に受信された(又は通知が表示された)ため、ニュース通知902の時刻受信示唆は「10分前」である。 As shown in Figure 9E, notification 906a indicates that an audio multicast message was sent by "John" from the home target group. Notification 908a indicates that an audio multicast message was sent by "Jane" from the bedroom target group, and notification 910 indicates that an audio multicast message was sent by "Emma" from the entertainment zone target group. As shown in FIG. 9E, all three of the new multicast notifications contain a time receipt suggestion of "NOW" because the data was recently received (or recently displayed) at 10:10 AM. However, because the data was received (or the notification was displayed) at 10:00, the time receipt suggestion for news notification 902 is "10 minutes ago."

10:11 AMには、デバイス700は、ホーム目標グループに対応する新しい音声マルチキャストメッセージが受信されたことを示すデータを受信する。 At 10:11 AM, device 700 receives data indicating that a new audio multicast message corresponding to the home target group has been received.

図9Fに示すように、新しいデータの受信に応答して、デバイス700は、ホーム目標グループに対応する新しい音声マルチキャストメッセージを示すデータが受信されたため(例えば、10:11で受信したデータ)、マルチキャスト通知906aの減衰期間が満了する前(例えば、マルチキャスト通知906aを表示した、又は図9Eの第1のデータを受信した後の所定の時間の期間内)に、マルチキャスト通知906bを表示する。特に、デバイス700は、通知906a及び910のディスプレイを更新せず、それらのそれぞれの目標グループに対応する新しい音声マルチキャストメッセージを示すデータが受信されておらず、その減衰期間が満了していない(例えば、それらは、それらの目標グループに対する新しいマルチキャストメッセージに対応するデータを受信することなく、5分を超えて表示されていない)ので、これらの通知の表示を継続する。 As shown in FIG. 9F, in response to receiving new data, device 700 receives data indicating a new audio multicast message corresponding to the home target group (eg, data received at 10:11), so the multicast Display multicast notification 906b before the decay period of notification 906a expires (eg, within a predetermined period of time after displaying multicast notification 906a or receiving the first data of FIG. 9E). In particular, device 700 has not updated its display of notifications 906a and 910, has not received data indicating new audio multicast messages corresponding to their respective target groups, and has not expired its decay period (e.g., , they have not been displayed for more than 5 minutes without receiving data corresponding to a new multicast message for their target group), so they continue to display these notifications.

マルチキャスト通知906bは、デバイス700が図9Fに表示を中止した、マルチキャスト通知906aの更新バージョンである。図9Eを再び見ると、マルチキャスト通知906aは、ジョンがホーム目標グループに対応するマルチキャストメッセージを送信したことを示す。図9Fに戻ると、マルチキャスト通知906bはまた、ホーム目標グループに対応する以前のマルチキャストメッセージ(通知906aによる当初の表現のマルチキャストメッセージ)をジョンが送信した情報(例えば、通知906bの「ジョン」)も含む。加えて、マルチキャスト通知906bは、もう一方がホーム目標グループに対応するマルチキャストメッセージを送信した情報を含む。したがって、マルチキャスト通知906bは、2つの音声マルチキャストメッセージに関する情報を含み、すなわち、マルチキャスト通知906bは、ホーム目標グループに対応する第1の音声マルチキャストメッセージの送信者(「ジョン」)、及びホーム目標グループに対応する第2の音声マルチキャストメッセージの送信者(例えば、「もう一方」)を表す情報を含む。 Multicast notification 906b is an updated version of multicast notification 906a that device 700 discontinued in FIG. 9F. Looking again at FIG. 9E, multicast notification 906a indicates that John sent a multicast message corresponding to the home target group. Returning to FIG. 9F, multicast notification 906b also includes information (e.g., "John" in notification 906b) that John sent a previous multicast message corresponding to the home target group (as originally represented by notification 906a). include. In addition, multicast notification 906b includes information that the other has sent a multicast message corresponding to the home target group. Accordingly, multicast notification 906b contains information about two audio multicast messages: the sender ("John") of the first audio multicast message corresponding to the home target group; Contains information representing the sender (eg, "the other") of the corresponding second audio multicast message.

図9Fに示すように、マルチキャスト通知906bは、直近の通知であるため、現在の時間受信示唆と共にリストの最上部に表示される。特に、ホーム目標グループに対応する新しい音声マルチキャストメッセージが受信された時間(例えば、10:11に受信されたデータ)を反映するために、図9Fでマルチキャスト通知906bの時間受信示唆が変更されるが、マルチキャスト通知906aは図9Eでは10:10に最初に表示された(又は、マルチキャスト通知906aに対応するデータが最初に受信された)。いくつかの実施形態では、マルチキャスト通知906aはマルチキャスト通知906bと同時に表示される。いくつかの実施形態では、マルチキャスト通知906aがマルチキャスト通知906bと同時に表示されるとき、マルチキャスト通知906aの時刻受信示唆は、「NOW」と書かれるように更新される。いくつかの実施形態では、マルチキャスト通知906aの時刻表示を更新することにより、マルチキャスト通知906aの減衰期間が延長される。いくつかの実施形態では、図9Fでのデータの受信は、マルチキャスト通知906a(例えば、又はマルチキャスト通知906bがマルチキャスト通知906aによって表される音声マルチキャストメッセージを表すコンテンツを含むため、マルチキャスト通知906aのコンテンツ)の減衰期間を延長する。 As shown in FIG. 9F, multicast notification 906b is displayed at the top of the list along with the current time reception suggestion since it is the most recent notification. In particular, although the time receipt indication of multicast notification 906b is changed in FIG. , multicast notification 906a was first displayed (or the data corresponding to multicast notification 906a was first received) at 10:10 in FIG. 9E. In some embodiments, multicast notification 906a is displayed concurrently with multicast notification 906b. In some embodiments, when multicast notification 906a is displayed concurrently with multicast notification 906b, the time-of-day receipt suggestion of multicast notification 906a is updated to read "NOW." In some embodiments, updating the time stamp of the multicast notification 906a extends the decay period of the multicast notification 906a. In some embodiments, receiving the data in FIG. 9F includes multicast notification 906a (or the content of multicast notification 906a, since multicast notification 906b includes content representing the audio multicast message represented by multicast notification 906a). Extends the decay period of

図9Fに示すように、直近から少なくとも最近にそれぞれリスト表示される通知910、908a、及び902は、マルチキャスト通知906bの下にある。加えて、通知910、908a、及び902の時間受信示唆は、それぞれがそれぞれ表示された時間の長さ(又は各それぞれの通知に対応するデータが受信されたために経過した時間)を反映するように、図9Fで更新されている。 As shown in FIG. 9F, notifications 910, 908a, and 902 listed respectively from most recent to least recent are below multicast notification 906b. Additionally, the time receipt indications for notifications 910, 908a, and 902 are such that each reflects the length of time each was displayed (or the time elapsed since the data corresponding to each respective notification was received). , updated in FIG. 9F.

10:12 AMには、デバイス700は、寝室目標グループに対応する新しい音声マルチキャストメッセージが受信されたことを示すデータを受信する。 At 10:12 AM, device 700 receives data indicating that a new audio multicast message corresponding to the bedroom target group has been received.

図9Gに示すように、データの受信に応答して、デバイス700は、寝室目標グループに対応する新しい音声マルチキャストメッセージを示すデータが受信されたため(例えば、10:12で受信したデータ)、マルチキャスト通知908bの減衰期間が満了する前(例えば、マルチキャスト通知906bを表示した、又は図9Eの第2のデータを受信した後の所定の時間の期間内)に、マルチキャスト通知908bを表示する。特に、デバイス700は通知908b及び910を更新せず、それらのそれぞれの目標グループに対応する新しい音声マルチキャストメッセージを示すデータが受信されておらず、それらの減衰期間が満了していないため、通知908b及び910を表示し続ける。いくつかの実施形態では、マルチキャスト通知908bは、マルチキャスト通知906bに関して図9Fで上述したものと類似の技術を使用して表示される。 As shown in FIG. 9G, in response to receiving the data, device 700 sends a multicast notification because data indicating a new audio multicast message corresponding to the bedroom target group was received (eg, data received at 10:12). Display multicast notification 908b before the decay period of 908b expires (eg, within a predetermined period of time after displaying multicast notification 906b or receiving the second data of FIG. 9E). In particular, device 700 has not updated notifications 908b and 910, no data has been received indicating new audio multicast messages corresponding to their respective target groups, and their decay periods have not expired, so notification 908b and 910 continue to be displayed. In some embodiments, multicast notification 908b is displayed using techniques similar to those described above in FIG. 9F for multicast notification 906b.

マルチキャスト通知908bは、デバイス700が図9Gに表示を中止した、マルチキャスト通知908aの更新バージョンである。図9Eを再び見ると、マルチキャスト通知908aは、ジェーンが寝室目標グループに対応するマルチキャストメッセージを送信したことを示す。図9Gに戻ると、マルチキャスト通知908bは、2つのマルチキャストメッセージが、寝室目標グループに対応するジェーンによって送信されたことを示す。ここで、新しい送信者を含むマルチキャスト通知908bの代わりに、マルチキャスト通知908bは、マルチキャスト通知908aと比較すると、それぞれの送信者によって送信された通知の増加量を表すコンテンツを表示する。いくつかの実施形態では、マルチキャスト通知908aは、異なる送信者が新しいマルチキャストメッセージを送信したかどうかに関係なく、寝室目標グループから受信された通知の量の表現を含む。 Multicast notification 908b is an updated version of multicast notification 908a that device 700 discontinued in FIG. 9G. Referring again to FIG. 9E, multicast notification 908a indicates that Jane sent a multicast message corresponding to the bedroom target group. Returning to FIG. 9G, multicast notification 908b indicates that two multicast messages were sent by Jane corresponding to the bedroom target group. Here, instead of multicast notification 908b containing new senders, multicast notification 908b displays content representing an increased amount of notifications sent by each sender compared to multicast notification 908a. In some embodiments, multicast notification 908a includes a representation of the amount of notifications received from the bedroom target group regardless of whether different senders have sent new multicast messages.

図9Hに示されるように、マルチキャスト通知908bがリストの最上部に表示され、通知906b、910、及び902は、直近から少なくとも最近の順序でマルチキャスト通知908bの下に表示される。 As shown in FIG. 9H, multicast notification 908b is displayed at the top of the list, and notifications 906b, 910, and 902 are displayed below multicast notification 908b in order from most recent to least recent.

図9Hに示すように、10:15 AMに、マルチキャスト通知910の減衰期間が満了したため、デバイス700はマルチキャスト通知910の表示を中止する。換言すれば、デバイス700は、マルチキャスト通知910が最初に表示された(又は、娯楽目標グループに対応する音声マルチキャストメッセージを示すデータが受信された)ときの所定の時間内(又は、通知910の減衰期間の終了前)に、マルチキャスト通知910の目標グループ(例えば、「娯楽ゾーン」)に対応する新しい音声マルチキャストメッセージを示すデータを受信していない。したがって、図9Eを参照すると、デバイス700は、データの第1及び第2の1組に示されたそれぞれの目標グループに対応するデータが各それぞれの通知の減衰期間が終了する前に受信され、一方、データの第3の1組に示された目標グループに対応するデータが、マルチキャスト通知910の減衰期間が終了する前に受信されなかったため、データの第1の1組を表すコンテンツ(例えば、マルチキャスト通知906bのジョン)及びデータの第2の1組を表すコンテンツ(例えば、マルチキャスト通知908bのマルチキャストのうちの1つ)を表示し続け、データの第3の1組を表すコンテンツをもはや表示しない(例えば、マルチキャスト通知910)。 As shown in FIG. 9H, at 10:15 AM, device 700 stops displaying multicast notification 910 because the decay period for multicast notification 910 has expired. In other words, the device 700 may detect the decay of the notification 910 within a predetermined time when the multicast notification 910 is first displayed (or when data indicating an audio multicast message corresponding to an entertainment target group is received). (before the end of the time period), it has not received data indicating a new audio multicast message corresponding to the target group (eg, "entertainment zone") of the multicast notification 910. Thus, referring to FIG. 9E, the device 700 receives data corresponding to respective target groups indicated in the first and second sets of data before each respective notification decay period expires, and On the other hand, since the data corresponding to the target group indicated in the third set of data was not received before the decay period of the multicast notification 910 expired, the content representing the first set of data (e.g., multicast notification 906b) and the content representing the second set of data (e.g., one of the multicasts of multicast notification 908b) and no longer displaying the content representing the third set of data. (eg, multicast notification 910).

図9I~9Pは、受信した音声マルチキャストメッセージの再生のためのユーザインタフェースを示す。具体的には、図9I~9Kは、複数の音声マルチキャストメッセージが、単一の入力に応答して自動的に再生されるシナリオを示す。加えて、図9L~9Pは、1つの受信された音声マルチキャストメッセージが、他の受信された音声マルチキャストメッセージのグループから選択され、再生されるシナリオを示す。図9Hでは、デバイス700は、マルチキャスト通知906bに対応する場所でタップジェスチャ950hを検出する。 9I-9P show user interfaces for playback of received audio multicast messages. Specifically, FIGS. 9I-9K illustrate scenarios in which multiple audio multicast messages are automatically played in response to a single input. Additionally, Figures 9L-9P illustrate scenarios in which one received audio multicast message is selected from a group of other received audio multicast messages and played. In FIG. 9H, device 700 detects tap gesture 950h at a location corresponding to multicast notification 906b.

図9Iに示すように、タップジェスチャ950hの検出に応答して、デバイス700は、ユーザインタフェース920を表示する。ユーザインタフェース920は、(図9Iで「ホームからのマルチキャスト」によって示されるように)ホーム目標グループに対応する音声マルチキャストメッセージである、マルチキャスト通知906bに示される音声マルチキャストメッセージを表示するためのユーザインタフェースである。ユーザインタフェース920は、マルチキャスト通知906bで表される音声マルチキャストメッセージのうちの1つをそれぞれ表す、グラフィカル送信者示唆924a及びグラフィカル送信者示唆924bを含む。ここで、グラフィカル送信者示唆924aはグラフィカル送信者示唆924bよりも大きく、ユーザインタフェースの中央では、グラフィカル送信者示唆924aに対応する音声マルチキャストメッセージが現在再生のために選択されていることを示す。グラフィカル送信者示唆924aは、スピーカデバイスの画像であり、図9Fで10:11 AMに受信された「もう一方」によって送信された音声マルチキャストメッセージに対応するデータを表す。グラフィカル送信者示唆924bはジョンの画像(すなわち、図7ABのジョンA.の画像を含む797a)であり、データの代表は、図9Eで10:10 AMに受信されたジョンによって送信された音声マルチキャストメッセージに対応する。いくつかの実施形態では、音声メッセージは、受信された順序で表示される(例えば、図9Eでは、グラフィカル送信者示唆924b及びグラフィカル送信者示唆924bが切り替えられる)。ユーザインタフェース920は、ユーザインタフェース(又は最大のグラフィカル送信者示唆)の中央に表示されるスピーカ又はデバイスに指定された名前を示す、現在の送信者示唆922aを更に含む。ここで、現在の送信者示唆922aは、スピーカが「リビングルーム」の名前を有し、送信者からの音声マルチキャストメッセージが現在再生中であるか、又は再生アフォーダンス926の選択によって現在再生され得ることを示す。加えて、デバイス700はまた、現在選択されている音声マルチキャストメッセージが、再生することができる10秒の長さを有することを示す、残りの示唆928、及び選択された音声マルチキャストメッセージが、ホーム目標グループに対応する音声マルチキャストメッセージの総数のうちの2つのメッセージ1であることを表すカウント示唆930を表示する。いくつかの実施形態では、設定が音声マルチキャストメッセージの音声表記を可能にすることが有効なとき、ユーザインタフェース920は、現在選択されている音声マルチキャストメッセージの文字表現を含む。 In response to detecting tap gesture 950h, device 700 displays user interface 920, as shown in FIG. 9I. User interface 920 is a user interface for displaying the audio multicast message indicated in multicast notification 906b, which is the audio multicast message corresponding to the home target group (as indicated by "Multicast from Home" in FIG. 9I). be. User interface 920 includes graphical sender suggestions 924a and graphical sender suggestions 924b, each representing one of the audio multicast messages represented by multicast notification 906b. Here, graphical sender suggestion 924a is larger than graphical sender suggestion 924b, indicating in the center of the user interface that the audio multicast message corresponding to graphical sender suggestion 924a is currently selected for playback. Graphical sender suggestion 924a is an image of a speaker device representing data corresponding to the audio multicast message sent by "the other" received at 10:11 AM in FIG. 9F. Graphical sender suggestion 924b is John's image (i.e., 797a containing John A.'s image in Figure 7AB), and the data representative is the voice multicast sent by John received at 10:10 AM in Figure 9E. Respond to messages. In some embodiments, the voice messages are displayed in the order in which they were received (eg, graphical sender suggestion 924b and graphical sender suggestion 924b are toggled in FIG. 9E). User interface 920 further includes current sender suggestion 922a, which shows the name assigned to the speaker or device displayed in the center of the user interface (or maximum graphical sender suggestion). Here, the current sender suggestion 922a is that the speaker has the name "living room" and that an audio multicast message from the sender is currently playing or can be currently played by selection of playback affordance 926. indicate. In addition, the device 700 also indicates that the currently selected audio multicast message has a length of 10 seconds that can be played, and the remaining indication 928, and the selected audio multicast message is the home target. Display a count suggestion 930 representing two messages 1 out of the total number of audio multicast messages corresponding to the group. In some embodiments, when the setting is enabled to allow phonetic transcription of audio multicast messages, user interface 920 includes a textual representation of the currently selected audio multicast message.

図9Iに示すように、デバイス700は、寝室目標グループに対応する新しい音声マルチキャストメッセージが受信されたことを示すデータを受信し、データの受信に応答してマルチキャスト通知940を表示する。いくつかの実施形態では、デバイス700は、以下の図9Lに関連して説明されるように、この受信されたデータに基づいて通知のリストを更新する。図9Iでは、デバイス700は、再生アフォーダンス926に対応する場所でタップジェスチャ950iを検出する。 As shown in FIG. 9I, device 700 receives data indicating that a new audio multicast message corresponding to the bedroom target group has been received, and displays multicast notification 940 in response to receiving the data. In some embodiments, device 700 updates the list of notifications based on this received data, as described in connection with FIG. 9L below. 9I, device 700 detects tap gesture 950i at a location corresponding to playback affordance 926. In FIG.

図9J~9Kに示すように、タップジェスチャ950iの検出に応答して、デバイス700は、メディアの再生を開始する。図9Jに示すように、デバイス700は、ホーム目標グループに対応する最後に受信した音声マルチキャストメッセージを再生する(例えば、上記の図9Fで10:11に受信した)。図9Jでは、現在選択されている音声マルチキャストメッセージ(例えば、10:11に受信した「もう一方」からの音声マルチキャストメッセージ)を再生している間に、デバイス700は、時刻表示932を表示し、示唆928及び930を更新する。図9Kに示すように、デバイス700は、現在、ホーム目標グループに対応する第1の音声マルチキャストメッセージを再生している(例えば、上記の図9Eのジョンから10:10に受信した)。特に、デバイス700は、ホーム目標グループに対応する最後の音声マルチキャストメッセージの再生を完了した後に(例えば、タップジェスチャ950iを検出した後に追加入力を受信することなく)、自動的に第1の音声マルチキャストメッセージを再生する。 As shown in FIGS. 9J-9K, in response to detecting tap gesture 950i, device 700 begins playing media. As shown in FIG. 9J, device 700 plays the last received audio multicast message corresponding to the home target group (eg, received at 10:11 in FIG. 9F above). In FIG. 9J, while playing the currently selected audio multicast message (eg, the audio multicast message from “the other” received at 10:11), device 700 displays time display 932, Update suggestions 928 and 930. As shown in FIG. 9K, device 700 is currently playing the first audio multicast message corresponding to the home target group (eg, received at 10:10 from John in FIG. 9E above). In particular, after device 700 completes playing the last audio multicast message corresponding to the home target group (eg, without receiving additional input after detecting tap gesture 950i), device 700 automatically plays the first audio multicast message. Play a message.

図9Lに示すように、図9Kでユーザインタフェースを表示した後しばらくして、デバイス700は通知のリストを再表示する。ここで、通知902bは表示を中止している。いくつかの実施形態では、通知902bは、通知に対応する場所でジェスチャが検出されたこと及び/又は音声マルチキャストメッセージのうちの任意の1つ以上が図9J~9Kで再生されたことから表示を中止している。いくつかの実施形態では、その減衰期間が、ホーム目標グループに対応する新しいマルチキャストが受信される前に(例えば、10:16 AMで)終了したため、通知902bは表示を中止する。 As shown in FIG. 9L, some time after displaying the user interface in FIG. 9K, device 700 redisplays the list of notifications. Here, notification 902b has stopped being displayed. In some embodiments, the notification 902b indicates that a gesture was detected at a location corresponding to the notification and/or that any one or more of the audio multicast messages were played in FIGS. 9J-9K. has been discontinued. In some embodiments, notification 902b ceases to display because its decay period expired before the new multicast corresponding to the home target group was received (eg, at 10:16 AM).

図9Lでは、デバイス700はまた、マルチキャスト通知908cを表示しており、マルチキャスト通知908bの表示を中止している。マルチキャスト通知908cは、図9Iで受信した音声マルチキャストメッセージに対応する参照データに更新されたマルチキャスト通知908bの更新バージョンであり、図9Iではマルチキャスト通知940によって表された。したがって、マルチキャスト通知908bは、寝室目標グループに対応する2つのマルチキャスト通知が受信されたことを示すコンテンツを含んでいるが、マルチキャスト通知908cは、寝室目標グループに対応する3つのマルチキャスト通知が受信されたことを示すコンテンツを含むように更新されている。図9Lでは、デバイス700は、マルチキャスト通知908cに対応する場所で押圧及び保持ジェスチャ950lを検出する。いくつかの実施形態では、デバイス700は、ジェスチャが検出(又は保持)され続けている間に、押圧及び保持ジェスチャ950lを検出する。いくつかの実施形態では、デバイス700は、ジェスチャが解放された後に、押圧及び保持ジェスチャを検出する。 In FIG. 9L, device 700 has also displayed multicast notification 908c and has ceased displaying multicast notification 908b. Multicast notification 908c is an updated version of multicast notification 908b updated to reference data corresponding to the audio multicast message received in FIG. 9I, represented by multicast notification 940 in FIG. 9I. Thus, multicast notification 908b contains content indicating that two multicast notifications corresponding to the bedroom target group were received, while multicast notification 908c contains content indicating that three multicast notifications corresponding to the bedroom target group were received. has been updated to include content indicating that In FIG. 9L, device 700 detects press and hold gesture 950l at a location corresponding to multicast notification 908c. In some embodiments, device 700 detects press and hold gesture 950l while the gesture continues to be detected (or held). In some embodiments, device 700 detects press and hold gestures after the gesture is released.

図9Mに示すように、押圧及び保持ジェスチャ950lの検出に応答して、デバイス700は、(例えば、押圧及び保持ジェスチャ950lを検出し続けながら、押圧及び保持ジェスチャ950lの終了後)ユーザインタフェース960を表示する。ユーザインタフェース960は、(図9I~9Kに関連して上述したように)ユーザインタフェース920に類似のユーザインタフェース要素を含む。しかしながら、ユーザインタフェース960は、ユーザインタフェース920よりも小さいエリアを有する。ユーザインタフェース960が寝室目標グループから音声マルチキャストメッセージを再生するためのユーザインタフェースである間、デバイス700は、ユーザインタフェース920に関して上述したような1つ以上の技術を使用することができる。いくつかの実施形態では、開いているアフォーダンス962上のユーザ入力950m1の検出に応答して、デバイス700は、ユーザインタフェース960の表示を中止し、ユーザインタフェース920と類似のサイズのユーザインタフェースを表示する。図9Mでは、デバイス700は、ユーザインタフェース960に対応する場所でスワイプジェスチャ950m2を検出する。 As shown in FIG. 9M, in response to detecting the press and hold gesture 950l, the device 700 displays the user interface 960 (eg, after the press and hold gesture 950l is completed while continuing to detect the press and hold gesture 950l). indicate. User interface 960 includes user interface elements similar to user interface 920 (as described above in connection with FIGS. 9I-9K). However, user interface 960 has a smaller area than user interface 920 . Device 700 can employ one or more techniques such as those described above with respect to user interface 920, while user interface 960 is the user interface for playing audio multicast messages from bedroom target groups. In some embodiments, in response to detecting user input 950m1 on open affordance 962, device 700 ceases displaying user interface 960 and displays a user interface similar in size to user interface 920. . In FIG. 9M, device 700 detects swipe gesture 950m2 at a location corresponding to user interface 960. In FIG.

図9Nに示すように、第1のジェスチャ(例えば、スワイプジェスチャ950m2)の検出に応答して、デバイス700は、現在選択されている音声マルチキャストメッセージを、寝室目標グループに対応する最後に受信された音声マルチキャストメッセージ(例えば、その対応するデータが図9Iで受信された場合)から寝室目標グループに対応する第2の最後に受信された音声マルチキャストメッセージ(例えば、その対応するデータが図9Gで受信された場合)に変更する。図9Nでは、デバイス700は、ユーザインタフェース960に対応する場所でスワイプジェスチャ950nを検出する。 As shown in FIG. 9N, in response to detecting the first gesture (eg, swipe gesture 950m2), device 700 sends the currently selected audio multicast message to the last received message corresponding to the bedroom target group. The second most recently received audio multicast message corresponding to the bedroom target group from the audio multicast message (eg, whose corresponding data was received in FIG. 9I) (eg, whose corresponding data was received in FIG. 9G). change to ). 9N, device 700 detects swipe gesture 950n at a location corresponding to user interface 960. In FIG.

図9Oに示すように、第2のジェスチャ(例えば、スワイプジェスチャ950n)の検出に応答して、デバイス700は、現在選択されている音声マルチキャストメッセージを、寝室目標グループに対応する第2の最後に受信された音声マルチキャストメッセージ(例えば、その対応するデータが図9Fで受信された場合)から寝室目標グループに対応する第1に受信された音声マルチキャストメッセージ(例えば、その対応するデータが図9Eで受信された場合)に変更する。図9Oでは、デバイス700は、ユーザインタフェース960(例えば、再生アフォーダンス926上)に対応する場所でタップジェスチャ950oを検出する。 As shown in FIG. 9O, in response to detecting a second gesture (eg, swipe gesture 950n), device 700 renders the currently selected audio multicast message to the second, last, and second corresponding to the bedroom target group. The first received audio multicast message corresponding to the bedroom target group (e.g., its corresponding data was received in FIG. 9E) from the received audio multicast message (e.g., its corresponding data was received in FIG. 9F). is changed). In FIG. 9O, device 700 detects tap gesture 950o at a location corresponding to user interface 960 (eg, on playback affordance 926).

図9Pに示すように、タップジェスチャ950o、デバイス700の検出に応答して、デバイス700は、他の音声マルチキャストメッセージの再生を開始することなく、寝室目標グループに対応する第1に受信された音声マルチキャストメッセージ(例えば、現在選択されている)の再生を開始する。いくつかの実施形態では、図9P(又は9I~9J)で、デバイス700は、マルチキャストアフォーダンス736に対応する場所でタップジェスチャ950pを検出し、タップジェスチャ950pの検出に応答して、マルチキャストアフォーダンス736に対応する場所で、デバイス700は、上述のように(例えば、図7C及び図7I)、1つ以上の入力デバイスを介して、メディアの記録を開始する。いくつかの実施形態では、図9Pでは、デバイス700は、(上述のように)音声入力720aなどの1つ以上の音声入力を検出して、ジェーンに再生するために、寝室目標グループに対応する音声マルチキャストメッセージを送信する。 As shown in FIG. 9P, in response to detecting the tap gesture 950o, the device 700 detects the first received audio message corresponding to the bedroom target group without initiating playback of another audio multicast message. Start playing a multicast message (eg, currently selected). In some embodiments, in FIG. 9P (or 9I-9J), device 700 detects tap gesture 950p at a location corresponding to multicast affordance 736 and responds to detection of tap gesture 950p to multicast affordance 736. At corresponding locations, device 700 begins recording media via one or more input devices as described above (eg, FIGS. 7C and 7I). In some embodiments, in FIG. 9P, device 700 detects one or more audio inputs, such as audio input 720a (as described above), to play to Jane corresponding to the bedroom target group. Send an audio multicast message.

図9Q~9Vは、スマートウォッチ701などのデバイス700よりも小さいディスプレイを有するデバイス上に上述のユーザインタフェースを表示するための例示的なユーザインタフェースを示す。上述したユーザインタフェースのいずれかは、図9A~9Pのために上述したものと1つ以上の類似の技術を使用して、スマートウォッチ701(例えば、ユーザインタフェース970、972、974、976、978、及び980)(又はタブレット634)上で表示及び遷移することができる。 9Q-9V illustrate exemplary user interfaces for displaying the user interfaces described above on a device having a smaller display than device 700, such as smartwatch 701. FIG. Any of the user interfaces described above may be implemented using one or more similar techniques to those described above for FIGS. and 980) (or tablet 634).

図9W~9Xは、コンピュータデバイス674などのデバイス上で上述したユーザインタフェースを表示するための例示的なユーザインタフェースを示す。上述のように、いくつかの実施形態では、コンピュータデバイス674は、1つ以上のユーザインタフェースを表示するためのコンピュータデバイス674の命令を送信する1つ以上のデバイスと通信する。上述したユーザインタフェースのいずれかは、図9A~9Pのために上述したものと1つ以上の類似の技術を使用して、コンピュータデバイス674(例えば、ユーザインタフェース996及び998)上で表示及び遷移することができる。 9W-9X illustrate exemplary user interfaces for displaying the user interfaces described above on a device such as computing device 674. FIG. As noted above, in some embodiments, computing device 674 communicates with one or more devices that transmit instructions to computing device 674 to display one or more user interfaces. Any of the user interfaces described above are displayed and transitioned on computing device 674 (eg, user interfaces 996 and 998) using one or more similar techniques to those described above for FIGS. 9A-9P. be able to.

図10は、いくつかの実施形態に係る、コンピュータシステムを使用した通知を表示するための方法を示すフロー図である。方法1000は、ディスプレイ生成構成要素と通信するコンピュータシステム(例えば、100、300、500、634、674、700、701、850)で実行される。方法1000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 FIG. 10 is a flow diagram illustrating a method for displaying notifications using a computer system, according to some embodiments. Method 1000 is executed in a computer system (eg, 100, 300, 500, 634, 674, 700, 701, 850) in communication with display generation components. Some acts of method 1000 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

後述するように、方法1000は、通知を表示するための直観的方法を提供する。この方法は、通知を検視する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的に通知にアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 1000 provides an intuitive way to display notifications. This method reduces the user's cognitive burden in reviewing notifications, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to access notifications faster and more efficiently saves power and extends the time between battery charges.

コンピュータシステムは、第1のメディアに対応する第1のデータを受信する(1002)。 A computer system receives (1002) first data corresponding to a first medium.

コンピュータシステムは、(例えば、第1のデータの受信に応答して)ディスプレイ生成構成要素を介して、第1の時間周期の端部(例えば、所定の第1の時間周期)まで、第1のメディア(例えば、904b、904c)(例えば、第1のデータに対応する通知)(例えば、第1のメディアを再生するプロセスを開始するために選択可能な通知)の示唆を有する第1の通知(例えば、906a、908a、910)を表示する(1004)。 The computer system, via the display generation component (eg, in response to receiving the first data), until the end of the first time period (eg, a predetermined first time period), displays the first A first notification (e.g., 904b, 904c) (e.g., a notification corresponding to first data) (e.g., a notification selectable to initiate a process of playing the first media) with an indication of media (e.g., 904b, 904c) For example, 906a, 908a, 910) are displayed (1004).

コンピュータシステムは、第1のデータを受信した後(例えば、第1の通知のディスプレイの開始後)、第2のメディアに対応する第2のデータを受信するものであって(1006)、第2のメディア(例えば、9Jの932)は、第1のメディア(例えば、9Kの932)とは異なる。 After receiving the first data (e.g., after initiating display of the first notification), the computer system receives second data corresponding to the second media (1006); (eg, 932 of 9J) is different from the first media (eg, 932 of 9K).

コンピュータシステムは、第2のメディアが1つ以上の基準の1組を満たすとの判定に従い(及び、いくつかの実施形態では、1つ以上の基準は、第2のメディアが第1のメディアと同じ目標グループに向けられたときに満たされる基準を含み)、並びに(1)第2のデータが受信された時間、及び(2)第1のデータが受信された時間に基づく判定(例えば、第2のデータが、第1のデータが受信された後に所定の時間内に受信されたとの判定)に従って、ディスプレイ生成構成要素を介して、第2の時間周期の端部まで(例えば、第2のデータの受信に応答して)表示する(1008)。いくつかの実施形態では、第2の時間周期は、第2のデータの受信に基づく。いくつかの実施形態では、第2の時間周期は、第1のデータの受信に基づくものではない。いくつかの実施形態では、第2の時間周期は、所定の第2の時間周期である)、第1のメディア(例えば、9Kの932)(例えば、少なくとも第1のデータに対応する通知)(例えば、少なくとも第1のメディアを再生するためのプロセスを開始するために選択可能な通知)(例えば、少なくとも第1のデータの受信を示す通知)の示唆(例えば、906bの示唆(例えば、「ジョン」)、908b(例えば、「2」))を有する第2の通知(例えば、906b、908b、908c)、ここで、第1の時間周期の端部は、第2の時間周期の端部と異なる。いくつかの実施形態では、第2の通知は、第1の通知である。いくつかの実施形態では、第2の通知は、第1の通知とは異なる(例えば、第2の通知は、(1)第1のメディアに対応する情報と、(2)第2のメディアに対応する情報とを組み合わせる通知である)。いくつかの実施形態では、第2の通知は、第1の時間周期の後に表示される(例えば、最初に表示される)。いくつかの実施形態では、第2のメディアの受信が第1のメディアの受信の所定時間内であるとき、第1のメディアに対応する情報が表示される時間の長さが延長される。いくつかの実施形態では、第2の時間周期は、第1のデータが受信されたときと第2のデータが受信されたときとの間の差に基づいて決定される。いくつかの実施形態では、メディア(例えば、第1のメディア、第2のメディア)は、別のデバイスで記録され、第1のデータ及び第2のデータを受信するコンピュータシステムを含む、デバイスのグループに送信された音声メッセージである。いくつかの実施形態では、1つ以上の基準の1組は、第1のメディアのディスプレイ期間(例えば、通知が有効である持続時間、通知が通知の集合に表示される持続時間)の端部の前に第2のメディアが受信されたときに満たされる基準を含む。いくつかの実施形態では、1つ以上の基準の1組は、(例えば、第1の通知のアクティブ化を介して、第1の通知をクリアするユーザ入力を介して)第1の通知を表示することを停止する前に第2のメディアが受信されたときに満たされる基準を含む。特定の基準が満たされたときに第2の通知に関連した第1の通知に含まれる通知を含む第2の通知を動的に表示することにより、ユーザに、第2の通知と第1の通知の間の関係についてのフィードバックを提供し、同時にまた、第1の通知の表示を中止した場合であっても、第1の通知に含まれる示唆を表示し続けることを可能にする。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 The computer system follows a determination that the second medium satisfies a set of one or more criteria (and, in some embodiments, the one or more criteria determine whether the second medium meets the first medium). and (2) determinations based on (1) the time the second data is received, and (2) the time the first data is received (e.g., the criteria that are met when directed to the same target group); 2 data is received within a predetermined time period after the first data is received), through the display generation component until the end of the second time period (e.g., the second display (1008) in response to receiving the data. In some embodiments, the second time period is based on receiving the second data. In some embodiments, the second time period is not based on receiving the first data. In some embodiments, the second time period is a predetermined second time period), the first media (e.g., 932 of 9K) (e.g., notifications corresponding to at least the first data) ( e.g., a notification selectable to initiate a process for playing at least the first media) (e.g., a notification indicating receipt of at least the first data) (e.g., an indication of 906b (e.g., "John '), a second notification (eg, 906b, 908b, 908c) with 908b (eg, '2'), where the end of the first time period is the end of the second time period. different. In some embodiments, the second notification is the first notification. In some embodiments, the second notification is different than the first notification (eg, the second notification includes (1) information corresponding to the first medium and (2) information corresponding to the second medium). It is a notification that combines the corresponding information). In some embodiments, the second notification is displayed after the first time period (eg, displayed first). In some embodiments, the length of time the information corresponding to the first media is displayed is extended when the reception of the second media is within a predetermined time period of the reception of the first media. In some embodiments, the second time period is determined based on the difference between when the first data is received and when the second data is received. In some embodiments, the media (e.g., first media, second media) are recorded on separate devices, and a group of devices including a computer system that receives the first data and the second data. A voice message sent to In some embodiments, the set of one or more criteria is the end of the display period of the first media (e.g., the duration for which the notification is valid, the duration for which the notification is displayed in the set of notifications) contains criteria that are met when the second media is received before . In some embodiments, the set of one or more criteria displays the first notification (eg, via activation of the first notification, via user input clearing the first notification) It contains criteria that are met when the second media is received before it stops playing. By dynamically displaying a second notification that includes a notification included in the first notification that is related to the second notification when certain criteria are met, the user is informed about the second notification and the first notification. It provides feedback on the relationship between the notifications, while also allowing the suggestions contained in the first notification to continue to be displayed even if the display of the first notification ceases. Improve the usability of the computer system by providing the user with improved visual feedback (e.g., assist the user in providing appropriate input when operating/interacting with the computer system) reduce power usage by making the user-system interface more efficient (by reducing user errors), as well as enabling users to use the computer system more quickly and efficiently and improve the battery life of your computer system.

いくつかの実施形態では、第1の通知(例えば、906a)は、第2のデータが受信される時に(例えば、第2のメディアが1つ以上の基準の1組を満たすとの判定に従って)表示されている。いくつかの実施形態では、第2の通知(例えば、906b)の表示の一部として、コンピュータシステムは、第1の通知の表示を中止する(例えば、図9Eで)。いくつかの実施形態では、第2のメディアが1つ以上の基準の1組を満たすとの判定に従い(及び、いくつかの実施形態では、1つ以上の基準は、第2のメディアが第1のメディアと同じ目標グループに向けられたときに満たされる基準を含む)、及び第2のデータが第1のデータが受信された後の所定の時間内に受信されたとの判定に従って、第1の通知の表示を停止する。第2の通知が第1の通知に関する情報を含むときに第1の通知を表示することを停止することにより、ユーザインタフェースを乱すことなく、第1の通知の情報に関するフィードバックがユーザに提供される。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, the first notification (eg, 906a) is sent when the second data is received (eg, in accordance with a determination that the second media meets a set of one or more criteria). is displayed. In some embodiments, as part of displaying the second notification (eg, 906b), the computer system ceases displaying the first notification (eg, in FIG. 9E). In some embodiments, according to a determination that the second medium satisfies a set of one or more criteria (and in some embodiments, the one or more criteria are such that the second medium media), and determining that the second data was received within a predetermined time period after the first data was received. Stop showing notifications. By stopping displaying the first notification when the second notification contains information about the first notification, feedback is provided to the user regarding the information in the first notification without disrupting the user interface. . Improve device usability by providing users with improved visual feedback (e.g., assist users in providing appropriate input when operating/interacting with a computer system). It makes the user-system interface more efficient (by reducing user error), as well as reducing power usage by enabling users to use computer systems more quickly and efficiently. , to improve the battery life of computer systems.

いくつかの実施形態では、第1のメディアは、第1の音声メッセージ(例えば、9Kの932)(例えば、外部デバイスで(マイクロフォンを使用して)記録され、外部デバイスによってデバイスのグループに送信される音声メッセージ、コンピュータシステムを含む複数の外部デバイスに向けられた(例えば、送信された)音声メッセージ)である。いくつかの実施形態では、第2の音声メッセージは、第2の複数の外部デバイス(例えば、複数の外部デバイスとは異なる、複数の外部デバイスと同じ)に向けられた(又は送信された)第2の音声メッセージである。マルチキャストされた音声メッセージに関連付けられた通知を表示することは、通知のタイプに関する視覚的フィードバックをユーザに提供し、これにより、通知が減衰し、所定の時間の期間に応答される必要があることをユーザに識別させる。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, the first media is a first voice message (e.g., 932 of 9K) (e.g., recorded by an external device (using a microphone) and transmitted by the external device to a group of devices. voice messages directed to (eg, sent to) multiple external devices, including computer systems. In some embodiments, the second voice message is directed to (or sent to) a second plurality of external devices (eg, the same plurality of external devices, different from the plurality of external devices). 2 voice message. Displaying a notification associated with a multicast voice message provides visual feedback to the user as to the type of notification, indicating that the notification should decay and be responded to within a predetermined time period. is identified by the user. Improve the usability of the computer system by providing the user with improved visual feedback (e.g., assist the user in providing appropriate input when operating/interacting with the computer system) reduce power usage by making the user-system interface more efficient (by reducing user errors), as well as enabling users to use the computer system more quickly and efficiently and improve the battery life of your computer system.

いくつかの実施形態では、第1の通知(例えば、904)は、第1のメディア(例えば、9Kの932)が(例えば、メディアに対応する第1のデータが送信された)複数の外部デバイスのグループの示唆(例えば、904d)を含む。いくつかの実施形態では、第1のデータは、第1のメディアが向けられた複数の外部デバイスのグループを識別する。いくつかの実施形態では、複数の外部デバイスはコンピュータシステムを含む。第1のメディアが向けられたデバイスのグループの示唆を含む通知を表示することにより、ユーザに、再生メッセージを送信及び/又は受信するデバイスに関するフィードバックが提供される。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, the first notification (eg, 904) indicates that the first media (eg, 932 of 9K) is (eg, the first data corresponding to the media was sent) multiple external devices. group suggestions (eg, 904d). In some embodiments, the first data identifies a group of multiple external devices to which the first media is directed. In some embodiments, the plurality of external devices includes computer systems. By displaying a notification that includes an indication of the group of devices to which the first media is directed, the user is provided with feedback regarding the devices sending and/or receiving the playback message. Improve the usability of the computer system by providing the user with improved visual feedback (e.g., assist the user in providing appropriate input when operating/interacting with the computer system) reduce power usage by making the user-system interface more efficient (by reducing user errors), as well as enabling users to use the computer system more quickly and efficiently and improve the battery life of your computer system.

いくつかの実施形態では、第1のデータの受信に応答して、コンピュータシステムは、第1の時間周期(例えば、所定の第1の時間周期)の端部まで、第1の通知(例えば、906a)を通知の集合(例えば、図9B~9Hに表示された通知)(例えば、通知の集合の表示を要求するユーザ入力に応答して表示され、ディスプレイのためにアクセス可能な通知の集合、最近の通知のリスト表示)に追加する、いくつかの実施形態では、第1の時間周期の端部に到達することに従い、コンピュータシステムは、通知の集合から第1の通知(例えば、904)を除去する。いくつかの実施形態では、第1の時間周期の端部の前に、第2のメディアに対応する第2のデータを受信することに従い、及び第2のメディアが1つ以上の基準の1組を満たすとの判定に従って、コンピュータシステムは、通知の集合から第1の通知(例えば、906a)を除去し、通知の集合に第2の通知(例えば、906b)を追加する。いくつかの実施形態では、第1の所定の時間周期の端部の前に、メディアに対応するデータを受信することに従い、及び第2のメディアが1つ以上の基準の1組を満たさないとの判定に従って、通知の集合から第1の通知を除去することなく、通知の集合に第2の通知を追加する。いくつかの実施形態では、コンピュータシステムは、第1の通知のためにディスプレイの端部条件が満たされることに従って、通知の集合から第1の通知を除去する。通知に関連する追加のデータ(例えば、更新なし、又は新たなメディアなし)が特定の時間の期間内に受信されていないときに通知を削除することを選択することにより、デバイスは、ユーザが通知を手動で削除することを必要とせずに、UIを乱すユーザに失効(例えば、古い、非関連)通知を提供することを回避することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, in response to receiving the first data, the computer system sends a first notification (e.g., 906a) a set of notifications (e.g., the notifications displayed in FIGS. 9B-9H) (e.g., a set of notifications displayed in response to user input requesting display of a set of notifications and accessible for display; list display of recent notifications), in some embodiments, upon reaching the end of the first time period, the computer system retrieves the first notification (e.g., 904) from the collection of notifications. Remove. In some embodiments, prior to the end of the first time period, according to receiving second data corresponding to the second medium, and the second medium is the set of one or more criteria , the computer system removes the first notification (eg, 906a) from the set of notifications and adds the second notification (eg, 906b) to the set of notifications. In some embodiments, according to receiving data corresponding to the media before the end of the first predetermined time period, and if the second media does not meet the set of one or more criteria. adding a second notification to the set of notifications without removing the first notification from the set of notifications according to the determination of . In some embodiments, the computer system removes the first notification from the set of notifications according to the display edge condition being met for the first notification. By choosing to delete a notification when no additional data related to the notification (e.g., no updates or no new media) has been received within a certain period of time, the device will allow the user to can be avoided from providing stale (e.g., old, irrelevant) notifications to users that clutter the UI without having to manually delete the . Improve the usability of a computer system (e.g., operate the computer system/computer system make the user-system interface more efficient (by helping the user to provide appropriate input and reduce user error when interacting with the Reduce power usage and improve computer system battery life by enabling the use of

いくつかの実施形態では、第1のデータは、第1のメディアが向けられた(例えば、送信された)複数の外部デバイスの目標グループを識別する。いくつかの実施形態では、第1のメディア(例えば、及び、通知がアクティブ化されるとき、第1のメディア(例えば、第1の音声メッセージ)を再生するためのプロセスを開始する)に対応する通知(例えば、906a、908a、910)(例えば、第1の通知)を表示している間に、コンピュータシステムは、第3のメディアに対応する第3のデータを受信する(1010)。いくつかの実施形態では、第3のメディアに対応する第3のデータの受信に応答し(1012)、及び第3のメディアが1つ以上の基準の1組を満たすとの判定に従って(いくつかの実施形態では、1つ以上の基準は、メディアが第1のメディアと同じデバイスの目標グループに向けられたときに満たされる基準を含む)、コンピュータシステムは、第1のメディア(例えば、及び、通知がアクティブ化すると、第1のメディア(例えば、第1の音声メッセージ)を再生するためのプロセスを開始する)に対応する通知(例えば、第1の通知、第2の通知)が表示される(例えば、図9Fの906b)間、持続時間を延長する(1014)。いくつかの実施形態では、第3のメディアに対応する第3のデータの受信に応答し(1012)、及び第3のメディアが1つ以上の基準の1組を満たさないとの判定に従って(例えば、第3のメディアは、第1のメディアと比較して、目標デバイスの異なる1組に向けられた)、コンピュータシステムは、第1のメディアに対応する通知が表示される間(例えば、図9Fの908a、910)持続時間を延長することを取り止める(1016)。いくつかの実施形態では、コンピュータシステムが1つ以上の基準の1組を満たすメディアに対応する追加のデータを受信すると、デバイスは、1つ以上の基準の1組を満たすメディアに応答して表示された直前の通知が、時間周期の端部に到達することに基づいて表示されることをまだ中止していない限り、ディスプレイ生成構成要素を介して通知が表示される間、持続時間を延長し続ける。したがって、音声メッセージが、目標デバイス(例えば、外部デバイス)の同じ1組に向けられて受信されると、音声メッセージのそのチェーンに関する通知は、直近に受信された音声メッセージが、ディスプレイのための対応する所定の時間周期に到達しない限り、継続して表示される。通知に関連する更新された情報が所定の時間の期間受信されたかどうかに基づいて、通知の減衰期間を延長するかどうかを選択することにより、ユーザが通知を手動で更新/削除する必要なしに、デバイスは新規の(例えば、新しい、関連する)通知をユーザに提供すると同時に、UIを乱すユーザへの失効通知(例えば、古い、非関連)の提供を回避することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, the first data identifies a target group of multiple external devices to which the first media is directed (eg, transmitted). In some embodiments, correspond to the first media (eg, and initiate a process to play the first media (eg, the first voice message) when the notification is activated) While displaying the notifications (eg, 906a, 908a, 910) (eg, the first notification), the computer system receives (1010) third data corresponding to a third medium. In some embodiments, in response to receiving 1012 third data corresponding to the third media, and in accordance with a determination that the third media satisfies a set of one or more criteria (some In an embodiment of , the one or more criteria include criteria that are met when the media is directed to the same target group of devices as the first media), the computer system controls the first media (e.g., and Upon activation of the notification, a corresponding notification (eg, first notification, second notification) is displayed, which initiates a process for playing the first media (eg, first voice message). Extend the duration (1014) while (eg, 906b in FIG. 9F). Some embodiments respond 1012 to receiving third data corresponding to the third media, and in accordance with a determination that the third media does not meet a set of one or more criteria (e.g. , the third media was directed to a different set of target devices as compared to the first media), the computer system will display the notification corresponding to the first media (e.g., FIG. 9F 908a, 910) stop extending the duration (1016). In some embodiments, when the computer system receives additional data corresponding to media meeting the set of one or more criteria, the device responds by displaying the media meeting the set of one or more criteria. Extends the duration while the notification is displayed via the display generation component, unless the previous notification that was sent has already ceased to be displayed based on reaching the end of the time period. continue. Thus, when a voice message is received directed to the same set of target devices (e.g., external devices), the notification for that chain of voice messages indicates that the most recently received voice message is the corresponding one for display. It will continue to be displayed until the predetermined time period is reached. Eliminates the need for users to manually update/delete notifications by choosing whether to extend the notification's decay period based on whether updated information associated with the notification has been received for a given period of time , the device can provide new (eg, new, relevant) notifications to the user while avoiding providing stale notifications (eg, old, irrelevant) to the user that clutter the UI. Improve the operability of a computer system (e.g., operate the computer system/computer system make the user-system interface more efficient (by assisting the user in providing appropriate input and reducing user error when interacting with the Reduce power usage and improve computer system battery life by enabling the use of

いくつかの実施形態では、第2のメディアが1つ以上の基準の1組を満たすとの判定に従って、第2の通知(例えば、1つ以上の基準の1組を満たす)は、第2の通知によって表される第1のメディア(例えば、音声メッセージの数)を含む、メディアの数(例えば、908a及び908b)に基づく(例えば、を示す)インジケータ(例えば、数)を含む。いくつかの実施形態では、通知のチェーンの第1の通知の後の後続の通知それぞれは、表示されている通知によって表されるメディアの数(例えば、音声メッセージの数)の示唆を含む。例えば、通知がチェーンの第5の通知である場合、通知は、通知が5つの受信されたメディア(例えば、5つの音声メッセージ)に対応することを示す。いくつかの実施形態では、第2のメディアが1つ以上の基準の1組を満たさないとの判定に従って、第2の通知(例えば、1つ以上の基準の1組を満たす)は、第2の通知によって表される第1のメディア(例えば、音声メッセージの数)を含む、メディアの数に基づく(例えば、を示す)インジケータ(例えば、数)を含まない。デバイスの目標グループから受信されたメディアアイテムの数(音声マルチキャストメッセージ(例えば、1つ以上のデバイスにマルチキャストされた音声メッセージ))の示唆を更新することにより、現在の状態、デバイスの遵守された目標グループに対して受信されたメディアアイテムの数に関するフィードバックがユーザに提供される。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, upon determining that the second media satisfies the set of one or more criteria, the second notification (eg, satisfies the set of one or more criteria) is sent to the second Includes an indicator (eg, number) based on (eg, showing) the number of media (eg, 908a and 908b), including the first media represented by the notification (eg, the number of voice messages). In some embodiments, each subsequent notification after the first notification in a chain of notifications includes an indication of the number of media (eg, number of voice messages) represented by the displayed notification. For example, if the notification is the fifth notification in the chain, the notification indicates that the notification corresponds to 5 received media (eg, 5 voice messages). In some embodiments, following a determination that the second media does not meet the set of one or more criteria, the second notification (eg, meeting the set of one or more criteria) is sent to the second does not include an indicator (eg, a number) based on (eg, indicating) the number of media that includes the first media (eg, the number of voice messages) represented by the notification. By updating indications of the number of media items (audio multicast messages (e.g., audio messages multicast to one or more devices)) received from the device's target group, the current state, the device's adhered goals Feedback is provided to the user regarding the number of media items received for the group. Improve the usability of the computer system by providing the user with improved visual feedback (e.g., assist the user in providing appropriate input when operating/interacting with the computer system) reduce power usage by making the user-system interface more efficient (by reducing user errors), as well as enabling users to use computer systems more quickly and efficiently and improve the battery life of your computer system.

いくつかの実施形態では、第2の通知は、第1のメディアの示唆を含む。いくつかの実施形態では、第2の通知(例えば、602b)を表示している間に、コンピュータシステムは、第2の通知に向けられた入力(例えば、950h)を受信する。いくつかの実施形態では、第2の通知に向けられた入力の受信に応答して(例えば、及び第2のメディアが1つ以上の基準の1組を満たすとの判定に従って)、コンピュータシステムは、第1のメディア及び第2のメディアを再生するためのプロセスを開始する(例えば、図9I~9Jの920、922)(例えば、第1のメディア及び第2のメディアを再生する、第1のメディア及びその後に第2のメディアの再生を開始するためのユーザインタフェースを表示する)。いくつかの実施形態では、第1及び第2のメディアを再生するためのプロセスを開始することは自動的に(例えば、ユーザ入力の介在なしに第2の通知に向けられた入力の受信に応答して)、第1のメディア、その後、第2のメディアを再生し、第1のメディアを再生するためのユーザインタフェース(例えば、741)を表示することを含む。いくつかの実施形態では、第2の通知に向けられた入力の受信に応答し、及び第2のメディアが1つ以上の基準の1組を満たさないとの判定に従って、第1のメディアを再生することなく第2のメディアを再生するためのプロセスを開始することの一部として(例えば、第2のメディアを再生し、第1のメディアを再生しないユーザインタフェースを表示する)、コンピュータシステムは、第2のメディアの再生を開始し、その後に第1のメディアを自動的には再生しない。いくつかの実施形態では、第2のメディアが1つ以上の基準の1組を満たさないという判定に従って、第1の通知を表示している間に、コンピュータシステムは、第1の通知に向けられた入力を受信し、第1の通知に向けられた入力の受信に応答して、第2のメディアを再生することなく第1のメディアを再生するためのプロセスを開始する。 In some embodiments, the second notification includes the first media suggestion. In some embodiments, while displaying the second notification (eg, 602b), the computer system receives input directed to the second notification (eg, 950h). In some embodiments, in response to receiving input directed to the second notification (eg, and in accordance with determining that the second media meets a set of one or more criteria), the computer system: , initiate a process for playing the first media and the second media (eg, 920, 922 in FIGS. 9I-9J) (eg, playing the first media and the second media, the first display a user interface for initiating playback of media and then secondary media). In some embodiments, initiating the process for playing the first and second media automatically (e.g., in response to receiving input directed to the second notification without user input intervention). ), playing the first media and then the second media, and displaying a user interface (eg, 741) for playing the first media. In some embodiments, playing the first media in response to receiving input directed to the second notification and in accordance with determining that the second media does not meet the set of one or more criteria. As part of initiating a process to play the second media without playing (e.g., displaying a user interface that plays the second media and does not play the first media), the computer system: Begin playing the second media, then do not automatically play the first media. In some embodiments, the computer system is directed to the first notification while displaying the first notification following a determination that the second media does not meet the set of one or more criteria. receiving the input directed to the first notification and, in response to receiving input directed to the first notification, initiating a process for playing the first media without playing the second media.

いくつかの実施形態では、第2のメディアは、1つ以上の基準の1組を満たす(例えば、第2のメディアは、第1のメディアと同じ外部デバイスに向けられる)。いくつかの実施形態では、第2の通知(例えば、908c)を表示している間に、コンピュータシステムは、第2の通知に向けられた入力(例えば、950l)を受信する。いくつかの実施形態では、第2の通知に向けられた入力の受信に応答して(例えば、第2のメディアが1つ以上の基準の1組を満たすとの判定に従って)、コンピュータシステムは、第1のメディアを再生するためのユーザインタフェースを表示するものであって(例えば、960)(例えば、第1のメディア及び第2のメディアを再生するためのプロセスを開始することの一部として)、第1のメディアを再生するためのユーザインタフェースは、記録ユーザインタフェースオブジェクト対象(例えば、選択可能な記録ボタン)を含む。いくつかの実施形態では、記録(例えば、736)ユーザインタフェースオブジェクト対象の選択(例えば、950p)によって、第1のデータが第1のメディアが向けられた(例えば、送信された)複数の外部デバイスの第1のグループ(例えば、寝室デバイス)を識別するとの判定に従い、コンピュータシステムは、音声メッセージを複数の外部デバイスの第1のグループ(例えば、及び第2のグループではない)に送信するためのプロセス(例えば、730、740、750)を開始する。いくつかの実施形態では、記録(例えば、736)ユーザインタフェースオブジェクト対象の選択(例えば、950p)によって、第1のデータが第1のメディアが向けられた(例えば、送信された)、第1のグループとは異なる、複数の外部デバイスの第2のグループ(例えば、ホームデバイス)を識別するとの判定に従い、コンピュータシステムは、音声メッセージを複数の外部デバイスの第2のグループ(例えば、及び第1のグループではない)に送信するためのプロセス(例えば、780a、784、786a)を開始する。いくつかの実施形態では、コンピュータシステムは、記録ユーザインタフェースオブジェクト対象の選択(例えば、タップ、押圧、及び保持)を検出し、記録ユーザインタフェースオブジェクト対象の選択の検出に応答して、上述のように、対応する動作を開始する。いくつかの実施形態では、外部デバイスの1組は、トップレベルの場所(又は宛先)(例えば、第1のタイプの場所)(例えば、ホーム場所、ビジネス、オフィス(トップレベルの場所にある場所(例えば、1つ以上の場所を定義する場所(例えば、サブ場所)及び/又はトップレベルの場所の場所によって定義されるエリア及び/又は周辺部内にある1つ以上の領域(又はゾーン)、場所の階層のトップレベルにある場所、1つ以上の場所(例えば、サブ位置)に(例えば、プログラムで)リンクされた場所及び/又は1つ以上の領域(又はゾーン)))に関連付けられている。いくつかの実施形態では、音声メッセージを送信するためのプロセスを開始することは、コンピュータシステムによって検出された音声を記録することによって、音声メッセージを記録することを含む。いくつかの実施形態では、第1のメディアを再生するためのユーザインタフェースは、グループ(例えば、トップレベルの場所、サブ場所)の示唆(例えば、文字示唆、グラフィカル示唆)(例えば、音声メッセージが送信される部屋又はゾーンの名前を指定する文字)を含む。 In some embodiments, the second media satisfies a set of one or more criteria (eg, the second media is directed to the same external device as the first media). In some embodiments, while displaying the second notification (eg, 908c), the computer system receives input directed to the second notification (eg, 950l). In some embodiments, in response to receiving input directed to a second notification (eg, in accordance with determining that the second media meets a set of one or more criteria), the computer system: displaying a user interface for playing the first media (e.g., 960) (e.g., as part of initiating a process for playing the first media and the second media); , the user interface for playing the first media includes a record user interface object target (eg, a selectable record button). In some embodiments, a recording (eg, 736) user interface object target selection (eg, 950p) causes the first data to be directed (eg, transmitted) to a plurality of external devices. following a determination to identify a first group (e.g., bedroom devices) of a plurality of external devices for sending a voice message to a first group (e.g., and not a second group) of a plurality of external devices. Start a process (eg, 730, 740, 750). In some embodiments, selection of a recording (eg, 736) user interface object target (eg, 950p) causes the first data to be directed (eg, transmitted) to the first media. Upon determining to identify a second group of external devices (e.g., home devices) different from the group, the computer system transmits the voice message to the second group of external devices (e.g., the first start a process (e.g., 780a, 784, 786a) to send to a non-group). In some embodiments, the computer system detects selection (e.g., tapping, pressing, and holding) of a recording user interface object target and, in response to detecting selection of a recording user interface object target, , to initiate the corresponding action. In some embodiments, the set of external devices is a top-level location (or destination) (e.g., a first type of location) (e.g., a home location, a business, an office (a location at a top-level location ( For example, one or more regions (or zones) within an area and/or perimeter defined by a location (e.g., sub-location) defining one or more locations and/or a location of a top-level location; A location at the top level of the hierarchy, a location linked (eg, programmatically) to one or more locations (eg, sub-locations) and/or associated with one or more regions (or zones)). In some embodiments, initiating the process for sending the voice message includes recording the voice message by recording sound detected by the computer system. The user interface for playing the first media includes suggestions (eg, textual suggestions, graphical suggestions) of groups (eg, top-level locations, sub-locations) (eg, names of rooms or zones in which voice messages are sent). characters that specify ).

いくつかの実施形態では、第1のメディアを再生するためのユーザインタフェース(例えば、960)を表示している間に(例えば、第1のメディア及び第2のメディアを再生するためのプロセスを開始することの一部として)表示している間に、コンピュータシステムは、(例えば、タッチ感知面を使用して、1つ以上の入力デバイスを介して)ユーザ入力を受信する(例えば、950i、950m2、950n)。いくつかの実施形態では、ユーザ入力の受信に応答し、及びユーザ入力(例えば、950i)が再生ユーザインタフェースオブジェクト対象の選択に向けられたとの判定に従って(例えば、第1のメディアを再生するためのユーザインタフェースの一部として表示される再生ボタン上のタップ)、コンピュータシステムは、第1のメディアを再生する(及び、任意選択的に、自動的にその後、第2のメディアを再生し、第2のメディアを再生するためにユーザインタフェースに切り替える)。いくつかの実施形態では、ユーザ入力の受信に応答し、及びユーザ入力が、第1のメディアを再生するためのユーザインタフェースに向けられたスワイプジェスチャ(例えば、950m2、950n)(例えば、第1のメディアを再生するためのユーザインタフェース上の左スワイプジェスチャ)との判定に従って、コンピュータシステムは、第1のメディアを再生するためのユーザインタフェースのディスプレイを第2のメディアを再生するためのユーザインタフェースのディスプレイ(例えば、第1のメディアを再生することなく第2のメディアを再生するための再生ボタンを含む)に置き換える。いくつかの実施形態では、ユーザ入力の受信に応答し、及びユーザ入力(例えば、950i)が再生ユーザインタフェースオブジェクト対象の選択に向けられたとの判定に従って(例えば、第1のメディアを再生するためのユーザインタフェースの一部として表示される再生ボタン上のタップ)、コンピュータシステムは、第2のメディア(例えば、通知に対応する直近に受信されたメディア)を再生し、その後、第1のメディアを再生する。 In some embodiments, while displaying a user interface (e.g., 960) for playing the first media (e.g., a process for playing the first media and the second media is initiated) while displaying), the computer system receives user input (e.g., via one or more input devices using a touch-sensitive surface) (e.g., 950i, 950m2 , 950n). In some embodiments, in response to receiving user input and in accordance with determining that the user input (e.g., 950i) was directed to selecting a playback user interface object target (e.g., to play the first media). A tap on a play button displayed as part of the user interface), the computer system plays the first media (and, optionally, automatically thereafter plays the second media and switch to the user interface to play the media). In some embodiments, in response to receiving user input, and the user input is a swipe gesture (eg, 950m2, 950n) directed to a user interface for playing the first media (eg, the first A left swipe gesture on the user interface for playing the media), the computer system displays the user interface for playing the first media, and displays the user interface for playing the second media. (eg, including a play button to play the second media without playing the first media). In some embodiments, in response to receiving user input and in accordance with determining that the user input (e.g., 950i) was directed to selecting a playback user interface object target (e.g., to play the first media). tap on a play button displayed as part of the user interface), the computer system plays the second media (e.g., the most recently received media corresponding to the notification), then plays the first media do.

いくつかの実施形態では、第1のメディアを再生する(例えば、第1のメディア及び第2のメディアを再生するためのプロセスを開始することの一部として)ためのユーザインタフェース(例えば、図15B~15Eの720)を表示している間、及び第1のメディアを再生している間に、コンピュータシステムは入力を受信する。いくつかの実施形態では、ユーザ入力の受信に応答し、及びユーザ入力が第1のメディアを再生するためのユーザインタフェース上の第1の場所(例えば、ユーザインタフェース720上の736の場所)に向けられたとの判定に従って、コンピュータシステムは、新しいメディア(例えば、1つ以上の音声マルチキャストメッセージ)を送信し、記録する(及び、任意選択的に、送信のために音声を自動的に記録する)ためのユーザインタフェース(例えば、741)を表示する。いくつかの実施形態では、ユーザ入力の受信に応答し、及びユーザ入力が第1のメディアを再生するためのユーザインタフェース上の第2の場所(例えば、1534の場所)に向けられたとの判定に従って、コンピュータシステムは、(例えば、1524aに対応する)第1のメディアを再生するためのユーザインタフェースのディスプレイを、(例えば、1524bに対応する)第2のメディアを再生するためのユーザインタフェースのディスプレイに置き換えるものであって、第1のメディアを再生するためのユーザインタフェース上の第2の場所は、第1のメディアを再生するためのユーザインタフェース上の第1の場所とは異なる。ユーザ入力が第1の場所に向けられ、タップ入力であるとの判定に従って、コンピュータシステムは、後続の入力(例えば、第1の場所と同じ場所(又は第1の場所の近く)で検出される後続の入力)が検出されるまで(例えば、1つ以上のマイクロフォンを介して)音声を自動的に記録する。ユーザ入力が第1の場所に向けられ、押圧及び保持ジェスチャであるとの判定に従って、コンピュータシステムは、ユーザ入力の端部が検出されるまで(例えば、1つ以上のマイクロフォンを介して)音声を自動的に記録する。いくつかの実施形態では、第2の通知を表示している間に、コンピュータシステムは、第2の通知に向けられた入力(例えば、950h)を受信する。いくつかの実施形態では、第2の通知に向けられた入力の受信に応答して、コンピュータシステムは、第2の通知の表示を中止する。いくつかの実施形態では、第2の通知がアクティブ化されると、第2の通知は、(例えば、ディスプレイのためにユーザがアクセス可能な、通知の集合を表示することを要求するユーザ入力に応答して表示される、コンピュータシステムで受信された最近の通知のリスト表示)通知の集合から除去される。いくつかの実施形態では、通知の集合は、他の通知(例えば、電子メール通知、インスタントメッセージング通知)を引き続き含む。通知が対話されたときに通知の除去を選択することにより、デバイスは、ユーザが通知を手動で削除することを必要とせずに、UIを乱すユーザに失効通知(例えば、古い、非関連)を提供することを回避することを可能にする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, a user interface (e.g., FIG. 15B 720 of ~15E) and while playing the first media, the computer system receives input. In some embodiments, in response to receiving user input and directing the user input to a first location on the user interface (eg, location 736 on user interface 720) for playing the first media. the computer system to transmit and record new media (e.g., one or more audio multicast messages) (and, optionally, automatically record audio for transmission). display the user interface (eg, 741). In some embodiments, in response to receiving user input and in accordance with determining that the user input was directed to a second location (e.g., location 1534) on the user interface for playing the first media. , the computer system displays a user interface for playing the first media (e.g., corresponding to 1524a) to a display of a user interface for playing the second media (e.g., corresponding to 1524b). As a replacement, the second location on the user interface for playing the first media is different than the first location on the user interface for playing the first media. Upon determining that user input is directed to a first location and is a tap input, the computer system detects subsequent input (e.g., at the same location as (or near) the first location). Automatically record audio (eg, via one or more microphones) until subsequent input) is detected. Upon determining that the user input is directed to the first location and is a press and hold gesture, the computer system outputs sound (eg, via one or more microphones) until an end of the user input is detected. Record automatically. In some embodiments, while displaying the second notification, the computer system receives input directed to the second notification (eg, 950h). In some embodiments, in response to receiving input directed to the second notification, the computer system ceases displaying the second notification. In some embodiments, when the second notification is activated, the second notification responds to user input (e.g., requesting to display a set of notifications accessible to the user for display). A listing of recent notifications received by the computer system displayed in response) removed from the set of notifications. In some embodiments, the collection of notifications continues to include other notifications (eg, email notifications, instant messaging notifications). By opting to remove notifications when they are interacted with, the device can send stale notifications (e.g., old, irrelevant) to the user cluttering the UI without requiring the user to manually delete the notification. allow you to avoid providing Improve the operability of a computer system (e.g., operate the computer system/computer system make the user-system interface more efficient (by assisting the user in providing appropriate input and reducing user error when interacting with the Reduce power usage and improve computer system battery life by enabling the use of

いくつかの実施形態では、コンピュータシステムは、場所(例えば、トップレベルの場所(ホーム)、サブ場所(ホームの部屋)に向けられたメディアに対応するデータを受信する複数の外部デバイス(例えば、ホームの外部デバイスに向けられた音声メッセージを受信するデバイス)のグループにコンピュータシステムを含むかどうかを構成するためのユーザインタフェースを表示するものであって、グループのコンピュータシステムを含むかどうかを構成するためのユーザインタフェースは、コンピュータシステムの現在の物理的位置に関係なく(例えば、コンピュータシステムの場所センサによって判定されるように)、場所に向けられたメディアに対応するデータを受信する複数の外部デバイス(例えば、ホームの外部デバイスに向けられた音声メッセージを受信するデバイス)のグループにコンピュータシステムを(例えば、常に)含む、第1のオプション(例えば、799c)、及び、コンピュータシステムの現在の物理的位置に関係なく(例えば、コンピュータシステムの場所センサによって判定されるように)、場所に向けられたメディアに対応するデータを受信する複数の外部デバイス(例えば、ホームの外部デバイスに向けられた音声メッセージを受信するデバイス)のグループにコンピュータシステムを(例えば、決して)含まない第2のオプション(例えば、799a)を含む。いくつかの実施形態では、ユーザは、メディアに対応するデータを受信するために登録/登録解除する、又はメディアに対応する受信したデータに基づいて通知のディスプレイを有効/無効にするように、コンピュータシステムを構成することができる。 In some embodiments, a computer system includes multiple external devices (e.g., home to display a user interface for configuring whether a computer system is included in a group of devices that receive voice messages directed to external devices of the The user interface of a number of external devices (e.g., A first option (e.g., 799c) that includes (e.g., always) the computer system in a group of (e.g., devices that receive voice messages directed to external devices in the home), and the current physical location of the computer system. Multiple external devices (e.g., voice messages directed to home external devices) that receive data corresponding to location-directed media regardless of location (e.g., as determined by the computer system's location sensor). a second option (e.g., 799a) that does not (e.g., never) include the computer system in the group of receiving devices).In some embodiments, the user registers to receive data corresponding to the media. The computer system can be configured to enable/disable the display of notifications based on received data corresponding to/unregistering or media.

いくつかの実施形態では、コンピュータシステムは、場所(例えば、トップレベルの場所(ホーム)、サブ場所(ホームの部屋)に向けられたメディアに対応するデータを受信する複数の外部デバイス(例えば、ホームの外部デバイスに向けられた音声メッセージを受信するデバイス)のグループに対応するデータを受信する複数の外部デバイスのグループにコンピュータシステムを含むかどうかを構成するためのユーザインタフェースを表示するものであって、コンピュータシステムをグループに含むかどうかを構成するためのユーザインタフェースは、コンピュータシステム(例えば、700)が、現在、場所に対応する(例えば、ホームのジオフェンスされた周辺部内の、ホームの特定の部屋内の、コンピュータシステムの場所センサによって判定されたような)物理的場所にあるとき、場所に向けられたメディアに対応するデータを受信する複数の外部デバイス(例えば、ホームの外部デバイスに向けられた音声メッセージを受信するデバイス)のグループにコンピュータシステム(例えば、700)を含み、及びコンピュータシステム(例えば、700)が、現在、場所に対応する(例えば、ホームのジオフェンスされた周辺部内の、ホームの特定の部屋内の、コンピュータシステムの場所センサによって判定されたような)物理的場所にないとき、場所に向けられたメディアに対応するデータを受信する複数の外部デバイス(例えば、ホームの外部デバイスに向けられた音声メッセージを受信するデバイス)のグループにコンピュータシステム(例えば、700)を含まない、第3のオプション(例えば、77b)を含む。いくつかの実施形態では、ユーザは、コンピュータシステムがその場所にあるときには、場所のデバイスのグループに向けられたメディアに対応するデータのみを受信する(及び/又は通知のみを表示する)ようにシステムを構成する入力を提供できる(例えば、コンピュータシステムがホームにあるときには、ホームに向けられたメッセージのみを取得する、コンピュータシステムがその部屋にあるときには、部屋に向けられたメッセージのみを取得する)。 In some embodiments, a computer system includes multiple external devices (e.g., home display a user interface for configuring whether the computer system is included in a group of external devices receiving data corresponding to a group of devices receiving voice messages directed to the external devices of the , the user interface for configuring whether a computer system is included in a group indicates that the computer system (e.g., 700) currently corresponds to a location (e.g., within a geofenced perimeter of the home, a specific A plurality of external devices that receive data corresponding to location-directed media (e.g., home external devices) that receive data corresponding to location-directed media when at a physical location within a room (as determined by the computer system's location sensor). computer system (e.g., 700) in a group of devices (devices that receive voice messages that receive voice messages), and the computer system (e.g., 700) currently corresponds to a location (e.g., within a geofenced perimeter of a home, A plurality of external devices (e.g., outside the home) that receive data corresponding to location-directed media when not at a physical location within a particular room of the home (as determined by the computer system's location sensor). a third option (eg, 77b) that does not include the computer system (eg, 700) in the group of devices that receive voice messages directed to the device (eg, 77b). is at the location, input can be provided to configure the system to only receive data (and/or display only notifications) corresponding to media directed to a group of devices at the location (e.g., a computer system is at home, get only messages destined for the home; when the computer system is in the room, get only messages destined for the room).

方法1000(例えば、図10)に関して上記したプロセスの詳細はまた、後述/前述の方法にも同様の方法で適用可能であることに留意されたい。例えば、方法1000は、任意選択的に、方法800及び1200に関して前述/後述した様々な方法の特性のうちの任意の1つ以上を含む。例えば、コンピュータシステムは、同じシステムであってもよい。別の例では、方法800で送信された音声メッセージは、方法1000で受信したメディアとすることができる。別の例では、方法1200で送信された音声入力は、方法1000で受信したメディアと同じであり得る。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the process details described above with respect to method 1000 (eg, FIG. 10) are also applicable to the methods described below/above in a similar manner. For example, method 1000 optionally includes any one or more of the various method features described above/below with respect to methods 800 and 1200 . For example, the computer systems may be the same system. In another example, the voice message sent in method 800 can be media received in method 1000 . In another example, the audio input sent in method 1200 may be the same media received in method 1000 . For the sake of brevity, these details are not repeated below.

図11A~11Rは、視覚的なディスプレイを管理するための電子デバイス及び例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図12のプロセスを含む後述のプロセスを例示するために使用される。 11A-11R illustrate electronic devices and exemplary user interfaces for managing visual displays. The user interfaces of these figures are used to illustrate the processes described below, including the process of FIG.

図11A~11Rは、デバイス1100が、音声入力の一部が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであると判定する場合、デバイス1100は第1のタイプ(例えば、単一色の光)のビジュアルコンテンツを有する視覚的な指示を表示する、及びデバイス1100が、音声入力の一部が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであると判定できない(例えば、音声入力のどの部分も、音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきではないと判定する)場合、デバイス1100は第2のタイプ(例えば、複数色の光)のビジュアルコンテンツを有する視覚的な指示を表示するシナリオを示す。第1及び第2のタイプのビジュアルコンテンツは、例示のみを目的として以下に説明される。第1及び第2のタイプのビジュアルコンテンツは、発言された音声入力が1つ以上の外部デバイスに可能性としてマルチキャストされるかどうかの視覚的な指示をユーザに提供する。 11A-11R illustrate that when device 1100 determines that a portion of the audio input should be sent to one or more external devices as an audio multicast message, device 1100 may select a first type (eg, single color and the device 1100 cannot determine that a portion of the audio input should be sent as an audio multicast message to one or more external devices (e.g., determines that no portion of the audio input should be sent as an audio multicast message to one or more external devices), device 1100 has visual content of the second type (e.g., multi-colored lights) Demonstrate a scenario for displaying visual instructions. The first and second types of visual content are described below for illustrative purposes only. The first and second types of visual content provide a visual indication to the user whether spoken audio input is potentially multicast to one or more external devices.

図11Aは、人物の前に位置するテーブル上の位置にある電子デバイス1100を示す。デバイス1100はスマートスピーカであり、デバイス580の1つ以上の特徴を含む。例えば、デバイス1100は、1つ以上のディスプレイ580Eの1つ以上の構成要素を含む1つ以上のディスプレイ1102を含む。ディスプレイ1102は、複数のLEDを含む。いくつかの実施形態では、デバイス1100は、デバイス100、300、又は500の1つ以上の特徴を含む。図11Aでは、デバイス1100は、例示のみの目的のために、ホーム602及びリビングルーム602dと関連付けられている。したがって、図11Aでは、デバイス1100は、図6に関連して上述したようなリビングルームスピーカ646及び648のうちの1つである。いくつかの実施形態では、デバイス1100は、ホーム602(又は別のホーム)の別の部屋に関連付けられる。 FIG. 11A shows electronic device 1100 in position on a table in front of a person. Device 1100 is a smart speaker and includes one or more features of device 580 . For example, device 1100 includes one or more displays 1102 that include one or more components of one or more displays 580E. Display 1102 includes a plurality of LEDs. In some embodiments, device 1100 includes one or more features of devices 100, 300, or 500. FIG. In FIG. 11A, device 1100 is associated with home 602 and living room 602d for illustrative purposes only. Thus, in FIG. 11A, device 1100 is one of living room speakers 646 and 648 as described above in connection with FIG. In some embodiments, device 1100 is associated with another room in home 602 (or another home).

図11Aに示すように、デバイス1100は、不活性状態(例えば、スリープ状態、低電力状態、デバイス1100が、ディスプレイ1102を介して、ビジュアルコンテンツを表示していない状態)にあり、それにより、ディスプレイ1102はビジュアルコンテンツ(例えば、視覚的な指示)を表示していない。いくつかの実施形態では、デバイス1100がビジュアルコンテンツを表示していない場合、ディスプレイ1102のLEDは点灯しない。 As shown in FIG. 11A, device 1100 is in an inactive state (eg, sleep state, low power state, state in which device 1100 is not displaying visual content via display 1102), thereby causing display 1102 does not display visual content (eg, visual instructions). In some embodiments, the LEDs of display 1102 are not illuminated when device 1100 is not displaying visual content.

図11A~11Lは、デバイスの1つ以上の目標グループにマルチキャストされる情報を含む音声入力の受信に応答して、ビジュアルコンテンツを表示するデバイス1100を示す。いくつかの実施形態では、図7M~7N及び図7S~7Zの音声入力を受信するデバイス700に関連して上述した1つ以上の類似技術は、以下に説明するように、音声入力を受信するデバイス1100に適用することができる(又はその逆)。 11A-11L illustrate device 1100 displaying visual content in response to receiving audio input including information multicast to one or more target groups of devices. In some embodiments, one or more similar techniques described above in connection with device 700 for receiving audio input of FIGS. 7M-7N and 7S-7Z receive audio input, as described below. It can be applied to device 1100 (or vice versa).

図11B~11Fは、デバイス1100の前に立っている人物からの音声入力を受信するデバイス1100を示す。図11B~11Fのデバイス1100によって受信された音声入力は「ヘイ、アシスタント、マルチキャスト、どの音楽をリビングルームで再生したいですか?」である。図11B~11Fで受信した音声入力は、自然発音又は別の方法で受信することができる。図11B~11Fは、デバイス1100が音声入力の異なる部分にどのように反応し得るかの例示的な実施形態を提供するために示されている。 11B-11F illustrate device 1100 receiving audio input from a person standing in front of device 1100. FIG. The voice input received by the device 1100 of FIGS. 11B-11F is "Hey Assistant Multicast what music would you like to play in the living room?" The speech input received in FIGS. 11B-11F may be received spontaneously or otherwise. 11B-11F are shown to provide exemplary embodiments of how device 1100 may respond to different portions of audio input.

図11Bでは、デバイス1100は、デバイス1100の前に立っている人物から、音声入力部分1150bを、デバイス1100の1つ以上のマイクロフォンを介して受信する。ここで、人物は、「ヘイ、アシスタント」というフレーズを発言している。 11B, device 1100 receives audio input portion 1150b from a person standing in front of device 1100 via one or more microphones of device 1100. In FIG. Here, the person is uttering the phrase "Hey Assistant".

図11Bに示すように、音声入力部分1150bの受信に応答して、デバイス1100が、ディスプレイ1102を介して、ビジュアルコンテンツを表示するように、デバイス1100は活性状態(例えば、アウェイク状態、電力状態、ディスプレイ1102がビジュアルコンテンツを表示されている状態)に変化する。図11Bでは、デバイス1100は、ディスプレイ1102上の異なるタイプのディスク(例えば、図11Bの1102の黒色ディスク、白色ディスク、及びパターン化したディスク)によって表される、複数色であるビジュアルコンテンツ(例えば、視覚的な指示)(例えば、光)を表示する。図11Bでは、デバイス1100が、音声入力の一部が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであると判定されないため、デバイス1100は、複数色であるビジュアルコンテンツを表示する。 As shown in FIG. 11B, device 1100 is in an active state (e.g., awake state, power state, display 1102 displays visual content). In FIG. 11B, the device 1100 displays visual content that is multi-colored (e.g., display a visual indication) (e.g., light). In FIG. 11B, device 1100 does not determine that some of the audio input should be sent as an audio multicast message to one or more external devices, so device 1100 displays visual content that is in multiple colors.

図11Cでは、デバイス1100は、デバイス1100の前に立っている人物から、音声入力部分1150cを、デバイス1100の1つ以上のマイクロフォンを介して受信する。ここで、人物は、「マルチキャスト」というフレーズを発言している。 11C, device 1100 receives audio input portion 1150c from a person standing in front of device 1100 via one or more microphones of device 1100. In FIG. Here, the person is uttering the phrase "multicast".

図11Cに示すように、音声入力部分1150cの受信に応答して、デバイス1100は、活性状態のままである。図11Cでは、デバイス1100が、音声入力の一部が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであると判定したため、デバイス1100は、単一色(例えば、ディスクの他のいずれかのタイプなしの図11Bの1102の黒色ディスク)であるビジュアルコンテンツを表示する。ここで、デバイス1100は、デバイス1100が、人物がマルチキャストコマンド(例えば、音声メッセージをマルチキャストするコマンド)を発行していることを示す命令(例えば、「マルチキャスト」)フレーズを検出したので、音声入力の部分が音声マルチキャストメッセージとして送信(マルチキャスト)されるべきであると判定する。 In response to receiving audio input portion 1150c, device 1100 remains active, as shown in FIG. 11C. In FIG. 11C, device 1100 determines that some of the audio input should be sent as an audio multicast message to one or more external devices, so device 1100 sends a single color (eg, any other 1102 black disk in FIG. 11B) without the type of . Here, the device 1100 detects an instruction (eg, “multicast”) phrase indicating that the person is issuing a multicast command (eg, a command to multicast a voice message), so the device 1100 detects the voice input. Determine that the part should be sent (multicast) as an audio multicast message.

図11Dでは、デバイス1100は、デバイス1100の前に立っている人物から、音声入力部分1150dを、デバイス1100の1つ以上のマイクロフォンを介して受信する。ここで、人物は、「どんな音楽」というフレーズを発言している。 11D, device 1100 receives a voice input portion 1150d from a person standing in front of device 1100 via one or more microphones of device 1100. In FIG. Here, the person is uttering the phrase "what kind of music."

図11Dに示すように、音声入力部分1150dの受信に応答して、デバイス1100は、活性状態のままである。図11Dでは、デバイス1100は、音声入力の一部が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであるという判定に基づいて、(例えば、図11Cに関連して上述したように)単一色であるビジュアルコンテンツを表示し続ける。いくつかの実施形態では、デバイス1100は、音声入力の一部が、(例えば、図7M~7Nに関連して上述したものと類似の理由で)ホーム602に指定された1つ以上のデバイスに送信されるべきであると判定する。いくつかの実施形態では、デバイス1100は、音声入力の一部がグループ識別子(例えば、「ホーム」、「リビングルーム」、「娯楽ゾーン」、「ダイニングルームへ」)に対応する音声入力に基づくデバイスのグループに指定されているかどうかに基づいて、音声入力の一部を送信する1つ以上のデバイスを判定する。 In response to receiving audio input portion 1150d, device 1100 remains active, as shown in FIG. 11D. In FIG. 11D, device 1100, based on a determination that a portion of the audio input should be sent to one or more external devices as an audio multicast message (eg, as described above with respect to FIG. 11C ) continue to display visual content that is a single color. In some embodiments, device 1100 directs some of the audio input to one or more devices designated as home 602 (eg, for reasons similar to those described above in connection with FIGS. 7M-7N). Determine that it should be sent. In some embodiments, device 1100 is a device based on voice input where some of the voice input corresponds to a group identifier (e.g., "home", "living room", "entertainment zone", "to dining room"). determines one or more devices to transmit a portion of the audio input based on whether they are designated in the group of .

特に、図11Cと比較すると、図11Dのデバイス1100によって表示されるビジュアルコンテンツのパターンは、図11Cのデバイス1100によって表示されるビジュアルコンテンツのパターンとは異なる。図11C~11Dに示されるように、デバイス1100は、ディスプレイ1102を介して、人物の音声に反応する異なるビジュアルコンテンツを表示する。換言すれば、「マルチキャスト」及び「どんな音楽」は異なるフレーズであるため、デバイス1100はビジュアルコンテンツのパターンを変更する。いくつかの実施形態では、デバイス1100は、異なる音声コンテンツの部分が異なるビジュアルコンテンツのパターンを生成するように、音声コンテンツの一部の速度、鮮鋭度、音量、ピッチ、階調、及び/又はリズム(例えば、ビート)に基づいて、ビジュアルコンテンツのパターンを変更する。いくつかの実施形態では、デバイス1100は、音声コンテンツの一部の速度、鮮鋭度、音量、ピッチ、階調、及び/又はリズム(例えば、ビート)に基づいて、ビジュアルコンテンツの彩度、輝度、サイズ、又は位置を変更する。いくつかの実施形態では、デバイス1100は、ビジュアルコンテンツのパターンを変更しない、及び/又は人物の音声に反応しない。 11C, the pattern of visual content displayed by the device 1100 of FIG. 11D is different than the pattern of visual content displayed by the device 1100 of FIG. 11C. As shown in FIGS. 11C-11D, device 1100 displays different visual content via display 1102 in response to a person's voice. In other words, device 1100 changes the pattern of visual content because "multicast" and "what kind of music" are different phrases. In some embodiments, device 1100 adjusts the speed, sharpness, volume, pitch, tone, and/or rhythm of portions of audio content such that different portions of audio content generate different patterns of visual content. change the pattern of the visual content based on (e.g. beats); In some embodiments, the device 1100 adjusts the saturation, brightness, brightness, and/or intensity of visual content based on the speed, sharpness, volume, pitch, tone, and/or rhythm (e.g., beats) of a portion of audio content. Change size or position. In some embodiments, the device 1100 does not change patterns of visual content and/or react to human speech.

図11Eでは、デバイス1100は、デバイス1100の前に立っている人物から、デバイス1100の1つ以上のマイクロフォンを介して、音声入力部分1150eを受信し続ける。ここで、人物は、「あなたが再生したいのは」というフレーズを発言している。 11E, device 1100 continues to receive audio input portion 1150e via one or more microphones of device 1100 from a person standing in front of device 1100. In FIG. Here, the person is uttering the phrase "what you want to play".

図11Eに示すように、音声入力部分1150eの受信に応答して、デバイス1100は、活性状態のままである。図11Eでは、デバイス1100は、音声入力の一部が1つ以上の外部デバイスに送信されるべきであるという判定に基づいて、単一色であるビジュアルコンテンツを表示し続ける。加えて、音声入力部分1150eが音声入力部分1150dとは異なるため、デバイス1100はビジュアルコンテンツのパターンを変更する。 In response to receiving audio input portion 1150e, device 1100 remains active, as shown in FIG. 11E. In FIG. 11E, device 1100 continues to display visual content that is a single color based on the determination that a portion of the audio input should be sent to one or more external devices. Additionally, because audio input portion 1150e is different from audio input portion 1150d, device 1100 changes the pattern of visual content.

図11Fでは、デバイス1100は、デバイス1100の前に立っている人物から、音声入力部分1150fを、デバイス1100の1つ以上のマイクロフォンを介して受信し続ける。ここで、人物は、「リビングルームで?」というフレーズを発言している。 11F, device 1100 continues to receive audio input portion 1150f from a person standing in front of device 1100 via one or more microphones of device 1100. In FIG. Here the person is uttering the phrase "In the living room?"

図11Fに示すように、音声入力部分1150fの受信に応答して、デバイス1100は、活性状態のままである。図11Fでは、デバイス1100は、音声入力の一部が1つ以上の外部デバイスに送信されるべきであるという判定に基づいて、単一色であるビジュアルコンテンツを表示し続ける。加えて、音声入力部分1150fが音声入力部分1150eとは異なるため、デバイス1100はビジュアルコンテンツのパターンを変更する。 As shown in FIG. 11F, in response to receiving audio input portion 1150f, device 1100 remains active. In FIG. 11F, device 1100 continues to display visual content that is a single color based on the determination that a portion of the audio input should be sent to one or more external devices. In addition, device 1100 changes the pattern of visual content because audio input portion 1150f is different from audio input portion 1150e.

図11Fでは、デバイス1100は、図11B~11Fで受信された音声入力の端部を検出する。図11Fでは、音声入力の端部を検出したことに応答して、デバイス1100は、音声入力の1つ以上の部分を、音声マルチキャストメッセージとして1つ以上の外部デバイスに送信する。いくつかの実施形態では、音声マルチキャストメッセージは、1150c~1150dを含む(例えば、「リビングルームで再生したい音楽は何ですか?」)。いくつかの実施形態では、音声入力部分1150b及び/又は1150cが音声入力のコマンド部分に対応するとの判定のため、音声マルチキャストメッセージは、音声入力部分1150b(「ヘイ、アシスタント」)及び/又は1150c(「マルチキャスト」)を含まない。いくつかの実施形態では、入力が目標グループ識別子(例えば、「ホーム」又は「リビングルーム」)に対応する部分を含むとき、目標グループ識別子(目標グループ識別子に対応する音声入力の部分ではない)は、音声マルチキャストメッセージと共に(例えば、プレーン文字として)送信されるが、1つ以上の外部デバイスによって音声として出力されない。いくつかの実施形態では、1つ以上の外部デバイスによって出力される音声マルチキャストメッセージは、人物のようにサウンドし(音声入力を発言した人物の再生された記録である)、デバイスを介してコンピュータ生成スピーチではない。 In FIG. 11F, device 1100 detects the edges of the audio input received in FIGS. 11B-11F. 11F, in response to detecting the end of the audio input, device 1100 transmits one or more portions of the audio input as an audio multicast message to one or more external devices. In some embodiments, the audio multicast messages include 1150c-1150d (eg, "What music do you want to play in your living room?"). In some embodiments, due to the determination that voice input portion 1150b and/or 1150c corresponds to the command portion of the voice input, the voice multicast message includes voice input portion 1150b (“Hey, Assistant”) and/or 1150c ( "multicast"). In some embodiments, when the input includes a portion corresponding to a target group identifier (e.g., "home" or "living room"), the target group identifier (not the portion of the speech input corresponding to the target group identifier) is , is transmitted (eg, as plain text) with an audio multicast message, but is not output as audio by one or more external devices. In some embodiments, audio multicast messages output by one or more external devices sound like a person (which is a played recording of the person speaking the audio input) and are computer generated via the device. not a speech.

図11Gに示すように、デバイス1100は、音声入力の一部がホーム602(例えば、ホーム場所識別子712に関連して上述したように「メインストリート123番地」)に対応する目標グループ識別子に送られたことを示す、出力1154gを提供する(例えば、出力する)。出力1154gを出力するとき、音声入力の一部(例えば、図11B~11Fで受信された)が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであるとの判定により、デバイス1100は、単一色であるビジュアルコンテンツを表示する。いくつかの実施形態では、デバイス1100は、この判定に関わりなく、音声確認1154gを出力するときに、複数色のビジュアルコンテンツを表示する。 As shown in FIG. 11G, device 1100 sends a portion of the voice input to a target group identifier corresponding to home 602 (eg, "123 Main Street" as described above with respect to home location identifier 712). provides (eg, outputs) an output 1154g indicating that Upon outputting output 1154g, device 1100, upon determining that a portion of the audio input (eg, received in FIGS. 11B-11F) should be sent as an audio multicast message to one or more external devices, causes device 1100 to , to display visual content that is a single color. In some embodiments, device 1100 displays multi-color visual content when outputting audio confirmation 1154g regardless of this determination.

図11Hに示すように、デバイス1100は、不活性状態に変化する。図11Iでは、デバイス1100は、ホーム602に指定された外部デバイスのうちの任意の1つ以上を介して、ジェーンからの音声マルチキャストメッセージに対応するデータを受信する。 As shown in FIG. 11H, device 1100 changes to an inactive state. 11I, device 1100 receives data corresponding to an audio multicast message from Jane via any one or more of the external devices designated as home 602. In FIG.

図11Iに示すように、音声マルチキャストメッセージの受信に応答して(及び、ユーザ入力を受信せずに(独立して))、デバイス1100は、イントロダクトリ階調又はチャイムである出力1154iを提供する。図11Jに示すように、出力1154iを提供した後、デバイス1100は、図11Iで受信した音声マルチキャストメッセージに対応する、出力1154jを提供する。 As shown in FIG. 11I, in response to receiving an audio multicast message (and without (independently) receiving user input), device 1100 provides output 1154i which is an introductory tone or chime. do. As shown in FIG. 11J, after providing output 1154i, device 1100 provides output 1154j corresponding to the audio multicast message received in FIG. 11I.

11I~11J図に示すように、デバイス1100は、出力1150i及び出力1150jを提供するときに、単一色であるビジュアルコンテンツを表示する。デバイス1100は、デバイス1100が音声マルチキャストメッセージを出力しているため、単一の色であるビジュアルコンテンツを表示する。図11I~11Jに示すように、デバイス1100はまた、同じパターンであるビジュアルコンテンツも表示する。したがって、図11I~11Jでは、デバイス1100は、出力1150i及び出力1150jの異なるコンテンツに基づいてビジュアルコンテンツを変更しない。いくつかの実施形態では、デバイス1100は、出力1150i及び出力1150jの異なるコンテンツに基づいてビジュアルコンテンツを変更する。いくつかの実施形態では、デバイス1100は、デバイス1100の現在の音量レベル(例えば、システム音量レベル)で出力11541150i及び/又は出力1150jを提供する。いくつかの実施形態では、出力1154i及び/又は出力1150jのうちの1つは、デバイス1100の音量レベルで提供されるが、もう一方はそうではない。いくつかの実施形態では、デバイス1100は、ある時間の期間内に複数の音声マルチキャストメッセージを受信し、音声マルチキャストメッセージのそれぞれが再生される前に、同じ(又は異なる)イントロダクトリ階調を出力する。いくつかの実施形態では、デバイス1100は、ある時間の期間内に複数の音声マルチキャストメッセージを受信し、再生される音声マルチキャストメッセージの各(例えば、デバイスの目標グループによってグループ化された)グループの前に、同じ(又は異なる)イントロダクトリ階調を出力する。 As shown in FIGS. 11I-11J, device 1100 displays visual content that is a single color when providing output 1150i and output 1150j. Device 1100 displays visual content that is a single color because device 1100 is outputting an audio multicast message. As shown in FIGS. 11I-11J, the device 1100 also displays visual content that is the same pattern. Thus, in FIGS. 11I-11J, device 1100 does not change visual content based on the different content of output 1150i and output 1150j. In some embodiments, device 1100 changes visual content based on different content of output 1150i and output 1150j. In some embodiments, device 1100 provides output 11541150i and/or output 1150j at the current volume level of device 1100 (eg, system volume level). In some embodiments, one of output 1154i and/or output 1150j is provided at the volume level of device 1100, while the other is not. In some embodiments, device 1100 receives multiple audio multicast messages within a period of time and outputs the same (or different) introductory tone before each of the audio multicast messages is played. do. In some embodiments, the device 1100 receives multiple audio multicast messages within a period of time, and prior to each group (eg, grouped by the device's target group) of audio multicast messages being played. , outputs the same (or different) introductory gradation.

図11Jに示すように、デバイス1100によって提供される音声メッセージは、「ジェーンはホームから返信した:ジャズはどうですか?」と言う。ここで、デバイス1100によって提供される音声メッセージは、目標識別子を含み、いくつかの実施形態では、含まない。 As shown in FIG. 11J, the voice message provided by device 1100 says, "Jane replied from Home: How's Jazz?" Here, the voice message provided by device 1100 includes the target identifier, and in some embodiments does not.

図11Kでは、デバイス1100は、デバイス1100の前に立っている人物から、音声入力部分1150kを、デバイス1100の1つ以上のマイクロフォンを介して受信する。ここで、人物は、「ヘイ、アシスタント、返信する、そのとおり」というフレーズを発言している。 11K, device 1100 receives a voice input portion 1150k from a person standing in front of device 1100 via one or more microphones of device 1100. In FIG. Here, the person is uttering the phrase "Hey Assistant Reply, Exactly".

図11Kに示すように、デバイス1100は、音声入力部分1150kの一部が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであると判定したため、デバイス1100は、単一色(例えば、図11Kの1102の黒色ディスク)であるビジュアルコンテンツを表示する。いくつかの実施形態では、デバイス1100が出力1150j(例えば、図11Jで受信した音声マルチキャストメッセージ)を提供した後、音声入力部分1150kが所定の時間(例えば、1、2、30、60秒)以内に受信されたため、デバイス1100はこの判定を行う。いくつかの実施形態では、デバイス1100が出力1150jを提供した後の第2の所定の時間内に、音声入力部分1150kが「返信」というフレーズを含む、及び/又は「返信」というフレーズを含むため、デバイス1100はこの判定を行う。いくつかの実施形態では、第2の所定の時間の期間は、第1の所定の時間の期間よりも多い。 As shown in FIG. 11K, device 1100 determines that a portion of audio input portion 1150k should be sent as an audio multicast message to one or more external devices, so device 1100 displays a single color (eg, 11K 1102 black disc). In some embodiments, after device 1100 provides output 1150j (eg, the audio multicast message received in FIG. 11J), audio input portion 1150k is within a predetermined time (eg, 1, 2, 30, 60 seconds). , the device 1100 makes this determination. In some embodiments, voice input portion 1150k includes the phrase "reply" and/or includes the phrase "reply" within a second predetermined time period after device 1100 provides output 1150j. , the device 1100 makes this determination. In some embodiments, the second predetermined period of time is greater than the first predetermined period of time.

図11Lに示すように、デバイス1100は、不活性状態に変化する。 As shown in FIG. 11L, device 1100 changes to an inactive state.

図11M~11Rは、デバイスの1つ以上の目標グループにマルチキャストされる情報を含まない音声入力の受信に応答して、ビジュアルコンテンツを表示するデバイス1100を示す。 11M-11R illustrate device 1100 displaying visual content in response to receiving audio input that does not include information that is multicast to one or more target groups of devices.

図11M~11Oは、デバイス1100の前に立っている人物からの音声入力を受信するデバイス1100を示した。図11M~11Oのデバイス1100によって受信された音声入力は、「ヘイ、アシスタント、リビングルームでジャズ音楽を再生してください」である。図11M~11Oで受信した音声入力は、自然発音又は別の方法で受信することができる。図11M~11Oは、デバイス1100が音声入力の異なる部分にどのように反応し得るかの例示的な実施形態を提供するために示されている。 11M-11O illustrated device 1100 receiving voice input from a person standing in front of device 1100. FIG. The voice input received by the device 1100 of FIGS. 11M-11O is "Hey Assistant, play jazz music in the living room." The speech input received in FIGS. 11M-11O may be received spontaneously or otherwise. Figures 11M-11O are shown to provide exemplary embodiments of how device 1100 may respond to different portions of audio input.

図11Mでは、デバイス1100は、デバイス1100の前に立っている人物から、音声入力部分1150mを、デバイス1100の1つ以上のマイクロフォンを介して受信する。ここで、人物は、「ヘイ、アシスタント」というフレーズを発言している。図11Mに示すように、音声入力部分1150mの受信に応答して、デバイス1100は、図11Bで上述したものと類似の1つ以上の技術を使用して、活性状態に変化する。加えて、デバイス1100が、音声入力の一部が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであると判定されないため、デバイス1100は、複数色であるビジュアルコンテンツ(例えば、光)を表示する。 11M, device 1100 receives audio input portion 1150m from a person standing in front of device 1100 via one or more microphones of device 1100. In FIG. Here, the person is uttering the phrase "Hey Assistant". As shown in FIG. 11M, in response to receiving audio input portion 1150m, device 1100 changes to an active state using one or more techniques similar to those described above in FIG. 11B. Additionally, because the device 1100 does not determine that some of the audio input should be sent as an audio multicast message to one or more external devices, the device 1100 may use visual content that is multi-colored (e.g., lights). display.

図11Nでは、デバイス1100は、デバイス1100の前に立っている人物から、音声入力部分1150nを、デバイス1100の1つ以上のマイクロフォンを介して受信する。ここで、人物は、「ジャズ音楽を再生」というフレーズを発言している。図11Nに示すように、音声入力部分1150nの受信に応答して、デバイス1100が、音声入力の一部が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであると判定されないため、デバイス1100は、複数色であるビジュアルコンテンツ(例えば、光)を表示する。 11N, the device 1100 receives an audio input portion 1150n from a person standing in front of the device 1100 via one or more microphones of the device 1100. In FIG. Here, the person is uttering the phrase "play jazz music". As shown in FIG. 11N, in response to receiving audio input portion 1150n, device 1100 does not determine that the portion of the audio input should be sent as an audio multicast message to one or more external devices. Device 1100 displays visual content (eg, lights) that are multiple colors.

図11Oでは、デバイス1100は、デバイス1100の前に立っている人物から、音声入力部分1150oを、デバイス1100の1つ以上のマイクロフォンを介して受信する。ここで、人物は、「リビングルームで」というフレーズを発言している。図11Oに示すように、音声入力部分1150oの受信に応答して、デバイス1100が、音声入力の一部が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであると判定されないため、デバイス1100は、複数色であるビジュアルコンテンツ(例えば、光)を表示する。 11O, the device 1100 receives an audio input portion 1150o from a person standing in front of the device 1100 via one or more microphones of the device 1100. In FIG. Here, the person is uttering the phrase "in the living room." As shown in FIG. 11O, in response to receiving audio input portion 1150o, device 1100 does not determine that the portion of the audio input should be sent as an audio multicast message to one or more external devices. Device 1100 displays visual content (eg, lights) that are multiple colors.

図11M~11Oでは、デバイス1100ビジュアルコンテンツは、音声入力に対して反応性ではない。いくつかの実施形態では、デバイス1100が、音声入力の一部が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであると判定されないとき、デバイス1100は、ビジュアルコンテンツのパターンを変更しない。いくつかの実施形態では、デバイス1100は、この判定に関わりなく、異なる音声入力部分に対して反応性があるビジュアルコンテンツのパターンを変更する。 11M-11O, device 1100 visual content is not responsive to audio input. In some embodiments, device 1100 does not change the pattern of visual content when device 1100 does not determine that a portion of the audio input should be sent to one or more external devices as an audio multicast message. . In some embodiments, device 1100 changes patterns of visual content that are responsive to different audio input portions regardless of this determination.

図11Pに示されるように、デバイス1100は、デバイス1100が現在のジャズ無線機を再生していることを示す、出力1154pを提供する(例えば、出力する)。出力1154gを提供するとき、音声入力の一部(例えば、図11M~11Oで受信された)が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきではないとの判定により、デバイス1100は、複数色であるビジュアルコンテンツ(例えば、視覚的な指示)を表示する。図11Pでは、デバイス1100はまた、ジャズ音楽も出力する。 As shown in FIG. 11P, the device 1100 provides (eg, outputs) an output 1154p indicating that the device 1100 is playing the current jazz radio. Upon providing output 1154g, device 1100 causes device 1100 to determine that a portion of the audio input (eg, received in FIGS. 11M-11O) should not be sent as an audio multicast message to one or more external devices. , to display visual content (eg, a visual indication) that is multi-colored. In FIG. 11P, device 1100 also outputs jazz music.

図11Qに示すように、ジャズ音楽を出力している間に、デバイス1100は不活性状態に変化する。 While outputting jazz music, the device 1100 changes to an inactive state, as shown in FIG. 11Q.

図11Rに示すように、デバイス1100は、デバイス1100の前に立っている人物から、音声入力部分1150rを、デバイス1100の1つ以上のマイクロフォンを介して受信する。ここで、人物は、「休止する。」というフレーズを発言している。図11Rに示すように、音声入力部分1150rの受信に応答して、デバイス1100が、音声入力の一部が音声マルチキャストメッセージとして1つ以上の外部デバイスに送信されるべきであると判定されない(例えば、音声入力のどの部分もそのようにされるべきではないと判定される)ため、デバイス1100は、複数色であるビジュアルコンテンツ(例えば、光)を表示する。図11Rでは、デバイス1100はまた、「休止する」命令の受信に応答して、ジャズ音楽を出力することを停止し、ジャズ音楽に対応するメディアを一時停止する。 As shown in FIG. 11R, device 1100 receives audio input portion 1150r from a person standing in front of device 1100 via one or more microphones of device 1100 . Here, the person is uttering the phrase "Pause." As shown in FIG. 11R, in response to receiving audio input portion 1150r, device 1100 determines that the portion of the audio input should be sent as an audio multicast message to one or more external devices (e.g., , it is determined that no part of the audio input should be so), the device 1100 displays visual content (eg, lights) that is multi-colored. In FIG. 11R, device 1100 also stops outputting jazz music and pauses media corresponding to jazz music in response to receiving a “pause” command.

図12は、いくつかの実施形態に係る、電子デバイスを使用して視覚的な指示を表示するための方法を示すフロー図である。方法1200は、1つ以上のマイクロフォン、1つ以上のスピーカ、及び1つ以上のディスプレイ装置を有するデバイス(例えば、100、300、500、634、674、700、701、850)で実行される。方法1200のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 FIG. 12 is a flow diagram illustrating a method for displaying visual instructions using an electronic device, according to some embodiments. Method 1200 is performed on a device (eg, 100, 300, 500, 634, 674, 700, 701, 850) having one or more microphones, one or more speakers, and one or more display devices. Some acts of method 1200 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

後述するように、方法1200は、視覚的な指示を表示するための直観的方法を提供する。本方法は、デバイスに所与のコマンドのタイプを判定するためのユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にコマンドのタイプを認識することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As discussed below, method 1200 provides an intuitive way to display visual instructions. The method relieves the user of the cognitive burden of determining the type of command given to the device, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to recognize command types faster and more efficiently saves power and extends the time between battery charges.

電子デバイスは、1つ以上のマイクロフォンを介して音声入力(例えば、1150a~1150r)を受信する(1202)。 An electronic device receives audio input (eg, 1150a-1150r) via one or more microphones (1202).

電子デバイスは、音声入力の視覚的な表示(例えば、1102を介して表示される光)を表示し(1204)、ここで、1つ以上のディスプレイデバイスを介して、視覚的な指示(例えば、11B~11F、11Kの1102)を表示する(1206)1つ以上のデバイスに送信される(例えば、及び/又は複数のデバイスに送信される(例えば、マルチキャストされる)(例えば、及び、いくつかの実施形態では、第1のタイプのコマンド(例えば、音声入力の少なくともいくつかを複数の外部デバイス(例えば、パーソナルデバイス(セルラー電話)、外部アクセサリデバイス(例えば、スマートホームアクセサリデバイス(例えば、スマート(例えば、インテリジェントな)電球、サーモスタット、ドアロック、ドアオープナー(例えば、ガレージドアオープナー)、スピーカ、テレビ、電気アウトレット、電源ストリップ、カメラ、アプライアンス(例えば、冷蔵庫、ストーブ))に送信するプロセスを開始するコマンド)に対応する音声入力の別の部分(例えば、送信されない音声入力の一部)))))音声入力に対応する音声入力の一部(例えば、1150b~1150f、1150r)が、1つ以上の色の第1の1組を有する視覚的な指示を表示することを含むとの判定に従い、及び1つ以上のディスプレイ装置を介して、視覚的な指示(例えば、図11M~11O、11Rの1102)を表示する(1210)、(例えば、音声入力の一部を他のデバイス(例えば、複数の他のデバイス)のスピーカなどによって出力するために)(例えば、音声入力の別の部分は第2のタイプのコマンドである)他のデバイスに音声入力の任意の部分を送信する命令(例えば、マルチキャストする命令)を含まない音声入力(例えば、1150m~1150o、1150r)が、1つ以上の色の第1の1組とは異なる1つ以上の色の第2の1組を有する視覚的な指示を表示することを含むとの判定に従う。いくつかの実施形態では、第1のタイプのコマンドは、音声入力の少なくともいくつか(例えば、送信される音声入力の部分)を複数の外部デバイスに送信するためのプロセスを開始するコマンドである。いくつかの実施形態では、音声入力のうちの少なくともいくつかを複数のデバイスに送信することで、複数の外部デバイスのうちの2つ以上が、音声入力のいくつかを出力させる(例えば、自動的な(例えば、ユーザ入力を介在させずに)出力)。いくつかの実施形態では、複数の外部デバイスは、外部電子デバイスの異なるタイプ(例えば、パーソナルデバイス、外部アクセサリデバイス)を含む。いくつかの実施形態では、複数のデバイスは、トップレベルの場所(又は宛先)(例えば、第1のタイプの場所)(例えば、ホーム場所、ビジネス、オフィス(トップレベルの場所にある場所(例えば、1つ以上の場所を定義する場所(例えば、サブ場所)及び/又はトップレベルの場所の場所によって定義されるエリア及び/又は周辺部内にある1つ以上の領域(又はゾーン)、場所の階層のトップレベルにある場所、1つ以上の場所(例えば、サブ位置)に(例えば、プログラムで)リンクされた場所及び/又は1つ以上の領域(又はゾーン)))に関連付けられた第1のグループに関連付けられている。いくつかの実施形態では、デバイスの第1グループは、デバイスの複数のサブグループを含むことができる。いくつかの実施形態では、デバイスのサブグループは、トップレベルの場所のサブ場所(例えば、トップレベルの場所の境界、領域、若しくは周辺に、及び/又はトップレベルの場所に定義され、特定され、及び/又はリンクされ(例えば、プログラムでリンクされ)(例えば、ユーザによって)配置された部屋)及び/又はトップレベルの場所内(例えば、トップレベルの場所の境界、エリア、又は周辺部内及び/又は(例えば、ユーザによって)定義され、特定され、及び/又はリンクされた)のゾーン(例えば、2つ以上のサブ場所によって定義される場所)(トップレベルの場所内で(例えば、トップレベルの場所内にリビングルーム及びダイニングルームを含む娯楽ゾーン、トップレベルの場所内に2つ以上の寝室、リビングルーム、バスルームを含むパーソナルゾーン)に関連付けられる。いくつかの実施形態では、第1のユーザインタフェースは、制御ユーザインタフェースである。いくつかの実施形態では、複数のデバイスは、デバイスの複数のサブグループに関連付けられる。いくつかの実施形態では、視覚的な指示は、1つ以上のマイクロフォンを介して音声入力を受信している間、表示され続ける。いくつかの実施形態では、視覚的な指示は、1つ以上のマイクロフォンを介して音声入力を受信している間、最初に表示された後に表示を中止する。いくつかの実施形態では、第2のタイプのコマンドは、音声入力の少なくともいくつかを複数の外部デバイス(例えば、スピーカ、パーソナルデバイス(例えば、セルラー電話)に送信するためのプロセスを開始するコマンドではない。いくつかの実施形態では、視覚的な指示は、1つ以上のマイクロフォンを介して音声入力を受信している間、表示され続ける。いくつかの実施形態では、視覚的な指示は、1つ以上のマイクロフォンを介して音声入力を受信している間、最初に表示された後に表示を中止する。音声入力の一部が1つ以上の機器に送信されるべきであると判定されたときに、第1の1組の色を有する視覚的な指示を表示することにより、その発言が他の人によって可能性として聞こえることができることをユーザが認識できるように、外部電子デバイスで音声入力の一部が再生されるかどうかに関するフィードバックがユーザに提供される。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。ユーザの音声入力が音声入力の任意の部分を他のデバイスに送信する命令を含まないと判定されたときに、(例えば、1つ以上の色の第1の1組とは異なる)1つ以上の色の第2の1組を有する視覚的な指示を表示することにより、ユーザの発言が他の外部デバイスの個々の人によって聞こえないという再保証がユーザに提供される。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 The electronic device displays 1204 a visual representation of the audio input (e.g., light displayed via 1102), where visual instructions (e.g., 11B-11F, 1102 of 11K) is transmitted (eg, and/or transmitted (eg, multicast) to one or more devices (eg, multicast) to display 1206 (eg, and some In an embodiment of the first type of command (e.g., at least some of the voice input) to a plurality of external devices (e.g., personal devices (cellular phones), external accessory devices (e.g., smart home accessory devices (e.g., smart ( (e.g. intelligent) light bulbs, thermostats, door locks, door openers (e.g. garage door openers), speakers, televisions, electrical outlets, power strips, cameras, appliances (e.g. refrigerators, stoves)) another part of the voice input corresponding to the command) (e.g. part of the voice input not sent))))) one or more parts of the voice input corresponding to the voice input (e.g. 1150b-1150f, 1150r) and via one or more display devices, visual instructions (e.g., in FIGS. 11M-11O, 11R 1102) to be displayed 1210 (e.g., for outputting part of the audio input via speakers of other devices (e.g., multiple other devices), etc.) (e.g., another part of the audio input 2 type commands) to send any part of the audio input to other devices (e.g. instructions to multicast). including displaying a visual indication having a second set of one or more colors different from the first set of . In some embodiments, the first type of command is a command that initiates a process for sending at least some of the speech input (eg, portions of the speech input to be sent) to multiple external devices. In some embodiments, sending at least some of the audio inputs to multiple devices causes two or more of the multiple external devices to output some of the audio inputs (e.g., automatically output (e.g., without intervening user input). In some embodiments, the plurality of external devices includes different types of external electronic devices (eg, personal devices, external accessory devices). In some embodiments, a plurality of devices may be connected to a top-level location (or destination) (e.g., a first type of location) (e.g., a home location, a business, an office (e.g., a location at a top-level location (e.g., One or more regions (or zones) within an area and/or perimeter defined by a location (e.g., sub-location) defining one or more locations and/or locations of a top-level location, of a hierarchy of locations A first group associated with a place at the top level, a place linked (e.g. programmatically) to one or more places (e.g. sub-locations) and/or one or more regions (or zones)) In some embodiments, the first group of devices can include multiple subgroups of devices, hi some embodiments, the subgroups of devices are associated with the top-level location sub-locations (e.g., defined, identified, and/or linked (e.g., programmatically linked) to the top-level location (e.g., defined, identified, and/or linked to the top-level location, e.g., by a user) ) placed room) and/or within the top-level location (e.g., within the boundaries, areas, or perimeters of the top-level location and/or defined, identified, and/or linked (e.g., by a user) ) (e.g., a place defined by two or more sub-places) (within a top-level place (e.g., an entertainment zone containing a living room and dining room within a top-level place, within a top-level place personal zone, including two or more bedrooms, living rooms, and bathrooms.In some embodiments, the first user interface is a control user interface.In some embodiments, multiple devices. is associated with multiple subgroups of devices, hi some embodiments, the visual instructions continue to be displayed while receiving audio input via one or more microphones. In the form, visual instructions are initially displayed and then cease to be displayed while receiving audio input via one or more microphones, hi some embodiments, the second type of command is not a command that initiates a process for sending at least some of the audio input to multiple external devices (e.g. speakers, personal devices (e.g. cellular phones) . In some embodiments, the visual instructions continue to be displayed while receiving audio input via one or more microphones. In some embodiments, the visual instructions cease to display after being initially displayed while receiving audio input via one or more microphones. By displaying a visual indication having a first set of colors when it is determined that a portion of the speech input should be sent to one or more devices, the speech is Feedback is provided to the user as to whether a portion of the voice input will be played on the external electronic device so that the user is aware that the audio input can potentially be heard by the user. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device, reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve. one or more (e.g., different from the first set of one or more colors) when it is determined that the user's voice input does not contain instructions to send any portion of the voice input to another device By displaying a visual indication having a second set of colors, the user is provided with reassurance that what the user is saying cannot be heard by individuals on other external devices. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device, reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態では、電子デバイスが電子デバイスの情報を取得する(例えば、天気、1つ以上のクエリへの回答などの情報を取得する)、又は1つ以上の状態を変更する(例えば、音声状態(電話通話の回答/配置、音量の調整)、メディア再生の状態(例えば、メディアの休止、再生、早送り、巻き戻し、スキップ、シャッフル)、オン/オフ状態のうちの任意の1つ以上を変更する)ことを要求する音声入力(例えば、1150m~1150o)は、音声入力のどの部分も他のデバイスに送信する命令を含まない音声入力である。 In some embodiments, the electronic device obtains electronic device information (e.g., obtains information such as the weather, answers to one or more queries, etc.) or changes one or more states (e.g., Any one or more of audio state (phone call answer/placement, volume adjustment), media playback state (e.g. media pause, play, fast forward, rewind, skip, shuffle), on/off state A voice input (eg, 1150m-1150o) that requests to change the device is a voice input that does not contain instructions to send any part of the voice input to another device.

いくつかの実施形態では、1つ以上のデバイスに送信される音声入力に対応する音声入力(例えば、1150b~1150f、1150k)は、デバイスのグループの識別子(例えば、場所、サブ場所、グループ(「ホーム」)又はカテゴリ(例えば、グループ内の「ダイニングルーム」、「リビングルーム」、「サンルーム」に対応する場所)を含む(1208)。いくつかの実施形態では、音声入力は、デバイスのグループの識別子及びデバイスのグループに送信される音声メッセージを含む。いくつかの実施形態では、音声入力のどの部分も他のデバイスに送信する命令を含まない音声入力(例えば、1150m~1150o、1150r)は、デバイスのグループの識別子を含まない(1212)。いくつかの実施形態では、音声入力はデバイスのグループの識別子を含まず、音声メッセージはデバイスのグループに送信されない。 In some embodiments, audio inputs (eg, 1150b-1150f, 1150k) corresponding to audio inputs sent to one or more devices are identifiers of groups of devices (eg, location, sub-location, group (“ home") or categories (e.g., locations corresponding to "dining room", "living room", "sunroom" within the group).In some embodiments, the voice input is the group of devices and a voice message to be sent to a group of devices.In some embodiments, voice inputs (eg, 1150m-1150o, 1150r) that do not contain instructions to send any part of the voice input to other devices are , does not include a device group identifier 1212. In some embodiments, the voice input does not include a device group identifier and the voice message is not sent to the device group.

いくつかの実施形態では、1つ以上の色の第1の1組(例えば、図11C~11Fの1102)は、一体色であり、1つ以上の色の第2の1組(例えば、図11M~11Oの1102)は、複数の色である。いくつかの実施形態では、一体色は、複数の色に含まれない。異なる予め定められた条件が満たされるときに、異なる視覚効果を電子デバイスに適用することにより、ユーザは、それらの発言が外部電子デバイスによって送信及び再生されるかどうかを素早く認識することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a first set of one or more colors (eg, 1102 in FIGS. 11C-11F) is a solid color and a second set of one or more colors (eg, 1102 in FIGS. 1102) of 11M-11O are multiple colors. In some embodiments, solid colors are not included in multiple colors. By applying different visual effects to the electronic device when different predetermined conditions are met, the user can quickly recognize whether their utterances are transmitted and played by the external electronic device. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device; reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態では、1つ以上の色の第1の1組を有する視覚的な指示(例えば、図11C~11Fの1102)を表示する一部として、電子デバイスは音声入力に基づいて(例えば、音声入力の入力パラメータ(音量、階調、及び/又はピッチなど)の値の変動に基づいて)一定時間(例えば、1、5、10秒)(例えば、音声入力が受信される時間に基づいて)にわたって(例えば、サイズ、輝度、彩度、及び/又は位置で)変化する(光のパターン(例えば、空間パターン)の)アニメーション(例えば、図11C~11Fの1102)を表示する。 In some embodiments, as part of displaying a visual indication (eg, 1102 in FIGS. 11C-11F) having a first set of one or more colors, the electronic device based on voice input ( For example, based on variations in the values of the input parameters (such as volume, tone, and/or pitch) of the voice input) for a period of time (eg, 1, 5, 10 seconds) (eg, at the time the voice input is received). display an animation (eg, 1102 in FIGS. 11C-11F) (of light patterns (eg, spatial patterns)) that varies (eg, in size, brightness, saturation, and/or position) over time).

いくつかの実施形態では、アニメーションの表示の一部として(例えば、図11C~11Fの1102)、電子デバイスは、音声入力の音量又はピッチのうちの任意の1つ以上に基づき、視覚的な指示(例えば、図11C~11Fの1102)の輝度、サイズ、色彩度、又は位置のうちの任意の1つ以上を変化させる(例えば、増大又は減少させる)。いくつかの実施形態では、音声入力の音量及び/又はピッチが、視覚的な指示の輝度、サイズ、色彩度のうちの任意の1つ以上を増大/減少させる。いくつかの実施形態では、音声入力のリズム(例えば、ビート)が増大/減少するにつれて、アニメーションのリズム(又はビート)が増加/減少する。いくつかの実施形態では、音声入力の音量及び/又はピッチが増大/減少するにつれて、視覚的な指示は、ディスプレイ装置のエリアをより多く/より少なく占有する。ユーザの音声入力の変化(例えば、音量又は音声入力のピッチの変化)を反映する視覚的な指示の視覚的特性(例えば、輝度、サイズ、色彩度又は位置)を更新することにより、ユーザの音声入力の様々な特性に関する視覚的フィードバックがユーザに提供される。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as part of the animated display (eg, 1102 in FIGS. 11C-11F), the electronic device displays a visual prompt based on any one or more of volume or pitch of the audio input. (eg, 1102 in FIGS. 11C-11F) is changed (eg, increased or decreased) in any one or more of the brightness, size, color saturation, or position. In some embodiments, the volume and/or pitch of the audio input increases/decreases any one or more of brightness, size, color saturation of the visual indication. In some embodiments, the rhythm (or beat) of the animation increases/decreases as the rhythm (eg, beat) of the audio input increases/decreases. In some embodiments, the visual indication occupies more/less area of the display device as the volume and/or pitch of the audio input increases/decreases. User speech by updating visual properties (e.g. brightness, size, color saturation or position) of visual instructions to reflect changes in user speech input (e.g. changes in volume or pitch of speech input) Visual feedback is provided to the user regarding various characteristics of the input. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device, reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態では、電子は、再生のための複数の音声メッセージに対応するデータを受信する。いくつかの実施形態では、再生のための複数の音声メッセージに対応するデータは、デバイスのグループの識別子(例えば、グループ(「ホーム」)又はカテゴリ(例えば、グループ内の「ダイニングルーム」、「リビングルーム」、「サンルーム」カテゴリに対応する場所)を含む。いくつかの実施形態では、複数の音声メッセージは、複数の識別子のためのものであり、各識別子は異なるグループ又はカテゴリに対応する。いくつかの実施形態では、再生のための複数の音声メッセージに対応するデータの受信に応答して、電子デバイスは、複数の音声メッセージのそれぞれの対応する音声メッセージを出力する前に(例えば、及びデバイスのグループの識別子を出力する前に)、イントロダクトリ階調(例えば、1154i)(例えば、ディンギング又はリンギングサウンド、全ての音声メッセージのイントロダクトリ階調又はチャイム)を出力する。いくつかの実施形態では、識別子は、(例えば、デバイスの目標グループを識別する)識別子に対応する音声メッセージのグループが出力される前に出力される。音声メッセージがマルチキャストタイプの音声メッセージであるマルチキャストアラート受信者である異なる音声メッセージを出力する前に、同じイントロダクトリ階調を出力する。改善された音声フィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援しユーザの誤りを削減することによって)ユーザデバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用することを有効化することによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the electronic receives data corresponding to multiple voice messages for playback. In some embodiments, the data corresponding to the plurality of voice messages for playback includes an identifier for a group of devices (e.g., group ("home") or category (e.g., "dining room", "living room" within the group). locations corresponding to "room", "sunroom" categories).In some embodiments, the multiple voice messages are for multiple identifiers, each identifier corresponding to a different group or category. In some embodiments, in response to receiving data corresponding to a plurality of voice messages for playback, the electronic device prior to outputting a corresponding voice message for each of the plurality of voice messages (e.g., and (before outputting an identifier for a group of devices), an introductory tone (e.g. 1154i) (e.g. a dinging or ringing sound, an introductory tone or chime for all voice messages). In embodiments, the identifier is output before the group of voice messages corresponding to the identifier (eg, identifying the target group of devices) is output Multicast alert recipients where the voice messages are multicast type voice messages Output the same introductory tone before outputting a different voice message.By providing improved voice feedback, the usability of the device is enhanced (e.g., operating the device/with the device User device interfaces become more efficient (by helping users make appropriate inputs and reducing user errors when interacting), which in turn allows users to use devices more quickly and efficiently. By enabling this, the power usage of the device is reduced and the battery life is improved.

いくつかの実施形態では、電子デバイスは、再生のための音声メッセージ(例えば、音声マルチキャストメッセージ)に対応するデータを受信する。いくつかの実施形態では、再生のための音声メッセージに対応するデータは、デバイスのグループに関連付けられた識別子(例えば、グループ(「ホーム」)又はカテゴリ(例えば、グループ内の「ダイニングルーム」、「リビングルーム」、「サンルーム」カテゴリに対応する場所)を含む。いくつかの実施形態では、データの受信に応答して、電子デバイスは、自動的に、ユーザ入力なしに、音声メッセージを(例えば、電子デバイスのスピーカを介して)出力する(例えば、1154j)。いくつかの実施形態では、音声メッセージを出力することは、デバイスのグループの識別子(例えば、グループ(「ホーム」)又はカテゴリ(例えば、グループ内の「ダイニングルーム」、「リビングルーム」、「サンルーム」カテゴリに対応する場所)を出力することを含む。 In some embodiments, an electronic device receives data corresponding to an audio message (eg, an audio multicast message) for playback. In some embodiments, the data corresponding to the voice message for playback is an identifier associated with a group of devices (e.g., group ("home") or category (e.g., "dining room", " locations corresponding to the "living room", "sunroom" categories).In some embodiments, in response to receiving data, the electronic device automatically, without user input, sends a voice message (e.g., , through the speaker of the electronic device) (e.g., 1154j).In some embodiments, outputting a voice message may include an identifier of a group of devices (e.g., group ("Home") or category (e.g., , locations corresponding to the "dining room", "living room", and "sunroom" categories within the group).

いくつかの実施形態では、音声メッセージを出力する前に、データの受信に応答して、第2の視覚的な指示(例えば、11Iの1102)を表示する。いくつかの実施形態では、第2の視覚的な指示は、音声メッセージが複数のデバイス(例えば、デバイスのグループ)に送信された音声メッセージであるときに、第1の視覚的見掛け(例えば、色、サイズ、輝度)を有する。いくつかの実施形態では、第2の視覚的な指示は、音声メッセージが電子デバイスに送信され、他のデバイスには送信されない音声メッセージであるときに、第1の視覚的見掛けとは異なる第2の視覚的見掛けを有する。 In some embodiments, a second visual indication (eg, 1102 of 11I) is displayed in response to receiving data prior to outputting the voice message. In some embodiments, the second visual indication is the first visual appearance (e.g., color , size, brightness). In some embodiments, the second visual indication is a second visual appearance that differs from the first visual appearance when the voice message is a voice message to be sent to the electronic device and not to other devices. has a visual appearance of

いくつかの実施形態では、電子デバイスは、再生のための音声メッセージ(例えば、音声マルチキャストメッセージ)に対応するデータを受信する。いくつかの実施形態では、再生のための音声メッセージに対応するデータは、デバイスのグループに関連付けられた識別子(例えば、グループ(「ホーム」)又はカテゴリ(例えば、グループ内の「ダイニングルーム」、「リビングルーム」、「サンルーム」カテゴリに対応する場所)を含む。いくつかの実施形態では、音声メッセージを(例えば、ユーザ要求に応答して、自動的に)出力する。いくつかの実施形態では、音声メッセージを出力している間に、電子デバイスは、音声メッセージの1つ以上の特性(例えば、音量、ピッチ、階調、リズム(例えば、ビート))に基づいて変化しない視覚的な指示(例えば、図11Jの1102)を同時に表示する。 In some embodiments, an electronic device receives data corresponding to an audio message (eg, an audio multicast message) for playback. In some embodiments, the data corresponding to the voice message for playback is an identifier associated with a group of devices (e.g., group ("home") or category (e.g., "dining room", " locations corresponding to the "living room", "sunroom" categories).In some embodiments, voice messages are output (e.g., automatically in response to a user request).In some embodiments, , while outputting an audio message, the electronic device provides visual instructions (e.g., For example, 1102) in FIG. 11J are displayed at the same time.

いくつかの実施形態では、音声メッセージは、電子デバイスの音量レベル(例えば、システムレベルの音声レベル)(例えば、現在の音量レベル)に基づく出力(例えば、1154j)である。いくつかの実施形態では、電子デバイスは、視覚的な指示(例えば、図11B~11Fの1102)が表示される前に、ビジュアルコンテンツ(例えば、図11Aの1102)(例えば、任意の光(例えば、どのLEDもオンにされない))を表示していない。いくつかの実施形態では、電子デバイスは、視覚的な指示が表示される前に、非アクティブなディスプレイ状態(例えば、LEDは点灯していない)にある。いくつかの実施形態では、視覚的な指示を表示している間に、電子デバイスはアクティブなディスプレイ状態にある(例えば、いくつかのLEDは点灯される)。音声入力が受信されていないときにビジュアルコンテンツを表示しないことにより、音声入力が受信されておらず、ユーザによるどの発言も、他の外部デバイスによって送信し、再生されていないという視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the voice message is output (eg, 1154j) based on the electronic device's volume level (eg, system level audio level) (eg, current volume level). In some embodiments, the electronic device displays visual content (eg, 1102 in FIG. 11A) (eg, any light (eg, , no LED is turned on)). In some embodiments, the electronic device is in an inactive display state (eg, no LEDs lit) before the visual indication is displayed. In some embodiments, the electronic device is in an active display state (eg, some LEDs are illuminated) while displaying visual instructions. By not displaying visual content when no audio input is being received, the user is provided with visual feedback that no audio input has been received and any utterances by the user have not been transmitted and played by other external devices. provide to Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device, reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態では、電子デバイスは、視覚的な指示(例えば、図11Gの1102)を表示することを中止し(1214)、1つ以上のディスプレイ装置を介してビジュアルコンテンツ(例えば、図11Hの1102)を表示することを停止することを含む。いくつかの実施形態では、電子デバイスは、ビジュアルコンテンツの表示を停止した後に、非アクティブな表示状態にある。音声入力が受信されていないときにビジュアルコンテンツを表示しないことにより、デバイスが不活性状態にあるため、音声入力が受信されず、デバイスのバッテリ寿命を延ばす視覚フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device stops displaying 1214 the visual instructions (eg, 1102 in FIG. 11G) and displays the visual content (eg, FIG. 11H) via one or more display devices. of 1102). In some embodiments, the electronic device is in an inactive display state after stopping displaying visual content. By not displaying visual content when no audio input is being received, the device is in an inactive state and no audio input is being received, providing the user with visual feedback that extends the battery life of the device. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device; reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態では、視覚的な指示(例えば、図11Gの1102)は、別の視覚的な指示(例えば、視覚的な指示が対応する状態又はプロセスとは異なる状態又はプロセス(例えば、マルチキャストプロセス又は音声マルチキャストメッセージを送信/受信するためのプロセス)に対応する視覚的な指示)(例えば、又はビジュアルコンテンツ)と同時に表示されない。一度に1つの視覚的な指示のみを提供することにより、電子デバイスの状態及びユーザの発言が他の外部デバイスによって送信され、再生されているかどうかを明確にすることをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the visual indication (eg, 1102 in FIG. 11G) is a different state or process (eg, multicast (eg, or visual content) corresponding to the process or processes for sending/receiving audio multicast messages). By providing only one visual indication at a time, it provides the user with clarity about the state of the electronic device and whether the user's utterances are being transmitted and played back by other external devices. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device; reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態では、視覚的な指示(例えば、図11Gの1102)は、電子デバイスと通信する(例えば、電子デバイス上若しくは電子デバイスにデータを送信するか又は電子デバイスからデータを受信する1つ以上の外部アプリケーション上で実行する)1つ以上のアプリケーションの状態(例えば、マルチキャストプロセスのための状態、又は音声マルチキャストメッセージを送信/受信するためのプロセス、電子デバイスの状態に関連付けられたプロセス、電子デバイスの状態に関連付けられたプロセス)に基づいて異なる光を提供する光(例えば、1102のLED)示唆である。 In some embodiments, the visual indication (eg, 1102 in FIG. 11G) communicates with the electronic device (eg, transmits data on or to the electronic device or receives data from the electronic device 1 state of one or more applications (e.g., state for multicast processes, or processes for sending/receiving audio multicast messages, processes associated with the state of an electronic device, running on one or more external applications); It is suggested that the light (eg, LED at 1102) provide different light based on a process associated with the state of the electronic device.

方法1200に関して上述したプロセス(例えば、図12)の詳細はまた、上述した方法にも類似の方式で適用可能であることに留意されたい。例えば、方法1200は、任意選択的に、方法800及び1000に関して前述した様々な方法の特性のうちの任意の1つ以上を含む。例えば、コンピュータシステムは、同じシステムであってもよい。別の例では、方法800で送信された音声メッセージは、方法1000で受信したメディアとすることができる。別の例では、方法1200で送信された音声入力は、方法1000で受信したメディアと同じであり得る。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the details of the processes described above with respect to method 1200 (eg, FIG. 12) are also applicable in an analogous manner to the methods described above. For example, method 1200 optionally includes any one or more of the various method features described above with respect to methods 800 and 1000 . For example, the computer systems may be the same system. In another example, the voice message sent in method 800 can be media received in method 1000 . In another example, the audio input sent in method 1200 may be the same media received in method 1000 . For the sake of brevity, these details are not repeated below.

図13A~13Nは、いくつかの実施形態に係る、外部デバイスを管理するための例示的な電子デバイス及びユーザインタフェースを示す。これらの図のユーザインタフェースは、図14のプロセスを含む後述のプロセスを例示するために使用される。 13A-13N illustrate exemplary electronic devices and user interfaces for managing external devices, according to some embodiments. The user interfaces of these figures are used to illustrate the processes described below, including the process of FIG.

図13Aは、ユーザインタフェース710を表示する電子デバイス700を示す。いくつかの実施形態では、デバイス700は、上述(例えば、図7A~7AH)のように、ホーム602に関連し得る(例えば、関係する、関連する物理的場所に位置している、指定された1つ以上のデバイスと対話するなどの1つ以上のネットワークと通信しているか、又は通信していない)。ユーザインタフェース710は、ホーム602に指定された複数の外部デバイスを制御するためのユーザインタフェースである。ユーザインタフェース710は、1つ以上の特性を有し、図7A~7AHに関連して上述されているような方法で応答され得る、ホーム場所識別子712、マクロ制御716、外部デバイス制御718、ナビゲーション制御722、ホームマルチキャスト命令724、及びホームマルチキャストアフォーダンス726(例えば、選択可能なユーザインタフェースオブジェクト対象)を含む。 FIG. 13A shows electronic device 700 displaying user interface 710 . In some embodiments, device 700 may be associated with home 602 (e.g., located at an associated physical location, designated communicating with one or more networks, such as interacting with one or more devices, or not). User interface 710 is a user interface for controlling a plurality of external devices designated as home 602 . The user interface 710 has one or more properties and may be responded to in a manner such as described above in connection with FIGS. 7A-7AH: home location identifier 712; macro controls 716; external device controls 718; 722, home multicast instructions 724, and home multicast affordances 726 (eg, selectable user interface object targets).

ユーザインタフェース710はまた、状態インジケータ1314も含む。状態インジケータのそれぞれは、ホーム602に現在指定されているデバイスのうちのいくつかの現在の状態に関する情報(例えば、その一部は、図6に関して上述したもの)を含む。図13Aに示すように、状態インジケータ1314は、一酸化炭素状態インジケータ1314a、アラーム状態インジケータ1314b、アカウントエラー状態インジケータ1314c、は、更新利用可能な状態インジケータ1314d、及びタイマー状態インジケータ1314eの一部(それぞれ、左から右へ)を含む。一酸化炭素状態インジケータ1314aは、1つ以上の一酸化炭素検出器又はセンサが、ホーム602での一酸化炭素の存在を検出し、したがって、1つ以上の一酸化炭素検出器又はセンサは一酸化炭素検出状態、例えば、アラート「オン」で、一酸化炭素漏洩の検出を示す。アラーム状態インジケータ1314bは、ホーム602に関連する1つ以上のアラームがトリッピングされていることを示し、したがって、1つ以上のアラームがアクティブで、例えば、トリガされた又はアラートされた状態にあることを示す。アカウントエラー状態インジケータ1314cは、デバイス700が現在、700がホーム602に関連付けられたアカウントに現在ログインされていないか、又デバイス700がホーム602に指定された1つ以上の既知の外部デバイスに接続する問題を有するなどのホーム602に関連付けられたアカウントに関する問題を有することを示す。更新利用可能な状態インジケータ1314dは、更新されたソフトウェアが、1つ以上の外部デバイス及び/又はデバイス700(例えば、ホームアプリケーションに対応する1つ以上の機能を含むソフトウェア)にインストールされ得ることを示す。タイマー状態インジケータ1314eは、1つ以上のタイマーが現在アクティブであることを示す。加えて、タイマー状態インジケータ1314eは、少なくとも1つのタイマー(又は複数のタイマーの合計時間の総計)が、タイマー(又は複数のタイマー)が最初に設定された時間から時間の約0%が経過した状態であることを示す。具体的には、この状態は、タイマー状態インジケータ1314eの周辺部の約100%をカバーする、残りの時刻表示1314e1によって表される。 User interface 710 also includes status indicator 1314 . Each of the status indicators includes information about the current status of some of the devices currently designated as home 602 (eg, some of which was described above with respect to FIG. 6). As shown in FIG. 13A, status indicators 1314 include carbon monoxide status indicator 1314a, alarm status indicator 1314b, account error status indicator 1314c, update available status indicator 1314d, and part of timer status indicator 1314e (respectively). , from left to right). Carbon monoxide status indicator 1314a indicates that one or more carbon monoxide detectors or sensors have detected the presence of carbon monoxide in home 602 and therefore one or more carbon monoxide detectors or sensors A carbon detection state, eg, alert "on", indicates detection of a carbon monoxide leak. Alarm status indicator 1314b indicates that one or more alarms associated with home 602 have been tripped, thus indicating that one or more alarms are active, e.g., in a triggered or alerted state. show. Account error status indicator 1314 c indicates whether device 700 is not currently logged into the account associated with home 602 or device 700 connects to one or more known external devices designated home 602 . Indicates that you have a problem with the account associated with Home 602, such as having a problem. Update available status indicator 1314d indicates that updated software may be installed on one or more external devices and/or devices 700 (eg, software that includes one or more features corresponding to the Home application). . Timer status indicator 1314e indicates that one or more timers are currently active. Additionally, timer status indicator 1314e indicates that at least one timer (or the aggregate amount of time of multiple timers) has reached approximately 0% of the time since the timer (or multiple timers) was originally set. indicates that Specifically, this state is represented by remaining time display 1314e1 covering approximately 100% of the perimeter of timer state indicator 1314e.

各状態インジケータは、状態インジケータ(例えば、一酸化炭素状態インジケータ1314a)に関連付けられた名前(例えば、「一酸化炭素)を含み、少なくとも1つの特定の視覚的な特性(例えば、色(例えば、赤色、グレーアウトなど)、パターン、形状など)で表示することができる。いくつかの実施形態では、状態インジケータのうちの任意の1つ以上は、状態インジケータによって表される状態(例えば、アクティブ、警告、又は注意注意)である特定のタイプ(例えば、一酸化炭素検出器又はセンサ)のいくつかのデバイスの表現を含む。各状態インジケータはまた、状態インジケータの状態の迅速な視覚的表現を含んでもよい。 Each status indicator includes a name (eg, "carbon monoxide)" associated with the status indicator (eg, carbon monoxide status indicator 1314a) and at least one particular visual characteristic (eg, a color (eg, red color)). , greyed out, etc.), patterns, shapes, etc. In some embodiments, any one or more of the state indicators may be displayed in the state represented by the state indicators (e.g., active, warning, (e.g. carbon monoxide detector or sensor), each status indicator may also include a quick visual representation of the status of the status indicator .

図13Aでは、各状態インジケータは、特定の状態インジケータカテゴリ内にあり(例えば、その一部に含まれるか、又はそれに属する)、状態インジケータはそれぞれの状態インジケータのそれぞれが対応するそれぞれの状態インジケータカテゴリに基づく順序で表示される。図13Aでは、状態インジケータの特定の状態インジケータカテゴリは、状態インジケータの緊急性(又は重要度)を示す。1つの状態インジケータカテゴリ内にある状態インジケータは、異なる状態インジケータカテゴリ内にある状態インジケータの1つ以上の特性とは異なる1つ以上の特性を有することができる。図13Aに示すように、一酸化炭素状態インジケータ1314a及びアラーム状態インジケータ1314bは、第1の状態インジケータカテゴリ(例えば、最緊急性のカテゴリ、アラームカテゴリ)にあり、第1の色(例えば、垂直ハッチングによって示されるように、赤色)で表示される。いくつかの実施形態では、第1の状態インジケータカテゴリは、特定の状態インジケータに関連付けられた外部デバイスが可能な限り早くアドレス指定されるべきであることを示す。次に、図13Aでは、アカウントエラー状態インジケータ1314c及び更新利用可能な状態インジケータ1314dは、第2の状態インジケータカテゴリ(例えば、第2の最緊急性のカテゴリ、第1の状態インジケータカテゴリよりも緊急性が低い状態インジケータカテゴリ、アクションが必要なカテゴリ)にあり、第1のカテゴリ内の状態インジケータの色とは異なる色で表示される(例えば、ハッチングなしで示される)。図13Aでは、タイマー状態インジケータ1314eは、第3の状態インジケータカテゴリ(例えば、第3の最緊急性のカテゴリ、第2の状態インジケータカテゴリよりも緊急性が低い状態インジケータカテゴリ)にある。タイマー状態インジケータ1314eは、タイマー状態インジケータ1314eに対応するタイマーの状態に関連する1つ以上の動的構成要素(例えば、残りの時刻表示1314e1)を含む。いくつかの実施形態では、1つ以上の動的構成要素(例えば、残りの時刻表示1314e1)は、(例えば、図13Bを参照して以下で更に説明するように)リアルタイムで更新される。いくつかの実施形態では、第1及び/又は第2の状態インジケータカテゴリにある状態インジケータは、それぞれの状態インジケータに対応する1つ以上の外部デバイスの特定の状態に対して1つ以上の動的構成要素を有さない。 In FIG. 13A, each state indicator is within (e.g., is part of or belongs to) a particular state indicator category, and each state indicator is in the respective state indicator category to which each of the respective state indicators corresponds. displayed in order based on In FIG. 13A, a particular status indicator category of status indicators indicates the urgency (or importance) of the status indicator. A status indicator within one status indicator category may have one or more characteristics that differ from one or more characteristics of status indicators within a different status indicator category. As shown in FIG. 13A, carbon monoxide status indicator 1314a and alarm status indicator 1314b are in a first status indicator category (eg, most urgent category, alarm category) and a first color (eg, vertical hatching). in red), as indicated by In some embodiments, the first status indicator category indicates that the external device associated with the particular status indicator should be addressed as soon as possible. 13A, account error status indicator 1314c and update available status indicator 1314d are placed in a second status indicator category (eg, second most urgent category, more urgent than first status indicator category). are in the low status indicator category, action required category) and are displayed in a different color than the color of the status indicators in the first category (eg, shown without hatching). In FIG. 13A, timer status indicator 1314e is in a third status indicator category (eg, a third most urgent category, a status indicator category less urgent than the second status indicator category). Timer state indicator 1314e includes one or more dynamic components (eg, remaining time indicator 1314e1) related to the state of the timer corresponding to timer state indicator 1314e. In some embodiments, one or more dynamic components (eg, remaining time display 1314e1) are updated in real time (eg, as further described below with reference to FIG. 13B). In some embodiments, the status indicators in the first and/or second status indicator categories include one or more dynamic It has no components.

いくつかの実施形態では、新しい状態インジケータが表示される必要があると判定されると、デバイス700は、新しい状態インジケータと同じ状態インジケータカテゴリの状態インジケータの後(又はその前又は間)に新しい状態インジケータを表示する。例えば、新しい状態インジケータが表示されるべきであり、新しい状態インジケータが第2の状態インジケータカテゴリにあると判定されると、デバイス700は、更新利用可能な状態インジケータ1314dとタイマー状態インジケータ1314eの間に新しい状態インジケータを(例えば、表示された状態インジケータ1314の全ての開始及び/又は終了時に新しい状態インジケータを付加する代わりに)表示する。したがって、新しい状態インジケータは、状態インジケータの緊急性に関連する位置でデバイス700上に表示され、ユーザは、他の表示された状態インジケータの関連する緊急性と比較して、新しい状態インジケータの関連する緊急性に基づいて新しい状態インジケータを識別、及び/又は、と対話させることを可能にする。図13Aでは、デバイス700は、状態インジケータ1314に対応する場所でタップジェスチャ1350aを検出する。 In some embodiments, when it is determined that a new state indicator should be displayed, the device 700 displays the new state indicator after (or before or between) the state indicators in the same state indicator category as the new state indicator. Show indicators. For example, if it is determined that a new status indicator is to be displayed and the new status indicator is in the second status indicator category, device 700 displays a display between update available status indicator 1314d and timer status indicator 1314e. Display a new state indicator (eg, instead of appending a new state indicator at the start and/or end of every displayed state indicator 1314). Thus, the new status indicator is displayed on the device 700 in a position relevant to the urgency of the status indicator, and the user is able to perceive the relative urgency of the new status indicator compared to the relative urgency of other displayed status indicators. Allows new status indicators to be identified and/or interacted with based on urgency. 13A, device 700 detects tap gesture 1350a at a location corresponding to state indicator 1314. In FIG.

図13Bでは、デバイス700は、ジェスチャ1350aが左方向のスワイプジェスチャであると判定する。図13Bに示すように、デバイス700は、ジェスチャ1350aがスワイプジェスチャであると判定したため、デバイス700は、デバイス700上(例えば、状態インジケータ1314と同じ領域内)に表示され得るよりも多くの状態インジケータが存在する場合には、追加の状態インジケータを表示する。具体的には、デバイス700は、図13Aに以前に表示された状態インジケータ1314を左に(例えば、ジェスチャ1350aの方向に)移動させ、それにより、一酸化炭素状態インジケータ1314a、アラーム状態インジケータ1314b、及びアカウントエラー状態インジケータ1314cが表示されなくなり、更新利用可能な状態インジケータ1314d及びタイマー状態インジケータ1314eは、それぞれ、一酸化炭素状態インジケータ1314a及びアラーム状態インジケータ1314bに置き換えられ、気候状態インジケータ1314f、ドアロック状態インジケータ1314g、及び光状態インジケータ1314hの一部は、図13Bに新たに表示される。 In FIG. 13B, device 700 determines that gesture 1350a is a left swipe gesture. As shown in FIG. 13B, device 700 determines that gesture 1350a is a swipe gesture, so device 700 displays more state indicators than can be displayed on device 700 (eg, in the same area as state indicator 1314). If exists, display an additional status indicator. Specifically, device 700 moves status indicator 1314 previously displayed in FIG. 13A to the left (eg, toward gesture 1350a), thereby causing carbon monoxide status indicator 1314a, alarm status indicator 1314b, and account error status indicator 1314c are no longer displayed, update available status indicator 1314d and timer status indicator 1314e are replaced by carbon monoxide status indicator 1314a and alarm status indicator 1314b respectively, climate status indicator 1314f, door lock status Indicator 1314g and a portion of light status indicator 1314h are newly displayed in FIG. 13B.

図13Bに示すように、タイマー状態インジケータ1314eは、動的構成要素、残りの時刻表示1314e1を含む。図13A~13Bを見ると、残りの時刻表示1314e1は、図13Aではタイマーが13分で開始し、図13Bでは約10分の左になるまで実行するので、図13Aのタイマー状態インジケータ1314eの周辺部のおよそ100%から図13Bのタイマー状態インジケータ1314eの周辺部のおよそ75%であるまで(例えば、ユーザ入力に応答しないが、時間が経過したことに応答して)移動する。 As shown in FIG. 13B, timer status indicator 1314e includes a dynamic component, remaining time display 1314e1. 13A-13B, the remaining time display 1314e1 is around timer status indicator 1314e in FIG. 13A, as the timer starts at 13 minutes in FIG. from approximately 100% of the portion to approximately 75% of the periphery of timer status indicator 1314e of FIG. 13B (eg, in response to the passage of time, but not in response to user input).

図13Bでは、気候状態インジケータ1314fは、タイマー状態インジケータ1314eが図13Aに関して上述したものと同じ状態カテゴリである第3の状態インジケータカテゴリにある。気候状態インジケータ1314fは、外部デバイスの複数の異なるタイプ(例えば、空気品質センサ、温度、湿度センサ)の状態に対応する状態インジケータを表す。気候状態インジケータ1314fは、1つ以上の気候制御機器によって検出される平均温度(又は1つ以上の気候制御機器が設定される)が68度であり、1つ以上の湿度センサによって検出された平均湿度は40%であり、1つ以上の空気品質センサによって検出された平均空気品質が良好であることを示す。更に、状態インジケータ1314fはまた、サーモスタット制御が、加熱システムを起動させる(例えば、サーモスタット制御が制御されているデバイスによって部屋が加熱されている)ことを示し、これは状態示唆1314fの上向きの矢印によって示される。いくつかの実施形態では、状態インジケータ1314fが下向きの矢印を含むとき、状態インジケータ1314fは、サーモスタット制御が空調システムを起動させる(例えば、サーモスタット制御が制御されているデバイスによって部屋が冷却されている)ことを示す。いくつかの実施形態では、状態インジケータ1314fがダッシュを含むとき、状態インジケータ1314fは、サーモスタット制御が、空調システム又は加熱システムを起動させないことを示す(例えば、部屋が、サーモスタットが設定される指定温度であることが検出される)。図13Bでは、デバイス700は、状態インジケータ1314に対応する場所でタップジェスチャ1350bを検出する。 In FIG. 13B, climate state indicator 1314f is in the third state indicator category, which is the same state category that timer state indicator 1314e was described above with respect to FIG. 13A. Climate status indicator 1314f represents status indicators corresponding to the status of multiple different types of external devices (eg, air quality sensors, temperature, humidity sensors). Climate state indicator 1314f indicates that the average temperature detected by one or more climate control devices (or where the one or more climate control devices are set) is 68 degrees and the average temperature detected by one or more humidity sensors is 68 degrees. Humidity is 40%, indicating good average air quality as detected by one or more air quality sensors. In addition, status indicator 1314f also indicates that the thermostat control is activating the heating system (eg, the room is being heated by the device the thermostat control is controlling), which is indicated by the upward arrow of status indication 1314f. shown. In some embodiments, when the status indicator 1314f includes a downward pointing arrow, the status indicator 1314f indicates that the thermostat control is activating the air conditioning system (eg, the room is being cooled by the device that the thermostat control is controlling). indicates that In some embodiments, when the status indicator 1314f includes dashes, the status indicator 1314f indicates that the thermostat control will not activate the air conditioning or heating system (e.g., the room is at the specified temperature at which the thermostat is set). is detected). 13B, device 700 detects tap gesture 1350b at a location corresponding to state indicator 1314. In FIG.

図13Cでは、デバイス700は、ジェスチャ1350bが左方向のスワイプジェスチャであると判定する。図13Cに示すように、デバイス700は、ジェスチャ1350bがスワイプジェスチャであると判定したため、デバイス700は、追加の状態インジケータを表示する。具体的には、デバイス700は、図13Bに以前に表示された状態インジケータ1314を左に移動させ、それにより、更新利用可能な状態インジケータ1314d、タイマー状態インジケータ1314e、及び気候状態インジケータ1314fが表示されなくなり、ドアロック状態インジケータ1314g、光状態インジケータ1314hは左にスライドし、開放窓状態インジケータ1314i、ドアセンサ状態インジケータ1314j、及び動きセンサ状態インジケータ1314kが、図13Cに新たに表示される。ジェスチャ1350bが右向きのスワイプジェスチャであると判定される実施形態では、デバイス700は、状態インジケータを右に移動させて、以前に表示された状態インジケータのうちの任意の1つ以上(例えば、図13Aに表示された一酸化炭素状態インジケータ1314a、アラーム状態インジケータ1314b)を表示する。 In FIG. 13C, device 700 determines that gesture 1350b is a left swipe gesture. As shown in FIG. 13C, device 700 has determined that gesture 1350b is a swipe gesture, so device 700 displays an additional status indicator. Specifically, device 700 moves status indicator 1314 previously displayed in FIG. 13B to the left, thereby displaying update available status indicator 1314d, timer status indicator 1314e, and climate status indicator 1314f. 13C, door lock status indicator 1314g, light status indicator 1314h slide to the left, and window open status indicator 1314i, door sensor status indicator 1314j, and motion sensor status indicator 1314k are newly displayed in FIG. 13C. In embodiments in which gesture 1350b is determined to be a rightward swipe gesture, device 700 moves the state indicators to the right to display any one or more of the previously displayed state indicators (e.g., FIG. 13A display carbon monoxide status indicator 1314a, alarm status indicator 1314b).

図13Cでは、ドアロック状態インジケータ1314g、光状態インジケータ1314h、及び開放窓状態インジケータ1314iは、第4の状態インジケータカテゴリ(例えば、第4の最緊急性のカテゴリ、第3の状態インジケータカテゴリよりも緊急性が低い状態インジケータカテゴリ、クイックアクション状態インジケータカテゴリ)にある。記載されるように、特定の状態タイプのカテゴリは予め定義されているが、いくつかの実施形態では、特定のタイプの状態インジケータのカテゴリは、1つ以上のユーザ入力を介して指定され得る。いくつかの実施形態では、デバイス700は、特定のタイプのデバイス(例えば、光)並びに/若しくはユーザが特定のタイプのデバイス及び/又は特定のタイプの状態インジケータ(例えば、最重要、2番目に最重要、3番目に最緊急など)に関連する状態インジケータの状態カテゴリを設定することを可能にする特定のタイプの状態インジケータのための1つ以上の設定を表示する。 In FIG. 13C, door lock status indicator 1314g, light status indicator 1314h, and open window status indicator 1314i are placed in a fourth status indicator category (e.g., fourth most urgent category, more urgent than third status indicator category). state indicators category, quick action state indicators category). As noted, categories of particular condition types are predefined, but in some embodiments, categories of condition indicators of particular types may be specified via one or more user inputs. In some embodiments, the device 700 may be a specific type of device (eg, light) and/or a user may indicate a specific type of device and/or a specific type of status indicator (eg, most important, second most Displays one or more settings for a particular type of status indicator that allows setting status categories of status indicators to be associated with (important, third most urgent, etc.).

第4の状態インジケータカテゴリの状態インジケータは、特定のタイプの外部デバイスの数が特定の状態にあることを示す。例えば、図13Bに示すように、ドアロック状態インジケータ1314gは、2つのドアロックがアンロック状態にあることを示す。別の例として、図13Cでは、光状態インジケータ1314hは、5つの光がアクティブ(又はオン)状態にあり、開放窓状態インジケータ1314iが7つの窓ブラインド(例えば、カバー、陰影)が開放状態にあることを示す。特に、第4の状態インジケータカテゴリの状態インジケータは、異なる状態にある同じタイプのデバイスに関する情報を除外する。例えば、ホーム602に指定されたリビングルームデスクランプは(例えば、リビングルームデスクランプ制御718gによって示されるように)オフである。図13Cでは、リビングルームデスクランプがオフであるため、光状態インジケータ1314hは、リビングルームデスクに関する情報を含まない(図13D~13Fに関連して以下で更に詳細に説明する)。 A status indicator in the fourth status indicator category indicates that a number of external devices of a particular type are in a particular state. For example, as shown in FIG. 13B, door lock status indicator 1314g indicates that two door locks are unlocked. As another example, in FIG. 13C, light status indicator 1314h has five lights active (or on) and open window status indicator 1314i has seven window blinds (e.g., covers, shades) open. indicates that In particular, the status indicators of the fourth status indicator category exclude information about devices of the same type in different states. For example, the living room desk lamp designated home 602 is off (eg, as indicated by living room desk lamp control 718g). In FIG. 13C, the living room desk lamp is off, so light status indicator 1314h does not include information about the living room desk (discussed in more detail below with respect to FIGS. 13D-13F).

図13C~13Hは、状態インジケータ(例えば、第4の状態インジケータカテゴリの状態インジケータ)に向けられたデバイス700によって検出された異なるジェスチャを示す。具体的には、図13C~13Hは、光状態インジケータ1314hに向けられている異なるジェスチャを示す。しかしながら、本明細書に記載される類似の技術は、ドアロック状態インジケータ1314g及び開放窓状態インジケータ1314iなどの他の状態インジケータに向けられているジェスチャに適用することができる。図13Cでは、デバイス700は、光状態インジケータ1314hに対応する(例えば、対応する場所で)ジェスチャ1350cを検出する。 Figures 13C-13H illustrate different gestures detected by device 700 aimed at a state indicator (eg, a state indicator of the fourth state indicator category). Specifically, FIGS. 13C-13H show different gestures directed at light status indicator 1314h. However, similar techniques described herein can be applied to gestures directed at other status indicators, such as door lock status indicator 1314g and window open status indicator 1314i. In FIG. 13C, device 700 detects gesture 1350c corresponding to (eg, at a corresponding location) light status indicator 1314h.

図13Dでは、デバイス700は、ジェスチャ1350cが、押圧及び保持ジェスチャ(例えば、所定の時間の期間を超えて検出されるジェスチャ)であると判定する。図13Dに示すように、デバイス700が、ジェスチャ1350cが押圧及び保持ジェスチャであると判定したため、デバイス700は(例えば、ジェスチャ1350bがスワイプジェスチャであったと判定されたときに、追加の状態インジケータを表示することとは対照的に)ユーザインタフェース1340を表示する。図13Dに示すように、ユーザインタフェース1340は、図13Cで以前に表示されたユーザインタフェース710に置き換えられている。 In FIG. 13D, device 700 determines that gesture 1350c is a press and hold gesture (eg, a gesture detected over a predetermined period of time). As shown in FIG. 13D, because device 700 determined that gesture 1350c was a press and hold gesture, device 700 may display an additional status indicator (e.g., when it determined that gesture 1350b was a swipe gesture). display the user interface 1340 (as opposed to doing). As shown in FIG. 13D, user interface 1340 has been replaced by user interface 710 previously displayed in FIG. 13C.

図13Dに示すように、光状態インジケータ1314hは、ホーム602に指定された1つ以上の光の状態を示すため、ユーザインタフェース1340は、ホーム602に指定された光(例えば、照明装置)のための外部デバイス制御718を含む。図13Dに示すように、ユーザインタフェース1340上に表示される外部デバイス制御718は、それぞれの対応する外部デバイス制御が指定されるホーム602の部屋又は一部(例えば、「寝室」、「ダイニングルーム」、「リビングルーム」、「ポーチ」)によって順序付けられる。例えば、寝室光制御718f及び寝室常夜灯制御718hは、ホーム602の寝室(例えば、602c)に指定され、ユーザインタフェース1340上の「寝室」見出しの下にあり、ダイニングルーム光制御718iはホーム602のダイニングルーム(例えば、602b)に指定され、ユーザインタフェース1340上の「ダイニングルーム」見出しの下にあり、リビングルームランプ制御718b及びリビングルームデスクランプ制御718gはホーム602のリビングルーム(例えば、602d)に指定され、ユーザインタフェース1340上の「リビングルーム」見出しの下にあり、ポーチ光制御718jはホーム602のポーチに指定され、ユーザインタフェース1340上の「ポーチ」見出しの下にある。 As shown in FIG. 13D, light status indicator 1314h indicates the status of one or more lights designated home 602, and user interface 1340 provides a display for lights (e.g., lighting devices) designated home 602. of external device control 718 . As shown in FIG. 13D, the external device controls 718 displayed on the user interface 1340 are the rooms or portions of the home 602 (e.g., "bedroom", "dining room") to which their respective external device controls are assigned. , “living room”, “porch”). For example, bedroom light control 718f and bedroom nightlight control 718h are assigned to the bedroom (e.g., 602c) of home 602 and are under the "Bedroom" heading on user interface 1340, and dining room light control 718i is the dining room of home 602. A living room lamp control 718b and a living room desk lamp control 718g are assigned to the living room (e.g., 602d) of home 602, and are located under the "Dining Room" heading on user interface 1340. and is under the "Living Room" heading on user interface 1340, and porch light control 718j is assigned to the porch of home 602 and is under the "Porch" heading on user interface 1340.

特に、図13Dに示すように、寝室光制御1718f、寝室常夜灯制御718h、ダイニングルーム光制御718i、リビングルームランプ制御718b、及びポーチ光制御718jは、対応するそれぞれのデバイス(例えば、電球)がオン又は作動していることを示す。換言すれば、寝室光制御1718f、寝室常夜灯制御718h、ダイニングルーム光制御718i、リビングルームランプ制御718b、及びポーチ光制御718jに対応するデバイスはオンであり、図13Cの光状態インジケータ1314hによって示されるような「5つの点灯」示唆のうちの1つを示す。更に、光状態インジケータ1314hを見ると、6つの光がユーザインタフェース1340上に示されているが、第6の光及び/又は第6の光の状態の示唆は存在しない。5つの光のみがオン又はアクティブであり、光状態インジケータ1314hで識別されても、ホームは、ホームが関連付けられる非アクティブ又はオフである光などのより多くの光を有してもよい。いくつかの実施態様では、ユーザインタフェース1340は、光の詳細状態を表示する際に全ての光の詳細状態を示す。図13Dでは、リビングルームデスクランプは、他の光とは異なる視覚的な指示で表示される(例えば、リビングルームデスクランプ制御718gがオフであることを示す)。いくつかの実施形態では、リビングルームデスクランプが図13Cの光状態インジケータ1314hによって表される他の光制御と同じ状態にないため、ユーザインタフェース1340は、図13Dでリビングルームデスクランプ制御718gを含まない。いくつかの実施形態では、ユーザインタフェース1340が図13Dのリビングルームランプ制御718gを含まないとき、デバイス700は、リビングルームランプランプの状態がオンに変化したこと(例えば、誰かがリビングルームデスクランプを物理的にオンにしたとき)の示唆の受信、又は光状態インジケータ1314hによって表される他の光制御の同じ状態に応答して、ユーザインタフェース1340上にリビングルームランプ制御718gを表示することができる。図13Dでは、デバイス700は、寝室光制御718fに向けられたタップジェスチャ1350dを検出する。 In particular, as shown in FIG. 13D, bedroom light control 1718f, bedroom nightlight control 718h, dining room light control 718i, living room lamp control 718b, and porch light control 718j are controlled when the respective corresponding device (e.g., light bulb) is turned on. or indicate that it is working. In other words, the devices corresponding to bedroom light control 1718f, bedroom nightlight control 718h, dining room light control 718i, living room lamp control 718b, and porch light control 718j are on, as indicated by light status indicator 1314h in FIG. 13C. One of such "five lights" suggestions is shown. Further, looking at light status indicator 1314h, six lights are shown on user interface 1340, but there is no indication of a sixth light and/or a sixth light status. Even though only five lights are on or active, identified by light status indicator 1314h, Home may have more lights, such as lights that are inactive or off with which Home is associated. In some implementations, the user interface 1340 shows the detail status of all lights when displaying the detail status of the lights. In FIG. 13D, the living room desk lamp is displayed with a different visual indication than the other lights (eg, indicating that the living room desk lamp control 718g is off). In some embodiments, user interface 1340 includes living room desk lamp control 718g in FIG. 13D because the living room desk lamp is not in the same state as the other light controls represented by light status indicator 1314h in FIG. 13C. do not have. In some embodiments, when the user interface 1340 does not include the living room lamp control 718g of FIG. Living room lamp control 718g may be displayed on user interface 1340 in response to receipt of an indication of when physically turned on, or the same state of the other light control represented by light state indicator 1314h. . In FIG. 13D, device 700 detects tap gesture 1350d directed at bedroom light control 718f.

図13Eでは、タップジェスチャ1350dの検出に応答して、デバイス700は寝室光632の状態を変化させる(例えば、オフにする)命令を送信し、寝室光制御718fの視覚的見掛けを更新する。図13Eに示すように、寝室光制御718fは、寝室光制御718fに対応する寝室光(例えば寝室光632)が、図13Dに示すように、例えば、活性状態にあるのとは対照的に、オフ、例えば、不活性状態にあることを示す。特に、ユーザインタフェース1340上に表示された他の光制御は、図13D~13Eでは変更されていない。タップジェスチャ1350dの検出に応答して、デバイス700は、他の光制御によって表される他の光が状態を変化させることなく、寝室光632を変化させる命令を送信する。したがって、ユーザインタフェース1340は、ユーザがそれぞれ対応する制御によって表される各デバイスに、他のデバイスにアクションを実行させることなく、アクション(例えば、デバイスの状態を変更する)を個別に実行させることを可能にする。図13Eでは、デバイス700は、完了アフォーダンス1342に向けられたタップジェスチャ1350eを検出する。 In FIG. 13E, in response to detecting tap gesture 1350d, device 700 sends an instruction to change the state of bedroom light 632 (eg, turn off), updating the visual appearance of bedroom light control 718f. As shown in FIG. 13E, the bedroom light control 718f is in the active state, as opposed to the bedroom light (e.g., bedroom light 632) corresponding to the bedroom light control 718f, as shown in FIG. 13D, for example. OFF, for example indicating an inactive state. In particular, the other light controls displayed on user interface 1340 are unchanged in FIGS. 13D-13E. In response to detecting tap gesture 1350d, device 700 sends a command to change bedroom light 632 without other lights represented by other light controls changing state. Thus, user interface 1340 allows the user to cause each device represented by each corresponding control to individually perform an action (e.g., change the state of the device) without causing other devices to perform the action. enable. In FIG. 13E, device 700 detects tap gesture 1350e directed at completion affordance 1342. In FIG.

図13Fに示すように、タップジェスチャ1350eの検出に応答して、デバイス700はユーザインタフェース1340の表示を中止し、状態インジケータ1314を有するユーザインタフェース710を再表示する。図13Fに示すように、光状態インジケータ1314hは、図13Cの光状態インジケータ1314hによって示されるように、5つの光がオンであるとは対照的に、ホーム602で4つの光がオンであることを反映するように更新される。したがって、いくつかの状態インジケータは、現在特定の状態(例えば、デバイスがその特定の状態から変更されたかどうか、又はデバイスがその特定の状態に変更されたかどうか)にあるデバイスの数を示すように更新される。更に、図13Fでは、寝室光制御718fはまた、ユーザインタフェース710上に表示された他の光制御(例えば、リビングルームランプ制御718b及びリビングルームデスクランプ制御718g)が、図13Cに示すように、それらのそれぞれの外観と比較したときに変化していない間、寝室光がオフであることを反映するためにユーザインタフェース710上で変化している。したがって、ユーザインタフェース710上に表示されたデバイス制御はまた、デバイス700が、ユーザインタフェース1340を介して表示されたデバイス制御に向けられたジェスチャ(例えば、ジェスチャ1350d)を検出したことに応答して更新される。図13Fでは、デバイス700は、光状態インジケータ1314hに向けられたジェスチャ1350fを検出する。 In response to detecting tap gesture 1350e, device 700 ceases displaying user interface 1340 and redisplays user interface 710 with status indicator 1314, as shown in FIG. 13F. As shown in FIG. 13F, light status indicator 1314h indicates that 4 lights are on at home 602, as opposed to 5 lights on, as shown by light status indicator 1314h in FIG. 13C. updated to reflect Accordingly, some state indicators are used to indicate the number of devices currently in a particular state (e.g., whether a device has changed from that particular state, or whether a device has changed to that particular state). Updated. Further, in FIG. 13F, the bedroom light control 718f also shows other light controls displayed on the user interface 710 (e.g., living room lamp control 718b and living room desk lamp control 718g), as shown in FIG. 13C. While unchanged when compared to their respective appearances, they have changed on the user interface 710 to reflect that the bedroom lights are off. Accordingly, the device controls displayed on user interface 710 are also updated in response to device 700 detecting a gesture directed to the device controls displayed via user interface 1340 (eg, gesture 1350d). be done. In FIG. 13F, device 700 detects gesture 1350f directed at light status indicator 1314h.

図13Gでは、デバイス700は、ジェスチャ1350fがタップジェスチャ(例えば、所定の時間の期間未満で検出されるジェスチャ、ジェスチャ1350a~1350cとは異なるジェスチャ)であると判定する。図13Gでは、デバイス700は、ジェスチャ1350fがタップジェスチャであると判定したため、デバイス700は、図13Fの光状態インジケータ1314hによってオンとして示される4つの光をオフにする(又は、状態を変更する)命令を送信する。したがって、寝室常夜灯制御718h、ダイニングルーム光制御718i、リビングルームランプ制御718b、及びポーチ光制御718jが図13Gではオフである。図13Gに示すように、デバイス700は、ジェスチャ1350fがタップジェスチャであると判定したため、デバイス700は、光状態インジケータ1314hの視覚的見掛けを変更し(例えば、図13Fのハッチングなしと比較して図13Gでは新たに導入されたハッチングによって示される)、光状態インジケータ1314hを更新して、4つの光がオフされたことを示す。特に、図13Gに示すように、リビングルームランプ制御718b及びリビングルームデスクランプ制御718gもまた、それらのそれぞれの対応するデバイスがオフになったことを示すように変更される。したがって、図13Gでは、デバイス700は、状態インジケータ上の単一のジェスチャ(例えば、タップ)に応答して、複数のデバイス(例えば、異なる部屋に指定されたデバイス)の状態を変更し、これは、(例えば、図13Dのジェスチャ1350dに関して上述したように)外部デバイス制御上の同じタイプのジェスチャ(例えば、タップ)に応答して、1つのデバイスの状態を変更するだけであるデバイス700とは異なるものである。更に、図13Gでは、デバイス700は、タップジェスチャが向けられた状態インジケータによって示されるデバイス(例えば、光、ドアロック、窓ブラインド調整器)のタイプに基づく同じアクション(例えば、光のオン、ドアのロック、ブラインドの閉鎖)を実行することによって、複数のデバイスの状態を変更させる。図13Gに示すように、図13Hのジェスチャ1350fは、光状態インジケータ1314hに向けられたタップジェスチャであるため、デバイス700は、他の状態インジケータの状態を変更せず、他の状態インジケータに対応する他のデバイスが状態を変更する命令を送信せず、他の状態インジケータの外観を維持する(例えば、図13F~13Gを比較するとき)。 In FIG. 13G, device 700 determines that gesture 1350f is a tap gesture (eg, a gesture detected for less than a predetermined period of time, a gesture different from gestures 1350a-1350c). In FIG. 13G, device 700 determines that gesture 1350f is a tap gesture, so device 700 turns off (or changes state) the four lights indicated as on by light state indicators 1314h in FIG. 13F. Send orders. Thus, bedroom nightlight control 718h, dining room light control 718i, living room lamp control 718b, and porch light control 718j are off in FIG. 13G. As shown in FIG. 13G, device 700 determines that gesture 1350f is a tap gesture, so device 700 changes the visual appearance of light status indicator 1314h (eg, in FIG. 13G) and updates the light status indicator 1314h to show that the four lights are turned off. In particular, as shown in FIG. 13G, living room lamp control 718b and living room desk lamp control 718g are also changed to indicate that their respective corresponding devices are turned off. Thus, in FIG. 13G, device 700 changes the state of multiple devices (e.g., devices designated in different rooms) in response to a single gesture (e.g., tap) on the state indicator, which is , which only changes the state of one device in response to the same type of gesture (e.g., tap) on an external device control (e.g., as described above with respect to gesture 1350d in FIG. 13D). It is a thing. Further, in FIG. 13G, the device 700 performs the same action (eg, turn on the light, turn on the door, turn on the door, etc.) based on the type of device (eg, light, door lock, window blind adjuster) indicated by the state indicator to which the tap gesture was directed. locks, closing blinds) to change the state of multiple devices. As shown in FIG. 13G, gesture 1350f in FIG. 13H is a tap gesture directed at light state indicator 1314h, so device 700 does not change the state of the other state indicator and responds to the other state indicator. Other devices do not send commands to change state and maintain the appearance of other state indicators (eg, when comparing FIGS. 13F-13G).

図13Hでは、デバイス700が光状態インジケータ1314hに向けられた別のジェスチャを検出することなく、デバイス700はジェスチャ1350fが検出されたことから、所定の時間の期間が経過したと判定する。図13Hに示すように、ジェスチャ1350fが検出されたことから所定の時間の期間が経過したと判定されるので、デバイス700は、光状態インジケータ1314hの表示を中止し、光状態インジケータ1314hによって以前に占有されていた空間を満たすために、開放窓状態インジケータ1314i、ドアセンサ状態インジケータ1314j、及び動きセンサ状態インジケータ1314kを左に移動させる。例えば、開放窓状態インジケータ1314iは、図13Gの光状態インジケータ1314hに隣接し、開放窓状態インジケータ1314iは、図13Hの光状態インジケータ1314hによって空けられた場所を占有する。状態インジケータのいくつかが左に偏移されているため、追加の状態インジケータ、光センサ状態インジケータ1314kが新たに表示される。ドアセンサ状態インジケータ1314j、動きセンサ状態インジケータ1314k及び光センサ状態インジケータ1314kは、第5の状態インジケータカテゴリ(例えば、第5の最緊急性のカテゴリ、第4の状態インジケータカテゴリよりも緊急性が低い状態インジケータカテゴリ、センサ状態インジケータカテゴリ)にある。ドアセンサ状態インジケータ1314jは、ホーム602に指定されたドアセンサが、ドアが半開きであることを検出したことを示す。動きセンサ状態インジケータ1314kは、ホーム602に指定された1つ以上の動きセンサによって動きが検出されたことを示す。光センサ状態インジケータ1314lは、1つ以上のドアセンサが、ホーム602に指定された1つ以上のドアが開放していることを検出したことを示す。いくつかの実施形態では、光状態インジケータ1314hに向けられたジェスチャが所定の時間の期間が経過する前に検出されると、デバイス700は、4つの光をオン状態に変更し、光状態インジケータ1314hを更新して、(例えば、図13Fに示すように)4つの光がオンであることを示す。状態インジケータに関連付けられたアクセサリが緊急又は活性状態から変化した後の所定の時間の期間、状態インジケータを引き続き検視するこの能力は、ユーザにアクセサリの状態変化を容易にアンドゥする機会をユーザに提供する。いくつかの実施形態では、光状態インジケータ1314hに向けられたジェスチャが所定の時間の期間が経過する前に検出されると、デバイス700は、追加のジェスチャが受信される前に過ぎる時間に関わりなく、光状態インジケータ1314hの表示を維持する。これらの実施形態のいくつかでは、光状態インジケータ1314hが最初にユーザインタフェース710上に表示されたとき(例えば、図13B)、1つ以上の光が入っていた最初の状態に光のうちの任意の1つ以上が戻ることを、光状態インジケータ1314hが示すので、デバイス700は、光状態インジケータ1314hのディスプレイを維持する。図13Hでは、デバイス700は、部屋ナビゲーション制御722b上でタップジェスチャ1350hを検出する。 In FIG. 13H, device 700 determines that the predetermined period of time has elapsed since gesture 1350f was detected without device 700 detecting another gesture directed at light status indicator 1314h. As shown in FIG. 13H, it is determined that the predetermined period of time has elapsed since gesture 1350f was detected, so device 700 ceases displaying light status indicator 1314h and causes light status indicator 1314h to stop displaying previously displayed light status indicator 1314h. Open window status indicator 1314i, door sensor status indicator 1314j, and motion sensor status indicator 1314k are moved to the left to fill the occupied space. For example, open window status indicator 1314i is adjacent to light status indicator 1314h in FIG. 13G, and open window status indicator 1314i occupies the space vacated by light status indicator 1314h in FIG. 13H. Since some of the status indicators have been shifted to the left, an additional status indicator, photosensor status indicator 1314k, is newly displayed. Door sensor status indicator 1314j, motion sensor status indicator 1314k, and light sensor status indicator 1314k are included in a fifth status indicator category (e.g., fifth most urgent category, less urgent status indicator than fourth status indicator category). category, Sensor Status Indicators category). Door sensor status indicator 1314j indicates that the door sensor assigned to home 602 detected that the door was ajar. Motion sensor status indicator 1314 k indicates that motion has been detected by one or more motion sensors designated as home 602 . Light sensor status indicator 1314l indicates that one or more door sensors have detected that one or more doors designated to home 602 are open. In some embodiments, when a gesture directed at light status indicator 1314h is detected before a predetermined period of time has elapsed, device 700 changes the four lights to the on state and displays light status indicator 1314h. to indicate that four lights are on (eg, as shown in FIG. 13F). This ability to continue to look at the status indicator for a predetermined period of time after the accessory associated with the status indicator changes from an emergency or active state provides the user with an opportunity to easily undo the accessory's status change. . In some embodiments, if a gesture directed at light status indicator 1314h is detected before a predetermined period of time elapses, device 700 will display the , maintain the display of light status indicator 1314h. In some of these embodiments, when light status indicator 1314h is first displayed on user interface 710 (eg, FIG. 13B), one or more lights were initially in any of the lights. Device 700 maintains the display of light status indicators 1314h because light status indicators 1314h indicate that one or more of . In FIG. 13H, device 700 detects tap gesture 1350h on room navigation control 722b.

図13Iに示すように、タップジェスチャ1350hの検出に応答して、デバイス700は、ホームアプリケーションのユーザインタフェース1360を表示し、部屋ナビゲーション制御722bが(例えば、ボールドで示されるように)選択されていることを示す。ユーザインタフェース1360は、寝室識別子1368によって示されるように、寝室602cに指定された複数の外部デバイスを制御するためのユーザインタフェースである。いくつかの実施形態では、デバイス700は、図13Iのユーザインタフェース1360を表示するために、図7Gのユーザインタフェース760を表示することに関連して上述したような1つ以上の技術を使用することができる。いくつかの実施形態では、ユーザインタフェース1360は、図7Fのタップジェスチャ750f3の検出に応答して代替的に表示することができ、及び/又はユーザインタフェース760は、図13Hのタップジェスチャ1350hの検出に応答して代替の表示をすることができる。 As shown in FIG. 13I, in response to detecting tap gesture 1350h, device 700 displays Home application user interface 1360 with room navigation control 722b selected (eg, as shown in bold). indicates that User interface 1360 is a user interface for controlling a plurality of external devices assigned to bedroom 602 c , as indicated by bedroom identifier 1368 . In some embodiments, device 700 uses one or more techniques such as those described above in connection with displaying user interface 760 of FIG. 7G to display user interface 1360 of FIG. 13I. can be done. In some embodiments, user interface 1360 may alternatively be displayed in response to detection of tap gesture 750f3 of FIG. 7F and/or user interface 760 may alternatively be displayed in response to detection of tap gesture 1350h of FIG. 13H. Alternate displays can be provided in response.

図13Iに示すように、ユーザインタフェース1360は、図13A~13C及び13F~13Hに表示された状態インジケータよりも、状態インジケータの低減された1組を含む。ユーザインタフェース1360は、ユーザインタフェース1360上に表示されたそれぞれの状態インジケータが寝室602に指定された少なくとも1つのデバイスに対応すると判定されるので、状態インジケータの低減された1組を含む。換言すれば、寝室602cに指定された複数の外部デバイスを制御するためのユーザインタフェース1360を表示するとき、デバイス700は、寝室602cに指定された少なくとも1つの装置に対応しない状態インジケータの表示を中止する。 As shown in FIG. 13I, user interface 1360 includes a reduced set of status indicators than those displayed in FIGS. 13A-13C and 13F-13H. User interface 1360 includes a reduced set of status indicators as it is determined that each status indicator displayed on user interface 1360 corresponds to at least one device designated in bedroom 602 . In other words, when displaying user interface 1360 for controlling a plurality of external devices designated in bedroom 602c, device 700 ceases displaying status indicators that do not correspond to at least one device designated in bedroom 602c. do.

図13Iに示すように、状態インジケータの低減された1組は、一酸化炭素状態インジケータ1314a、気候状態インジケータ1314f、及び開放窓状態インジケータ1314iを含む。特に、図13Iの気候状態インジケータ1314fは、寝室に指定されているが、図13Bの気候状態インジケータ1314fが示した湿度及び/又は空気品質情報を示していないサーモスタットに関連する温度を示す。ここで、湿度及び空気品質センサが寝室に指定されていないため、図13Iの気候状態インジケータ1314fは湿度及び/又は空気品質情報を示さない。しかしながら、図13Iの気候状態インジケータ1314fは、少なくとも1つのサーモスタットが寝室に指定されているため、サーモスタット制御に関連する温度を示す。更に、図13Iの状態インジケータ1314fは更に、サーモスタット制御が、加熱システムを起動させる(例えば、サーモスタット制御が制御されているデバイスによって部屋が加熱されている)ことを示し続け(例えば、図13Bの1314fと比較したとき)、これは図13Iの状態示唆1314fの上向きの矢印によって示される。したがって、同じタイプの複数のデバイスに対応する状態インジケータは、ホーム602の異なる部分又は部屋に対応するユーザインタフェースにナビゲートするときに、デバイスのタイプのうちの任意の1つ以上に関する情報の表示を中止することができる。更に、図13Iの開放窓状態インジケータ1314iは、図13Hに示すように、7つの窓が開いていることを示すのとは対照的に、1つの窓が開いていることを示すように変更されている。図13Iの開放窓状態インジケータ1314iは、1つの寝室窓のみが寝室602cに指定された窓ブラインド調整器を有するため、1つの窓が開いていることを示すように変更されている。図13Iでは、デバイス700は、開放窓状態インジケータ1314iに向けられた押圧及び保持ジェスチャ1350iを検出する。 As shown in FIG. 13I, the reduced set of condition indicators includes carbon monoxide condition indicator 1314a, climate condition indicator 1314f, and open window condition indicator 1314i. In particular, climate state indicator 1314f of FIG. 13I indicates the temperature associated with a thermostat that is assigned to the bedroom but does not indicate the humidity and/or air quality information indicated by climate state indicator 1314f of FIG. 13B. Here, the climate condition indicator 1314f of FIG. 13I does not indicate humidity and/or air quality information because no humidity and air quality sensors have been assigned to the bedroom. However, climate status indicator 1314f in FIG. 13I indicates temperatures associated with thermostat control, since at least one thermostat is assigned to the bedroom. Additionally, the status indicator 1314f of FIG. 13I also continues to indicate that the thermostat control is activating the heating system (eg, the room is being heated by the device the thermostat control is controlling) (eg, 1314f of FIG. 13B). ), this is indicated by the upward pointing arrow in state suggestion 1314f in FIG. 13I. Accordingly, status indicators corresponding to multiple devices of the same type may provide a display of information regarding any one or more of the device types when navigating to user interfaces corresponding to different portions or rooms of home 602. can be discontinued. Additionally, the open window status indicator 1314i of FIG. 13I has been modified to indicate that one window is open, as opposed to indicating that seven windows are open as shown in FIG. 13H. ing. The open window status indicator 1314i of FIG. 13I has been modified to indicate that one window is open because only one bedroom window has a window blind adjuster assigned to bedroom 602c. In FIG. 13I, device 700 detects a press and hold gesture 1350i directed at open window status indicator 1314i.

押圧及び保持ジェスチャ1350iの検出に応答して、図13Jに示すように、デバイス700は、窓ブラインド調整可能な制御1318iを含むユーザインタフェース1370を表示する。図13Jでは、デバイス700は、窓ブラインド調節可能な制御1318i上でのジェスチャ1350j(スワイプダウンジェスチャ)を検出する。図13Kに示すように、ジェスチャ1350jを検出したことに応答して、デバイス700は、窓ブラインド調整器に、(図31Jの示唆1372によって示されるように)100%の開放状態から、(例えば、図13Kの示唆1372によって示されるように)58%の開放状態に変更させる、寝室602bに指定された窓ブラインド調整器デバイスに命令を送る。 In response to detecting the press and hold gesture 1350i, the device 700 displays a user interface 1370 including window blind adjustable controls 1318i, as shown in FIG. 13J. In FIG. 13J, device 700 detects gesture 1350j (swipe down gesture) on window blind adjustable control 1318i. As shown in FIG. 13K, in response to detecting gesture 1350j, device 700 instructs the window blind adjuster to change from a 100% open state (as indicated by suggestion 1372 in FIG. 31J) to (e.g., Send a command to the window blind adjuster device assigned to bedroom 602b to change it to 58% open (as indicated by suggestion 1372 in FIG. 13K).

特に、図13Jでは、デバイス700は、窓ブラインド調整可能な制御1318iを表示し、ここで窓ブラインド調節可能な制御1318iの選択によって、窓ブラインド調整器の状態が窓ブラインド調節可能な制御1318iによって示される(例えば、「開放」100%開いている)状態とは異なる状態及び窓ブラインド調節可能な制御1318iによって示され状態(例えば、「開放」)とは反対の状態(例えば、「閉鎖」0%開いている)に変更される。したがって、窓ブラインド選択可能な制御1318iを選択することにより、ユーザが、図13Iの開放窓状態インジケータ1314iの方向にタップジェスチャを向けることによって、窓ブラインド調整器を変更することができる状態とは異なる状態に窓ブラインド調整器を変更することをユーザに可能にする。いくつかの実施形態では、デバイス700は、図13Iの開放窓状態インジケータ1314iが、所定の数を超えるデバイスを示すときに、図13Dのユーザインタフェース1340と類似のユーザインタフェースを表示する。したがって、図13Iの窓状態インジケータ1314iによって示される所定の数を超えるデバイスが存在する場合、複数のデバイスを制御する複数の制御が表示され、それぞれの制御のうちの1つの選択により、デバイスを反対状態(例えば、オン/オフ状態、開閉状態、ロック/アンロック状態)に変更させる。いくつかの実施形態では、デバイス700は、状態インジケータによって示される所定の数を超えるデバイスが存在する場合よりも、所定の数未満のデバイスが存在する場合に、ユーザが1つ以上のデバイスの上に、より多くの(又は異なる)制御を有することを可能にする制御を表示する。いくつかの実施形態では、状態インジケータによって示される所定の数未満のデバイスが存在し、状態インジケータ上でタップアンドホールドジェスチャが検出されと、デバイス700は、所定の数を超えるデバイスが状態インジケータによって特定の状態にあることが示されるとき、特定のデバイスに対して表示される制御の数よりも、特定のデバイスを制御するためのより多くの制御を表示する。 In particular, in FIG. 13J, device 700 displays window blind adjustable control 1318i, where selection of window blind adjustable control 1318i causes the state of the window blind adjuster to be indicated by window blind adjustable control 1318i. (e.g., "open" 100% open) and opposite to the state indicated by the window blind adjustable control 1318i (e.g., "open") (e.g., "closed" 0%). open). Thus, selecting the window blind selectable control 1318i is different from allowing the user to change the window blind adjuster by directing a tap gesture in the direction of the open window status indicator 1314i of FIG. 13I. Allows the user to change the window blind adjuster to any state. In some embodiments, device 700 displays a user interface similar to user interface 1340 of FIG. 13D when open window status indicator 1314i of FIG. 13I indicates more than a predetermined number of devices. Thus, if there are more than a predetermined number of devices, as indicated by window state indicator 1314i in FIG. Change the state (eg, on/off state, open/closed state, locked/unlocked state). In some embodiments, the device 700 may indicate that the user is on one or more devices when there are less than a predetermined number of devices than when there are more than a predetermined number of devices indicated by the status indicator. to display controls that allow you to have more (or different) controls. In some embodiments, when there are less than a predetermined number of devices indicated by the state indicator and a tap-and-hold gesture is detected on the state indicator, device 700 detects that more than the predetermined number of devices are identified by the state indicator. state, display more controls for controlling a particular device than the number of controls displayed for a particular device.

図13L~13Nは、他の状態インジケータに向けられたジェスチャの検出に応答して表示される例示的なユーザインタフェースを示す。いくつかの実施形態では、他の状態インジケータに向けられたジェスチャは、図13L~13Nのそれぞれのユーザインタフェースを表示するために、ジェスチャ1350c(例えば、押圧及び保持ジェスチャ)と同じタイプのジェスチャ又はジェスチャ1350f(例えば、タップジェスチャ)と同じタイプのジェスチャであり得る。したがって、いくつかの実施形態では、デバイス700は、ジェスチャのいずれかのタイプ(例えば、押圧及び保持ジェスチャ又はタップジェスチャ)の検出に応答して、図13L~13Nのそれぞれのユーザインタフェースを表示する。 13L-13N illustrate exemplary user interfaces displayed in response to detecting gestures directed at other status indicators. In some embodiments, gestures directed at other state indicators are the same type of gestures or gestures as gesture 1350c (eg, press and hold gestures) to display the respective user interfaces of FIGS. 13L-13N. It can be the same type of gesture as 1350f (eg, tap gesture). Accordingly, in some embodiments, device 700 displays the user interface of each of FIGS. 13L-13N in response to detecting any type of gesture (eg, press and hold gesture or tap gesture).

図13Lは、ユーザインタフェース1382を表示するデバイス700を示す。ユーザインタフェース1370は、デバイス700が図13Aの一酸化炭素状態インジケータ1314aに向けられたジェスチャを検出したことに応答して表示される。図13Lに示すように、ユーザインタフェース1382は、外部デバイス制御718を含み、ここで各外部デバイス制御は、ホーム602に指定された一酸化炭素デバイスの状態を示す。ユーザインタフェース1382によって示すように、寝室一酸化炭素センサが(例えば、寝室一酸化炭素制御718kによって示されるように)トリガされ、キッチン一酸化炭素センサ及びリビングルーム一酸化炭素センサは、(一酸化炭素センサ718l~718mによって示されるように)トリガされていない。したがって、デバイス700が第4の状態インジケータカテゴリ(例えば、一酸化炭素状態インジケータ1314a)以外の状態インジケータカテゴリの状態インジケータに向けられたジェスチャの検出に応答して、デバイス700は、それぞれのカテゴリの状態インジケータに対応する特定のタイプのデバイス制御を表示し、ここでデバイス制御は、それぞれの制御に対応するデバイスがある状態を示す1つ以上の視覚的見掛けを有する。いくつかの実施形態では、ユーザインタフェース1370は、図13D~13Eに関連して上述したものと類似の技術を使用して表示される。 FIG. 13L shows device 700 displaying user interface 1382 . User interface 1370 is displayed in response to device 700 detecting a gesture directed at carbon monoxide status indicator 1314a of FIG. 13A. As shown in FIG. 13L, user interface 1382 includes external device controls 718, where each external device control indicates the status of a carbon monoxide device designated home 602. FIG. As shown by user interface 1382, the bedroom carbon monoxide sensor is triggered (e.g., as shown by bedroom carbon monoxide control 718k), and the kitchen carbon monoxide sensor and living room carbon monoxide sensor are not triggered (as indicated by sensors 718l-718m). Thus, in response to the device 700 detecting a gesture directed at a status indicator of a status indicator category other than the fourth status indicator category (eg, carbon monoxide status indicator 1314a), the device 700 will detect the status of the respective category. A particular type of device control corresponding to the indicator is displayed, where the device control has one or more visual appearances that indicate the state in which the device corresponding to the respective control is. In some embodiments, user interface 1370 is displayed using techniques similar to those described above in connection with FIGS. 13D-13E.

図13Mは、ユーザインタフェース1384を表示するデバイス700を示す。ユーザインタフェース1384は、デバイス700が図13Bの気候状態インジケータ1314fに向けられたジェスチャを検出したことに応答して表示される。図13Lに示すように、ユーザインタフェース1384は、気候状態インジケータ1314fが、(例えば、図13Bに関して上述したように)複数のタイプのデバイスの状態を示すため、複数のタイプのデバイスに対応する制御を含む。例えば、図13Lでは、ユーザインタフェース1384は、サーモスタットデバイスを制御するための制御(例えば、寝室サーモスタット制御718n及びリビングルームサーモスタット制御718r)、空気品質センサを制御するための制御(例えば、キッチン空気品質センサ制御718o及びリビングルーム空気品質センサ制御718r)、及び湿度センサを制御するための制御(例えば、キッチン湿度センサ制御718p)を含む。 FIG. 13M shows device 700 displaying user interface 1384 . User interface 1384 is displayed in response to device 700 detecting a gesture directed at climate state indicator 1314f of FIG. 13B. As shown in FIG. 13L, user interface 1384 provides controls corresponding to multiple types of devices because climate status indicator 1314f indicates the status of multiple types of devices (eg, as described above with respect to FIG. 13B). include. For example, in FIG. 13L, user interface 1384 provides controls for controlling thermostat devices (eg, bedroom thermostat control 718n and living room thermostat control 718r), controls for controlling air quality sensors (eg, kitchen air quality sensor living room air quality sensor control 718o and living room air quality sensor control 718r), and controls for controlling humidity sensors (eg, kitchen humidity sensor control 718p).

図13Nは、ユーザインタフェース1386を表示するデバイス700を示す。ユーザインタフェース1386は、デバイス700が図13Hの動きセンサ状態インジケータ1314kに向けられたジェスチャを検出したことに応答して表示される。13Nに示すように、ユーザインタフェース1386は、ホーム602に指定された動きセンサに対応する制御を含む。ユーザインタフェース1386は、図13D~13E及び13Lに関連して上述したものと類似の技術を使用して表示される。 FIG. 13N shows device 700 displaying user interface 1386 . User interface 1386 is displayed in response to device 700 detecting a gesture directed at motion sensor status indicator 1314k of FIG. 13H. As shown at 13N, user interface 1386 includes controls corresponding to the motion sensor designated home 602 . User interface 1386 is displayed using techniques similar to those described above in connection with FIGS. 13D-13E and 13L.

図14は、いくつかの実施形態に係る、コンピュータシステムを使用して外部デバイスを管理するための方法を示すフロー図である。方法1400は、ディスプレイ生成構成要素(例えば、ディスプレイ)及び1つ以上の入力デバイス(例えば、タッチ感知ディスプレイスクリーン)と通信するコンピュータシステム(例えば、100、300、500、634、674、700、701、850)で実行される。方法1400のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 FIG. 14 is a flow diagram illustrating a method for managing external devices using a computer system, according to some embodiments. The method 1400 is a computer system (eg, 100, 300, 500, 634, 674, 700, 701, 700, 701, 700, 701, 700, 700, 701, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, 700, ... 850). Some acts of method 1400 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

後述するように、方法1400は、外部デバイスを管理するための直観的方法を提供する。本方法は、外部デバイスを管理するためのユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にデバイス状態を認識することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 1400 provides an intuitive way to manage external devices. The method reduces the user's cognitive burden for managing external devices, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to perceive device status more quickly and efficiently.

コンピュータシステムは、第1のアクセサリタイプの複数のアクセサリデバイス(例えば、電球、窓、スイッチ、アウトレット、ロック(例えば、ドアロック、窓ロック)、テレビ)が第1の状態(例えば、オン、オフ、開放、閉鎖、ロック、アンロック)にあることを示す(例えば、グラフィカル表現及び対応する文字(例えば、2つの電球がオンである))第1の状態インジケータ(例えば、1314g、1314h、1314i)を、ディスプレイ生成構成要素を介して((例えば、表示を含む)含む第1のユーザインタフェース(例えば、アクセサリデバイスの1組を制御するためのユーザインタフェース)の表示の一部として)表示する(例えば、1402)。第1のアクセサリタイプの複数のアクセサリデバイスは、第1のアクセサリタイプであり、第1の状態にある第1のアクセサリデバイス(1404)、及び第1のアクセサリタイプであり、第1の状態にある第2のアクセサリデバイス(1406)を含み、ここで第2のアクセサリデバイスは、第1のアクセサリデバイスとは異なる。いくつかの実施形態では、第1の状態インジケータは、第1の状態にない第1のアクセサリタイプのアクセサリデバイス(例えば、第2の状態)(例えば、第1の状態インジケータは、第1の状態にない(例えば、第2の状態の)第1のアクセサリタイプの1つ以上のデバイスを(例えば、選択されたときに)示さない又は制御しない)を示さない。いくつかの実施形態では、第1の状態インジケータは、第1のアクセサリタイプではないアクセサリタイプのアクセサリデバイスの現在の状態に関わらず、第1のアクセサリタイプではないアクセサリタイプのアクセサリデバイスを示さない。 A computer system determines that a plurality of accessory devices of a first accessory type (e.g., light bulbs, windows, switches, outlets, locks (e.g., door locks, window locks), televisions) are in a first state (e.g., on, off, Open, Closed, Locked, Unlocked (e.g., graphical representation and corresponding lettering (e.g., two bulbs are on)) a first status indicator (e.g., 1314g, 1314h, 1314i) , display (e.g., as part of a display of a first user interface (e.g., a user interface for controlling a set of accessory devices) including (e.g., including a display)) via a display generation component (e.g., 1402). The plurality of accessory devices of a first accessory type are a first accessory device (1404) of a first accessory type and in a first state, and a first accessory device (1404) of a first accessory type and in a first state. A second accessory device (1406) is included, wherein the second accessory device is different than the first accessory device. In some embodiments, the first state indicator is the accessory device of the first accessory type that is not in the first state (eg, the second state) (eg, the first state indicator is the do not show or control (eg, when selected) one or more devices of the first accessory type (eg, in a second state). In some embodiments, the first status indicator does not indicate the accessory device of the accessory type that is not the first accessory type, regardless of the current status of the accessory device of the accessory type that is not the first accessory type.

コンピュータシステムは、第1の状態インジケータを表示している間に、コンピュータシステムはジェスチャ(例えば、1350a~1350c、1350f)を(例えば、1つ以上の入力デバイスを介して)検出する(1408)。 The computer system detects (eg, via one or more input devices) gestures (eg, 1350a-1350c, 1350f) while the computer system is displaying the first status indicator (1408).

ジェスチャの検出(1410)に応答し、ジェスチャが第1のタイプのジェスチャ(例えば、1350f)(例えば、タップジェスチャ)で、第1の状態インジケータ(例えば、1350h)に(例えば、対応する場所で)向けられたとの判定に従って、コンピュータシステムは、第1のアクセサリデバイス(例えば、第1のアクセサリデバイスの状態を変更するアクションを実行するために)及び第2のアクセサリデバイスを(例えば、第2のアクセサリデバイスの状態を変更するアクションを実行するために)第1の状態とは異なる(例えば、(例えば、オン/オフ、ロック/アンロック、開閉)の反対)第2の状態に変更させる(1412)(例えば、プロセスを開始することを介して(及び、いくつかの実施形態では、プロセスは、1つ以上の命令を1つ以上のデバイス(例えば、サーバ、第1のアクセサリデバイス及び第2のアクセサリデバイスを含む複数のデバイスと通信するハブデバイス、第1のアクセサリデバイス、第2のアクセサリデバイス)に送信すること含む)。いくつかの実施形態では、第1のアクセサリデバイス及び第2のアクセサリデバイスを第2の状態にすることの一部として、コンピュータシステムは、(例えば、ジェスチャが検出される前に)第2の状態(又は、第1の状態とは異なる任意の状態)にある1つ以上のアクセサリデバイスに、任意のアクションを実行させない、及び/又は状態を変更させない。 In response to detecting (1410) a gesture, the gesture is a first type of gesture (e.g., 1350f) (e.g., tap gesture) to a first state indicator (e.g., 1350h) (e.g., at a corresponding location). In accordance with the determination that it is directed, the computer system directs the first accessory device (e.g., to perform an action that changes the state of the first accessory device) and the second accessory device (e.g., the second accessory device Cause the device to change 1412 to a second state that is different from the first state (e.g., as opposed to (e.g., on/off, locked/unlocked, open/closed)) to perform an action that changes the state of the device (1412). (e.g., via initiating a process (and in some embodiments, a process may send one or more instructions to one or more devices (e.g., a server, a first accessory device and a second a hub device, a first accessory device, a second accessory device that communicates with a plurality of devices, including the device), in some embodiments the first accessory device and the second accessory device; As part of entering the second state, the computer system causes one or more states to be in the second state (or any state different from the first state) (e.g., before the gesture is detected). accessory device to perform any action and/or change state.

ジェスチャの検出に(1410)応答し、ジェスチャが第1のタイプのジェスチャとは異なる第2のタイプのジェスチャ(例えば、1350c)(例えば、長押しジェスチャ)で、第1の状態インジケータ(例えば、1314h)に向けられたとの判定に従って、コンピュータシステムは、ディスプレイ生成構成要素を介して、第1のアクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象(例えば、718b、718f~718j)(例えば、第2のユーザインタフェースの表示の一部として)を表示し(1414)、ここで、第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択(例えば、1350d)(第1のタイプのジェスチャ(例えば、タップジェスチャ)であるジェスチャを介して)によって、(例えば、第1のアクセサリデバイスの状態を変更するアクションを実行するために)第1のアクセサリデバイスを、第2のアクセサリデバイスを第2の状態に変更させることなく(例えば、第1のアクセサリデバイスを第1の状態にすることを完了した後に、第2のアクセサリデバイスは第1の状態であり続ける)第2の状態に変更させる(例えば、プロセスを開始することを介して(及び、いくつかの実施形態では、プロセスは、命令を1つ以上のデバイス(例えば、サーバ、複数のアクセサリデバイス(例えば、第1及び第2のアクセサリデバイスを含む)と通信するハブデバイス、第1のアクセサリデバイス(第2のアクセサリデバイスではない))。いくつかの実施形態では、第1のアクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象を表示している間に、コンピュータシステムは、第1のアクセサリ制御ユーザインタフェースオブジェクト対象に向けられたジェスチャを検出し(例えば、第1のアクセサリ制御ユーザインタフェースオブジェクト対象に向けられた第1のタイプのジェスチャ)、第1のアクセサリ制御ユーザインタフェースオブジェクト対象に向けられたジェスチャの検出に応答して、コンピュータシステムは、(例えば、第1のアクセサリデバイスを変更するアクションを実行するために)第1のアクセサリデバイスを、第2のアクセサリデバイスを第2の状態にすることなく、第2の状態に変更するアクションを実行させる(例えば、第1のアクセサリデバイスを第1の状態にすることを完了した後に、第2のアクセサリデバイスは第1の状態であり続ける)。いくつかの実施形態では、第1の状態インジケータに向けられたジェスチャの検出に応答し、ジェスチャが第1のジェスチャとは異なる第2のジェスチャ(例えば、長押しジェスチャ)であるとの判定に従って、コンピュータシステムは、ディスプレイ生成構成要素を介して、第3のアクセサリデバイスに対応する第3のアクセサリ制御ユーザインタフェースオブジェクト対象を表示し、ここで第3のアクセサリデバイスは第1のアクセサリデバイスタイプで、第1の状態にはない(例えば、第2の状態にある)、及び第3のアクセサリ制御ユーザインタフェースオブジェクト対象に向けられたジェスチャの検出に応答して、コンピュータシステムは、第3のアクセサリデバイスを、第1のアクセサリデバイス及び第2のアクセサリデバイスの状態を変更することなく(例えば、第1のアクセサリデバイス及び第2のアクセサリデバイスを第2の状態にすることなく)、(例えば、第3のアクセサリデバイスを変更するアクションを実行するために)第1の状態にする。いくつかの実施形態では、第2のユーザインタフェースは、第1のタイプではない(例えば、第1のアクセサリタイプとは異なる第2のアクセサリタイプの)アクセサリデバイスに対応する(例えば、又は任意の)アクセサリ制御ユーザインタフェースオブジェクト対象を含まない。いくつかの実施形態では、第1の状態インジケータに向けられたジェスチャの検出に応答し、ジェスチャが、第1のジェスチャとは異なる第2のジェスチャ(例えば、長押しジェスチャ)であるとの判定に従って、コンピュータシステムは、第1のアクセサリタイプとは異なるアクセサリタイプからなり、第2のユーザインタフェースを介して表示されるアクセサリ制御ユーザインタフェースオブジェクト対象を表示しない)。いくつかの実施形態では、第1の状態インジケータに向けられたジェスチャの検出に応答し、ジェスチャが第1のジェスチャとは異なる第2のジェスチャ(例えば、長押しジェスチャ)であるとの判定に従って、コンピュータシステムは、第1の状態インジケータの表示を中止する。ジェスチャが第1の状態インジケータに向けられるとき、検出されたジェスチャのタイプに基づいて異なる動作を実行することにより、ユーザには、ユーザインタフェースを乱すことなく、より多くの制御オプションが提供される。表示される追加コントローラによってUIを雑然とさせることなく、システムの追加制御できるようにすることにより、システムの操作性が高められ、ユーザ-システムインタフェースを(例えば、システムを操作する/システムと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、システムの電力使用が抑えられ、バッテリ寿命が改善される。第1のアクセサリデバイス及び第2のアクセサリデバイスを、第1の状態とは異なる第2の状態に変更させることにより、複数のデバイスが状態を変化させる1つの制御をユーザに提供し、これにより、複数のデバイスに状態を変更させるために必要な入力の数が低減される。動作を実行するために必要な入力の数を低減することにより、システムの操作性を向上させ、(例えば、システムを操作する/システムと対話するときに、適切な入力を提供するようにユーザを支援し、ユーザの誤りを低減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用を低減し、システムのバッテリ寿命を改善する。 A second type of gesture (eg, 1350c) (eg, a long press gesture) in response to 1410 detecting a gesture, where the gesture is different from the first type of gesture, causes a first state indicator (eg, 1314h) ), the computer system, via the display generation component, directs a first accessory control user interface object target (eg, 718b, 718f-718j) corresponding to the first accessory device (eg, as part of the display of the second user interface) is displayed 1414, where the selection of the first accessory control user interface object target (eg, 1350d) (a first type of gesture (eg, tap gesture)). ) causes a first accessory device to change a second accessory device to a second state (eg, to perform an action that changes the state of the first accessory device). (e.g., a second accessory device continues to be in the first state after completing placing the first accessory device in the first state) without changing to a second state (e.g., starting a process). (and in some embodiments, the process communicates instructions to one or more devices (e.g., a server, multiple accessory devices (e.g., including first and second accessory devices) the hub device, the first accessory device (not the second accessory device).In some embodiments, while displaying the first accessory control user interface object target corresponding to the first accessory device Second, the computer system detects a gesture directed at the first accessory control user interface object target (e.g., a first type gesture directed at the first accessory control user interface object target) and performs a first In response to detecting a gesture directed at an accessory control user interface object target, the computer system moves the first accessory device (e.g., to perform an action that modifies the first accessory device) to the second accessory device. Cause an action to change to a second state without placing the accessory device in the second state (e.g., placing the first accessory device in the first state). After completing, the second accessory device remains in the first state). In some embodiments, in response to detecting a gesture directed at the first state indicator, and following determining that the gesture is a second gesture that is different from the first gesture (eg, a long press gesture): The computer system displays, via the display generating component, a third accessory control user interface object object corresponding to the third accessory device, where the third accessory device is of the first accessory device type and the Not in one state (e.g., in a second state) and in response to detecting a gesture directed at a third accessory control user interface object target, the computer system causes the third accessory device to: Without changing the state of the first accessory device and the second accessory device (e.g., without putting the first accessory device and the second accessory device into the second state) (e.g., the third accessory (to perform an action that modifies the device) to a first state. In some embodiments, the second user interface corresponds (eg, or any) to an accessory device that is not of the first type (eg, of a second accessory type that differs from the first accessory type). Does not include accessory control user interface object targets. In some embodiments, in response to detecting a gesture directed at the first state indicator, and following determining that the gesture is a second gesture (e.g., a long press gesture) that is different from the first gesture. , the computer system does not display an accessory control user interface object object that is of a different accessory type than the first accessory type and is displayed via the second user interface). In some embodiments, in response to detecting a gesture directed at the first state indicator, and following determining that the gesture is a second gesture that is different from the first gesture (eg, a long press gesture): The computer system ceases displaying the first status indicator. By performing different actions based on the type of gesture detected when a gesture is directed at the first state indicator, the user is provided with more control options without cluttering the user interface. By allowing additional control of the system without cluttering the UI with additional displayed controllers, the usability of the system is enhanced and the user-system interface (e.g., operating/interacting with the system by helping the user to provide the correct input at times and by reducing user error), as well as enabling the user to use the system more quickly and efficiently, Reduces system power usage and improves battery life. providing a user with one control over which multiple devices change states by causing the first accessory device and the second accessory device to change to a second state that is different from the first state, thereby: The number of inputs required to cause multiple devices to change state is reduced. Improves the usability of the system by reducing the number of inputs required to perform an action (e.g., prompting the user to provide appropriate input when operating/interacting with the system). It makes the user-system interface more efficient (by assisting and reducing user error), as well as reducing power usage by enabling users to use the system more quickly and efficiently. , to improve system battery life.

いくつかの実施形態では、ジェスチャが、第1のタイプのジェスチャとは異なり、第1の状態インジケータ(例えば、1314h)に向けられた第2のタイプのジェスチャ(例えば、1350c)であるとの判定に従って、コンピュータシステムは、ディスプレイ生成構成要素を介し、第1のアクセサリ制御ユーザインタフェースオブジェクト対象(例えば、718b、718f~718j)と同時に、第2のアクセサリデバイスに対応する第2のアクセサリ制御ユーザインタフェースオブジェクト対象(例えば、718b、718f~718j)を表示する。いくつかの実施形態では、第2のアクセサリ制御ユーザインタフェースオブジェクト対象の(例えば、第1のタイプのジェスチャ(例えば、タップジェスチャ)を介しての)選択によって、(例えば、プロセスを介して(及び、いくつかの実施形態では、プロセスは1つ以上のデバイス(例えば、サーバ、複数のアクセサリデバイス(例えば、第1及び第2のアクセサリデバイスを含む)と通信するハブデバイス、第2のアクセサリデバイス(第1のアクセサリデバイスではない)に命令を送信することを含む)第2のアクセサリデバイスを、第1のアクセサリデバイスを第2の状態に変更させることなく、第2の状態に変更させる。いくつかの実施形態では、第2のアクセサリデバイスに対応する第2のアクセサリ制御ユーザインタフェースオブジェクト対象を表示している間に、コンピュータシステムは、第1のアクセサリ制御ユーザインタフェースオブジェクト対象に向けられたジェスチャを検出し(例えば、第1のアクセサリ制御ユーザインタフェースオブジェクト対象に向けられた第1のタイプのジェスチャ)、第2のアクセサリ制御ユーザインタフェースオブジェクト対象に向けられたジェスチャの検出に応答して、コンピュータシステムは、(例えば、第2のアクセサリデバイスを変更するアクションを実行するために)第2のアクセサリデバイスを、第1のアクセサリデバイスを第2の状態にすることなく、第2の状態に変更するアクションを実行させる(例えば、第2のアクセサリデバイスを第1の状態にすることを完了した後に、第1のアクセサリデバイスは第1の状態であり続ける)。いくつかの実施形態では、第2のアクセサリ制御ユーザインタフェースオブジェクト対象に向けられたジェスチャの検出に応答して、第2のアクセサリ制御ユーザインタフェースオブジェクト対象は、第1の視覚的見掛け(例えば、文字、サイズ、色、押圧された状態(例えば、押し下げられた、押圧))を有することから、第1の視覚的見掛けとは異なる第2の視覚的見掛け(例えば、文字、サイズ、色、押圧された状態(例えば、押し下げられた、押圧))に変更される。第1のアクセサリデバイスに対応する第1のアクセサリ制御と同時に第2のアクセサリデバイスに対応する第2のアクセサリ制御ユーザインタフェースオブジェクト対象を表示することは(例えば、ジェスチャが第1のタイプのジェスチャとは異なり、第1の状態インジケータに向けられた第2のタイプのジェスチャであるとの判定に従って)、ユーザインタフェースを乱すことなく個々のアクセサリデバイスを制御するためのより多くの制御オプションをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、システムの追加制御できるようにすることにより、システムの操作性が高められ、ユーザ-システムインタフェースを(例えば、システムを操作する/システムと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、システムの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, determining that the gesture is a second type gesture (eg, 1350c) directed at the first state indicator (eg, 1314h), unlike the first type gesture Accordingly, the computer system, via the display generation component, concurrently displays a first accessory control user interface object object (eg, 718b, 718f-718j), and a second accessory control user interface object corresponding to the second accessory device. Display objects (eg, 718b, 718f-718j). In some embodiments, selection of a second accessory control user interface object target (e.g., via a first type of gesture (e.g., tap gesture)) causes (e.g., via a process (and In some embodiments, the process includes one or more devices (e.g., a server, a hub device communicating with a plurality of accessory devices (e.g., including first and second accessory devices), a second accessory device (e.g., a second sending a command to a second accessory device to change to a second state without causing the first accessory device to change to the second state; In an embodiment, while displaying a second accessory control user interface object target corresponding to a second accessory device, the computer system detects a gesture directed at the first accessory control user interface object target. (e.g., a first type gesture directed at a first accessory control user interface object target), in response to detecting a gesture directed at a second accessory control user interface object target, the computer system: causing a second accessory device to perform an action to change to a second state without bringing the first accessory device to the second state (e.g., to perform an action that changes the second accessory device); (For example, the first accessory device remains in the first state after completing placing the second accessory device in the first state.) In some embodiments, a second accessory control user interface. In response to the detection of a gesture directed at the object target, the second accessory control user interface object target displays the first visual appearance (e.g., character, size, color, pressed state (e.g., depressed , pressed)), is changed to a second visual appearance (e.g., character, size, color, pressed state (e.g., depressed, pressed)) that is different from the first visual appearance. Displaying a second accessory control user interface object target corresponding to a second accessory device concurrently with a first accessory control corresponding to a first accessory device (eg, the gesture is a first type of gesture) (as opposed to a gesture of the second type directed at the first status indicator), giving the user more control options for controlling individual accessory devices without disrupting the user interface. offer. By allowing additional control of the system without cluttering the UI with additional displayed controllers, the usability of the system is enhanced and the user-system interface (e.g., operating/interacting with the system by helping the user to provide the correct input at times and by reducing user error), as well as enabling the user to use the system more quickly and efficiently, Reduces system power usage and improves battery life.

いくつかの実施形態では、ジェスチャは、第1の状態インジケータと共に、第1のアクセサリタイプとは異なる、第2のアクセサリタイプの複数のアクセサリデバイスが第3の状態にあることを示す第2の状態インジケータ(例えば、1314g、1314i)を同時に表示している間に検出され、第2のアクセサリタイプの複数のアクセサリデバイスは、第2のアクセサリタイプであり、第3の状態(例えば、第1の状態及び第2の状態とは異なる状態)にある第3のアクセサリデバイス及び第2のアクセサリタイプであり、第3の状態にある第4のアクセサリデバイスを含む。いくつかの実施形態では、第2のアクセサリタイプであり、第2の状態にある第3のアクセサリデバイス及び第2のアクセサリタイプであり、第2の状態にある第4のアクセサリデバイスは、第1のアクセサリデバイス及び第2のアクセサリデバイスとは異なる。いくつかの実施形態では、ジェスチャが第1のタイプのジェスチャ(例えば、1350fと類似の)(例えば、タップジェスチャ)で、第2の状態インジケータ(例えば、1314g、1314i)に(例えば、対応する場所で)向けられたとの判定に従って、コンピュータシステムは、第3のアクセサリデバイス及び第4のアクセサリデバイスを第3の状態とは異なる(例えば、第1のアクセサリデバイス及び第2のアクセサリデバイスを異なる状態に変更させることなく(例えば、第1の状態とは異なる(例えば、(例えば、オン/オフ、ロック/アンロック、開閉)の反対)第2の状態)第4の状態に変更させる(例えば、プロセスを開始することを介して(及び、いくつかの実施形態では、プロセスは、1つ以上の命令を1つ以上のデバイス(例えば、サーバ、第1のアクセサリデバイス、第2のアクセサリデバイス、第3のアクセサリデバイス、及び第4のアクセサリデバイスを含む複数のデバイスと通信するハブデバイス)に送信すること含む)。いくつかの実施形態では、ジェスチャが第2のタイプのジェスチャ(例えば、1350cと類似の)(例えば、押圧及び保持ジェスチャ)で、第2の状態インジケータ(例えば、1314g、1314i)に(例えば、対応する場所で)向けられたとの判定に従って、コンピュータシステムは、ディスプレイ生成構成要素を介して、第3のアクセサリデバイスに対応する第3のアクセサリ制御ユーザインタフェースオブジェクト対象を(例えば、第2のユーザインタフェースを表示することの一部として)表示する。いくつかの実施形態では、第3のアクセサリ制御ユーザインタフェースオブジェクト対象の(ジェスチャの第1のタイプであるジェスチャ(例えば、タップジェスチャ)を介して)の選択により(例えば、プロセスを介して(及び、いくつかの実施形態では、プロセスは1つ以上のデバイス(例え、サーバ、(例えば、第1、第2、第3、及び第4のアクセサリデバイスを含む)複数のアクセサリデバイスと通信するハブデバイス、第3のアクセサリデバイス(第4のアクセサリデバイスではない)に命令を送信することを含む)、(例えば、第1のアクセサリデバイスの状態を変更するアクションを実行するために)第3のアクセサリデバイスを、第4のアクセサリデバイスを第4の状態に変更させることなく、第4の状態に変更させる(及び、いくつかの実施形態では、第1のアクセサリデバイス及び/又は第2のアクセサリ制御ユーザインタフェースオブジェクト対象に対応する(例えば、第2のユーザインタフェースを表示することの一部として)第1のアクセサリ制御ユーザインタフェースオブジェクト対象を、ディスプレイ生成構成要素を介して、表示することなく)(例えば、第4のアクセサリデバイスは、第3のアクセサリデバイスが第4の状態にあることを引き起こした後に第3の状態にあり続ける)。いくつかの実施形態では、ジェスチャが第2のタイプのジェスチャ(例えば、押圧及び保持ジェスチャ)で、第2の状態インジケータに(例えば、対応する場所で)向けられたとの判定に従って、コンピュータシステムは、第3のアクセサリ制御ユーザインタフェースオブジェクト対象と同時に第4のアクセサリ制御ユーザインタフェースオブジェクト対象を表示する。いくつかの実施形態では、第4のアクセサリ制御ユーザインタフェースオブジェクト対象が選択されると、コンピュータシステムは、(例えば、プロセスを介して(及び、いくつかの実施形態では、プロセスは1つ以上のデバイス(例えば、サーバ、複数のアクセサリデバイス(例えば、第1、第2、第3、第4のアクセサリデバイスを含む)と通信するハブデバイス、第4のアクセサリデバイス(第3のアクセサリデバイスではない)に命令を送信することを含む)第4のアクセサリデバイスを、第3のアクセサリデバイスを第4の状態に変更させることなく、第4の状態に変更させる。ジェスチャが向けられた状態インジケータ及び検出されたジェスチャのタイプに基づいて異なる動作を実行することにより、ユーザインタフェースを乱すことなく、異なるアクセサリデバイスタイプを制御するためのより多くの制御オプションがユーザに提供される。表示される追加コントローラによってUIを雑然とさせることなく、システムの追加制御できるようにすることにより、システムの操作性が高められ、ユーザ-システムインタフェースを(例えば、システムを操作する/システムと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、システムの電力使用が抑えられ、バッテリ寿命が改善される。第3のアクセサリデバイス及び第4のアクセサリデバイスを第4の状態に変更させることにより、複数のデバイスが状態を変化させる1つの制御がユーザに提供され、複数のデバイスに状態を変更させるために必要な入力の数が低減される。動作を実行するために必要な入力の数を低減することにより、システムの操作性を向上させ、(例えば、システムを操作する/システムと対話するときに、適切な入力を提供するようにユーザを支援し、ユーザの誤りを低減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用を低減し、システムのバッテリ寿命を改善する。 In some embodiments, the gesture along with the first state indicator is in a second state indicating that the plurality of accessory devices of a second accessory type, different from the first accessory type, are in a third state. A plurality of accessory devices of a second accessory type detected while simultaneously displaying indicators (eg, 1314g, 1314i) are of the second accessory type and are in a third state (eg, the first state and a state different from the second state) and a second accessory type, including a fourth accessory device in the third state. In some embodiments, the third accessory device of the second accessory type and in the second state and the fourth accessory device of the second accessory type and in the second state are the first and a second accessory device. In some embodiments, the gesture is a first type of gesture (e.g., similar to 1350f) (e.g., a tap gesture) to a second state indicator (e.g., 1314g, 1314i) (e.g., corresponding location ), the computer system places the third accessory device and the fourth accessory device in a different state than the third state (e.g., places the first accessory device and the second accessory device in a different state). change to a fourth state (eg process (and in some embodiments, the process sends one or more instructions to one or more devices (e.g., server, first accessory device, second accessory device, third and a hub device that communicates with multiple devices, including a fourth accessory device).In some embodiments, the gesture is a second type gesture (e.g., similar to 1350c ) (e.g., press and hold gestures) directed (e.g., at corresponding locations) to the second state indicators (e.g., 1314g, 1314i), the computer system, via the display generation component, , displays a third accessory control user interface object target corresponding to a third accessory device (eg, as part of displaying the second user interface) In some embodiments, the third accessory By selecting (e.g., via a process (and in some embodiments, a process the above devices (e.g., a server; a hub device that communicates with a plurality of accessory devices (e.g., including first, second, third, and fourth accessory devices); a third accessory device (e.g., a fourth accessory device); a third accessory device (e.g., to perform an action that changes the state of the first accessory device), a fourth accessory device to a fourth state change to a fourth state (and In some embodiments, a first accessory control user corresponding to a first accessory device and/or a second accessory control user interface object target (eg, as part of displaying the second user interface) without displaying the interface object target via a display generation component (e.g., a fourth accessory device enters a third state after causing a third accessory device to be in a fourth state). continue to exist). In some embodiments, upon determining that the gesture is a second type of gesture (e.g., press and hold gestures) and directed at a second state indicator (e.g., at a corresponding location), the computer system: A fourth accessory control user interface object object is displayed concurrently with the third accessory control user interface object object. In some embodiments, when a fourth accessory control user interface object target is selected, the computer system (e.g., via a process (and in some embodiments, the process is one or more devices (e.g., a server, a hub device that communicates with a plurality of accessory devices (e.g., including first, second, third, and fourth accessory devices), a fourth accessory device (but not a third accessory device) sending a command) causes a fourth accessory device to change to a fourth state without causing a third accessory device to change to a fourth state, a state indicator to which the gesture was directed and a detected state indicator; By performing different actions based on the type of gesture, the user is provided with more control options for controlling different accessory device types without cluttering the user interface. By allowing additional control of the system without clutter, the usability of the system is enhanced and the user-system interface (e.g., to provide appropriate input when operating/interacting with the system). (by assisting the user and reducing user error), and in addition reducing the power usage of the system by enabling the user to use the system more quickly and efficiently, Battery life is improved.By having a third accessory device and a fourth accessory device change to a fourth state, the user is provided with one control for multiple devices to change state, allowing multiple devices to change states. The number of inputs required to change state is reduced.By reducing the number of inputs required to perform an action, the operability of the system is improved (e.g., operating the system/ make the user-system interface more efficient (by assisting the user in providing appropriate input and reducing user error when interacting with the Reduce power usage and improve system battery life by enabling the use of

いくつかの実施形態では、第5のアクセサリデバイス(例えば、図13Aの718bによって表されるデバイス)が第1のアクセサリデバイスタイプで、第5のアクセサリデバイス(例えば、図13Aの718bによって表されるデバイス)が第1の状態であるとの判定に従って、第1のアクセサリタイプの複数のアクセサリデバイスは(例えば、1314hで示されるように)(例えば、第1のアクセサリデバイス及び第2のアクセサリデバイスとは異なる)第5のアクセサリデバイスを含む。いくつかの実施形態では、第5のアクセサリデバイス(例えば、図13Aの718gによって表されるデバイス)が第1のアクセサリデバイスタイプで、第5のアクセサリデバイス(例えば、図13Aの718gによって表されるデバイス)は第1の状態にはないとの判定に従って、第1のアクセサリタイプの複数のアクセサリデバイスは、(例えば、1314hで示されるように)第5のアクセサリデバイスを含まない。いくつかの実施形態では、第5のアクセサリデバイスが第1のアクセサリデバイスタイプではなく、第5のアクセサリデバイスが第1の状態にあるとの判定に従って、第5のアクセサリタイプの複数のアクセサリデバイスは第5のアクセサリデバイスを含まない。いくつかの実施形態では、第5のアクセサリデバイスが第1のアクセサリデバイスタイプではなく、第5のアクセサリデバイスが第1の状態にはないとの判定に従って、第1のアクセサリタイプの複数のアクセサリデバイスは第5のアクセサリデバイスを含まない。第1の状態にある第1のアクセサリデバイスタイプのアクセサリデバイスを制御し、第1の状態にはない第1のアクセサリデバイスタイプのアクセサリデバイスを制御しない状態インジケータを提供することにより、特定の予め定められた条件を見た満たすアクセサリデバイスを制御する状態インジケータがユーザに提供される。更なるユーザ入力を必要とせずに条件の1組が満たされたときに動作を実行することにより、システムの操作性が高められ、ユーザ-システムインタフェースを(例えば、システムを操作する/システムと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、システムの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the fifth accessory device (eg, the device represented by 718b in FIG. 13A) is of the first accessory device type and the fifth accessory device (eg, represented by 718b in FIG. 13A) device) is in the first state, the plurality of accessory devices of the first accessory type (eg, as indicated at 1314h) (eg, the first accessory device and the second accessory device). different) includes a fifth accessory device. In some embodiments, the fifth accessory device (eg, the device represented by 718g in FIG. 13A) is of the first accessory device type and the fifth accessory device (eg, represented by 718g in FIG. 13A) device) is not in the first state, the plurality of accessory devices of the first accessory type does not include a fifth accessory device (eg, as indicated at 1314h). In some embodiments, following determining that the fifth accessory device is not of the first accessory device type and that the fifth accessory device is in the first state, the plurality of accessory devices of the fifth accessory type Does not include a fifth accessory device. In some embodiments, the plurality of accessory devices of the first accessory type according to determining that the fifth accessory device is not of the first accessory device type and the fifth accessory device is not in the first state. does not include the fifth accessory device. By providing a state indicator to control accessory devices of the first accessory device type that are in the first state and not to control accessory devices of the first accessory device type that are not in the first state, a specific predetermined A user is provided with a status indicator to control the accessory device that meets the specified condition. System operability is enhanced by performing actions when a set of conditions are met without the need for further user input, allowing the user-system interface (e.g., operating/interacting with the system (by helping users to provide the appropriate input when they do this, by reducing user error), as well as enabling users to use the system more quickly and efficiently. , which reduces system power usage and improves battery life.

いくつかの実施形態では、第1のタイプのジェスチャは、タップジェスチャ(例えば、1350f)(例えば、所定の時間の期間未満で(例えば、1つ以上の入力デバイスを介して)検出されるジェスチャ)である。いくつかの実施形態では、第2のタイプのジェスチャは、押圧及び保持ジェスチャ(例えば、1350c)(例えば、所定の時間の期間よりも長い間(例えば、1つ以上の入力デバイスを介して)検出されるジェスチャ)である。 In some embodiments, the first type of gesture is a tap gesture (eg, 1350f) (eg, a gesture detected (eg, via one or more input devices) in less than a predetermined period of time). is. In some embodiments, the second type of gesture is a press and hold gesture (eg, 1350c) (eg, detected (eg, via one or more input devices) for longer than a predetermined period of time). gesture).

いくつかの実施形態では、ジェスチャの検出に応答して、ジェスチャが第3のタイプのジェスチャ(例えば、1350a)(例えば、スワイプジェスチャ、ある方向(例えば、横方向)に移動するジェスチャ)(例えば、及び第1の状態インジケータに向けられている)との判定に従って、コンピュータシステムは、以前に表示されなかった状態インジケータ(例えば、図13Bの1314f)を(例えば、状態インジケータをスクロールすることによって)表示する(例えば、以前に表示されなかった状態インジケータは、第1のアクセサリデバイスタイプとは異なるアクセサリの複数のアクセサリデバイスが同じ状態にあることを示す)。いくつかの実施形態では、ジェスチャが第3のタイプのジェスチャであるとの判定に従って、(例えば、第1の状態インジケータを検視外にスクロールすることによって)第1の状態インジケータの表示を停止する。いくつかの実施形態では、ジェスチャが第3のタイプのジェスチャであるとの判定に従って、複数の表示された状態インジケータを(例えば、ジェスチャの方向(例えば、左、右、上、下など)に移動させ、それにより、複数の状態インジケータが移動された後、第1の状態インジケータは表示を中止し、一方、第3のタイプのジェスチャを検出する前に表示されなかった1つ以上の状態インジケータが表示される。いくつかの実施形態では、状態インジケータ(例えば、シーン制御、外部アクセサリデバイス制御)ではない1つ以上の制御は、ジェスチャが検出された後に表示されたままである。第3のタイプのジェスチャが第1の状態インジケータに向けられるときに異なる動作を実行することにより、ユーザには、ユーザインタフェースを乱すことなく、より多くの制御オプション(例えば、より多くの状態インジケータ)が提供される。表示される追加コントローラによってUIを雑然とさせることなく、システムの追加制御できるようにすることにより、システムの操作性が高められ、ユーザ-システムインタフェースを(例えば、システムを操作する/システムと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、システムの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting the gesture, the gesture is a third type of gesture (e.g., 1350a) (e.g., swipe gesture, gesture that moves in a direction (e.g., sideways)) (e.g., and directed to the first state indicator), the computer system displays (e.g., by scrolling through the state indicators) the previously undisplayed state indicator (e.g., 1314f in FIG. 13B). (eg, a previously undisplayed status indicator indicates that multiple accessory devices of accessories different than the first accessory device type are in the same status). In some embodiments, display of the first state indicator is stopped (eg, by scrolling the first state indicator out of view) upon determining that the gesture is the third type of gesture. In some embodiments, a plurality of displayed state indicators (e.g., moving in the direction of the gesture (e.g., left, right, up, down, etc.) in accordance with determining that the gesture is the third type of gesture so that after the plurality of state indicators have been moved, the first state indicator ceases to be displayed, while one or more state indicators that were not displayed before detecting the third type gesture are In some embodiments, one or more controls that are not state indicators (e.g., scene controls, external accessory device controls) remain displayed after the gesture is detected. By performing a different action when the gesture is directed at the first state indicator, the user is provided with more control options (eg, more state indicators) without cluttering the user interface. By allowing additional control of the system without cluttering the UI with additional displayed controllers, the usability of the system is enhanced and the user-system interface (e.g., operating/interacting with the system by helping the user to provide the correct input at times and by reducing user error), as well as enabling the user to use the system more quickly and efficiently, Reduces system power usage and improves battery life.

いくつかの実施形態では、第1のアクセサリデバイス及び第2のアクセサリデバイスを第2の状態に変更させることの一部として、コンピュータシステムは、第1のアクセサリデバイス及び第2のアクセサリデバイスに第1のアクセサリタイプ(例えば、光、ドアロック、ブラインド、温度制御)に基づくタイプのアクションを実行させる(例えば、光のオフ、ドアロックのアンロック、ブラインドを特定のパーセント開放、AC/加熱のオフ)。第1のアクセサリデバイス及び第2のアクセサリデバイスに、第1のアクセサリタイプに基づくタイプのアクションを実行させることにより、コンピュータシステムは、特定の予め定められた条件に基づく特定のアクションを実行することが可能になる。更なるユーザ入力を必要とせずに条件の1組が満たされたときに動作を実行することにより、システムの操作性が高められ、ユーザ-システムインタフェースを(例えば、システムを操作する/システムと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、システムの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, as part of causing the first accessory device and the second accessory device to change to the second state, the computer system causes the first accessory device and the second accessory device to change the first state. perform a type of action based on the type of accessory (e.g. lights, door locks, blinds, temperature control) (e.g. turn off lights, unlock door locks, open blinds a certain percentage, turn off AC/heat) . By having the first accessory device and the second accessory device perform a type of action based on the first accessory type, the computer system can perform a particular action based on particular predetermined conditions. be possible. System operability is enhanced by performing actions when a set of conditions are met without the need for further user input, allowing the user-system interface (e.g., operating/interacting with the system (by helping users to provide the appropriate input when they do this, by reducing user error), as well as enabling users to use the system more quickly and efficiently. , which reduces system power usage and improves battery life.

いくつかの実施形態では、ジェスチャを検出する前に、コンピュータシステムは、第1の状態インジケータに隣接する第3の状態インジケータ(例えば、1314b)(例えば、第2のアクセサリタイプ(例えば、第1のアクセサリタイプとは異なる)の複数のアクセサリデバイスが第3の状態にあることを示す)及び第3の状態インジケータ(例えば、1314e)に隣接する第4の状態インジケータ(例えば、1314c)(例えば、第3のアクセサリタイプ(例えば、第2のアクセサリタイプ及び第1のアクセサリタイプとは異なる)の複数のアクセサリデバイスが第4の状態にあることを示す)を表示する。いくつかの実施形態では、第1の状態インジケータ、第3の状態インジケータ、及び第4の状態インジケータは、それぞれ対応する状態インジケータ(例えば、各それぞれの状態インジケータが入っているそれぞれの状態インジケータカテゴリ)に対応するそれぞれの状態インジケータカテゴリ(例えば、アラーム(例えば、co、co2、スモーク、漏れ、アラーム)、必要なアクション(例えば、応答しないアクセサリ、アカウントエラー、低バッテリ、利用可能な更新されたもの)、重要な状態(重要なもの:ホーム温度、ドア又は窓の開放)、クイックアクション(例えば、アクセサリの状態の反転、ドアのアンロック、窓の開放、5つの光のオン、2つのファンのオンを行うカテゴリ)、センサ(例えば、湿度レベル、光レベル「34ルクス」など))に基づく順序で表示される。いくつかの実施形態では、第1の状態インジケータ、第3の状態インジケータ、及び第4の状態インジケータを順序で表示している間に、コンピュータシステムは、第5の状態インジケータが表示されるべきであるという示唆を受信し(例えば、(例えば、第1の状態インジケータ、第2の状態インジケータ、及び第3の状態インジケータによって示されるアクセサリデバイスタイプとは)異なるアクセサリデバイスタイプのうちの任意の1つ以上の状態が変更された)、並びに第5の状態インジケータが表示されるべきであるという示唆のインジケータの受信に応答して、(1)第5の状態インジケータが第1の状態インジケータカテゴリにあるという判定に従って(例えば、第1の状態インジケータと同じ状態インジケータカテゴリ)、コンピュータシステムは、第5の状態インジケータを第1の位置に表示し(例えば、第1の状態インジケータに隣接する場所)、(2)第5の状態インジケータが第2の状態インジケータカテゴリ(例えば、第1の状態インジケータカテゴリとは異なる状態インジケータカテゴリ)(例えば、第3の状態インジケータと同じ状態インジケータカテゴリ)にあるとの判定に従って、第1の場所とは異なる第2の場所(例えば、第3の状態インジケータに隣接する場所)で第5の状態インジケータを表示すること、及び(3)第5の状態インジケータが第3の状態インジケータカテゴリ(例えば、第1の状態インジケータカテゴリ及び第3の状態インジケータカテゴリとは異なる状態インジケータカテゴリ)(例えば、第4の状態インジケータと同じ状態インジケータカテゴリ)にあるとの判定に従って、第1の場所及び第2の場所とは異なる第3の場所(例えば、第4の状態インジケータに隣接する場所)で第5の状態インジケータを表示することである。それぞれのカテゴリに基づいて、状態インジケータを順序で表示することにより、特定の状態インジケータの重要性又はカテゴリに関する改善されたフィードバックをユーザに提供し、ユーザが、特定の状態インジケータが対応するカテゴリを素早く認識することを可能にする。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, prior to detecting the gesture, the computer system detects a third state indicator (eg, 1314b) adjacent to the first state indicator (eg, second accessory type (eg, first accessory type)). and a fourth status indicator (eg, 1314c) adjacent to the third status indicator (eg, 1314e) (eg, a fourth status indicator (eg, 1314c) indicating that a plurality of accessory devices of different accessory types are in a third status) (eg, 1314e). 3 accessory types (e.g., indicating that a plurality of accessory devices of a second accessory type and a different than the first accessory type are in a fourth state). In some embodiments, the first state indicator, the third state indicator, and the fourth state indicator each have a corresponding state indicator (e.g., a respective state indicator category in which each respective state indicator falls). corresponding to each status indicator category (e.g. alarm (e.g. co, co2, smoke, leak, alarm), action required (e.g. accessory not responding, account error, low battery, updated available) , critical status (important: home temperature, door or window open), quick actions (e.g., reversing accessory status, door unlock, window open, 5 lights on, 2 fans on category), sensor (e.g. humidity level, light level "34 lux", etc.)). In some embodiments, while sequentially displaying the first state indicator, the third state indicator, and the fourth state indicator, the computer system determines that the fifth state indicator should be displayed. any one of a different accessory device type (e.g., from the accessory device type indicated by the first, second, and third status indicators) In response to receiving an indicator that the above conditions have changed) and an indication that a fifth condition indicator should be displayed: (1) the fifth condition indicator is in the first condition indicator category; (e.g., the same state indicator category as the first state indicator), the computer system displays the fifth state indicator in a first position (e.g., adjacent to the first state indicator) and ( 2) according to determining that the fifth status indicator is in a second status indicator category (eg, a different status indicator category than the first status indicator category) (eg, the same status indicator category as the third status indicator); , displaying a fifth status indicator at a second location that is different from the first location (e.g., a location adjacent to the third status indicator); and (3) the fifth status indicator is in the third state. A first location according to a determination that it is in an indicator category (eg, a different status indicator category than the first status indicator category and the third status indicator category) (eg, the same status indicator category as the fourth status indicator category). and displaying the fifth status indicator at a third location (eg, adjacent to the fourth status indicator) different from the second location. Displaying the status indicators in order based on their respective categories provides the user with improved feedback regarding the importance or category of a particular status indicator, allowing the user to quickly identify the category to which a particular status indicator corresponds. make it possible to recognize Improve the usability of the computer system by providing the user with improved visual feedback (e.g., assist the user in providing appropriate input when operating/interacting with the computer system) reduce power usage by making the user-system interface more efficient (by reducing user errors), as well as enabling users to use computer systems more quickly and efficiently and improve the battery life of your computer system.

いくつかの実施形態では、コンピュータシステムは、第1のアクセサリタイプのそれぞれのアクセサリデバイスの状態の変化を検出する。いくつかの実施形態では、第1のアクセサリタイプのそれぞれのアクセサリデバイスの状態の変化の検出に応答して、それぞれのアクセサリデバイスの状態が第1の状態に変更されたとの判定に従って、コンピュータシステムは、それぞれのアクセサリデバイスを、第1の状態にある第1のアクセサリタイプ(例えば、電球、窓、スイッチ、アウトレット、ロック(例えば、ドアロック、窓ロック)、テレビ)の複数のアクセサリデバイスに追加する。いくつかの実施形態では、第1のアクセサリタイプのそれぞれのアクセサリデバイスの状態の変化の検出に応答して、それぞれのアクセサリデバイスの状態が第2の状態に変更された(又は、代替の、第1の状態ではないように変更された)との判定に従って、コンピュータシステムは、それぞれのアクセサリデバイスを、第1の状態にある第1のアクセサリタイプ(例えば、電球、窓、スイッチ、アウトレット、ロック(例えば、ドアロック、窓ロック)、テレビ)の複数のアクセサリデバイスから除去する。したがって、それぞれのタイプの追加のアクセサリがそれぞれの状態にあることが検出されると、追加のアクセサリがそれぞれの状態インジケータに追加され、それにより、追加のアクセサリは、状態インジケータをアクティブにすることによって制御され、それぞれのタイプのいくつかのアクセサリがそれぞれの状態にあることがもはや検出されないと、アクセサリがそれぞれの状態インジケータから除去され、それにより、除去されたアクセサリは、状態インジケータをアクティブにすることによって制御されない。アクセサリの状態に基づいて複数のアクセサリデバイスを更新することにより、システムは、ユーザが同じタイプ及び状態のアクセサリの状態を素早く変更することを可能にし、(例えば、押圧及び保持を介して)アクセサリに個別にアクセスすることを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、システムの追加制御できるようにすることにより、システムの操作性が高められ、ユーザ-システムインタフェースを(例えば、システムを操作する/システムと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、システムの電力使用が抑えられ、バッテリ寿命が改善される In some embodiments, the computer system detects a change in state of each accessory device of the first accessory type. In some embodiments, in response to detecting a change in state of each accessory device of the first accessory type, following determining that the state of each accessory device has changed to the first state, the computer system comprises: , adding each accessory device to a plurality of accessory devices of a first accessory type (e.g., light bulb, window, switch, outlet, lock (e.g., door lock, window lock), television) in a first state. . In some embodiments, the state of the respective accessory device of the first accessory type is changed to the second state in response to detecting a change in state of the respective accessory device (or alternatively, the second state). 1 state), the computer system sets each accessory device to a first accessory type (e.g., light bulb, window, switch, outlet, lock (e.g., light bulb, window, switch, outlet, lock)) in the first state. e.g. door locks, window locks), televisions) from multiple accessory devices. Thus, when additional accessories of each type are detected to be in their respective states, the additional accessories are added to their respective state indicators, thereby allowing the additional accessories to activate their state indicators. An accessory is removed from its respective status indicator when it is no longer detected that some accessories of each type are controlled and in their respective states, whereby the removed accessory activates the status indicator. not controlled by By updating multiple accessory devices based on accessory status, the system allows users to quickly change the status of accessories of the same type and status, allowing the accessory to (e.g., via press and hold) allow individual access. By allowing additional control of the system without cluttering the UI with additional displayed controllers, the usability of the system is enhanced and the user-system interface (e.g., operating/interacting with the system by helping the user to provide the correct input at times and by reducing user error), as well as enabling the user to use the system more quickly and efficiently, Reduces system power usage and improves battery life

いくつかの実施形態では、第1の状態インジケータは、第1の状態にある第1のアクセサリタイプの現在のアクセサリデバイスの数に基づいて表示される(又は更新される)多数のアクセサリデバイスの示唆を含む。いくつかの実施形態では、ジェスチャを検出する前に、第1の状態インジケータは、第1の数のアクセサリデバイス(例えば、第1のアクセサリタイプであり、第1の状態にある)の示唆を含む。いくつかの実施形態では、第1のアクセサリデバイスタイプである第10のアクセサリデバイスが第1の状態に変更されたとの判定に従って、コンピュータシステムは、第1の数のアクセサリデバイスの示唆とは異なる第2の数のアクセサリデバイス(例えば、第2のアクセサリタイプであり、第2の状態にある)の示唆を含むように、第1の状態インジケータを更新する。いくつかの実施形態では、第2のアクセサリが第1の状態に変更されていないとの判定に従って、コンピュータシステムは、第1の数のアクセサリデバイスの示唆及び第2の数のアクセサリデバイスの示唆とは異なる第3の数のアクセサリデバイスの示唆を含むように、第1の状態インジケータを更新する。いくつかの実施形態では、第2の数のアクセサリデバイスは、第1の数のアクセサリデバイスよりも多く、第3の数のアクセサリデバイスは、第1の数のアクセサリデバイス未満である。現在の数のアクセサリデバイスに基づく示唆を含む状態インジケータを表示することにより、状態インジケータによって示された状態が対応するデバイスの数をユーザが素早く認識することを可能にし、状態インジケータ上に入力されたどのくらいの数のデバイスが可能性として影響し得るかに関する改善されたフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, the first state indicator is displayed (or updated) based on the number of current accessory devices of the first accessory type that are in the first state. including. In some embodiments, prior to detecting the gesture, the first state indicator includes an indication of a first number of accessory devices (eg, of a first accessory type and in a first state). . In some embodiments, upon determining that a tenth accessory device of the first accessory device type has changed to the first state, the computer system outputs a first accessory device type different than the first number of accessory device indications. Update the first status indicator to include an indication of accessory devices number two (eg, of a second accessory type and in a second state). In some embodiments, upon determining that the second accessory has not changed to the first state, the computer system suggests a first number of accessory devices and suggests a second number of accessory devices and updates the first status indicator to include an indication of a different third number of accessory devices. In some embodiments, the second number of accessory devices is greater than the first number of accessory devices and the third number of accessory devices is less than the first number of accessory devices. Displaying the status indicator with suggestions based on the current number of accessory devices allows the user to quickly recognize the number of devices to which the status indicated by the status indicator corresponds, and the number of devices entered on the status indicator. Provide users with improved feedback on how many devices can potentially be affected. Improve the usability of the computer system by providing the user with improved visual feedback (e.g., assist the user in providing appropriate input when operating/interacting with the computer system) reduce power usage by making the user-system interface more efficient (by reducing user errors), as well as enabling users to use computer systems more quickly and efficiently and improve the battery life of your computer system.

いくつかの実施形態では、ジェスチャが第1のタイプのジェスチャ(例えば、1350f)で、第1の状態インジケータ(例えば、1350h)に向けられたとの判定に従って、コンピュータシステムは、所定の時間の期間(例えば、1秒、5秒、30秒)(例えば、ジェスチャが検出された後の所定の時間の期間)の後に、第1の状態インジケータの表示を中止する(例えば、図13Gの1350hは図13Hに表示されることが中止されている)。いくつかの実施形態では、第1のタイプのジェスチャである第2のジェスチャが、第1のタイプであるジェスチャを受信した後、所定の時間の前に受信されるとの判定に従って、第1の状態インジケータの表示の中止を取り止める。いくつかの実施形態では、ジェスチャが第1のタイプのジェスチャで、第1の状態インジケータに向けられたとの判定に従い、状態インジケータが第1のカテゴリにあるとの判定に従って、コンピュータシステムは、状態インジケータによって表されるアクセサリデバイスが、第2の所定の時間の期間の後及び/又は所定の時間の期間後に、(例えば、光がオフ、ドアがロックされる、アラームがアクティブではないなど)特定の状態に変更された状態インジケータによって表されるとき、状態インジケータを表示することを中止する。いくつかの実施形態では、ジェスチャが第1のタイプのジェスチャで、第1の状態インジケータに向けられたとの判定に従い、状態インジケータが第1のカテゴリとは異なる第2のカテゴリにあるとの判定に従って、コンピュータシステムは、状態インジケータによって表されるアクセサリデバイスが、第2の所定の時間の期間の後及び/又は所定の時間の期間後に、(例えば、光がオフ、ドアがロックされる、アラームがアクティブではないなど)特定の状態に変更された状態インジケータによって表されるとき、状態インジケータを表示することを中止しない。第1のタイプのジェスチャの入力を検出した後に、状態インジケータを表示することを停止することにより、状態インジケータを介して制御されたアクセサリデバイスの状態を変更するアクションが実行されたという視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, upon determining that the gesture is a first type of gesture (e.g., 1350f) and directed at a first state indicator (e.g., 1350h), the computer system performs a predetermined period of time (e.g., 1350h). (e.g., 1 second, 5 seconds, 30 seconds) (e.g., a predetermined period of time after the gesture is detected) before discontinuing display of the first status indicator (e.g., 1350h in FIG. 13G is the same as in FIG. 13H). has been discontinued). In some embodiments, according to determining that the second gesture of the first type gesture is received before a predetermined amount of time after receiving the gesture of the first type, the first Stops displaying the status indicator. In some embodiments, following determining that the gesture is a first type of gesture and directed at a first state indicator, following determining that the state indicator is in the first category, the computer system: after a second predetermined period of time and/or after a predetermined period of time (e.g., lights are off, doors are locked, alarms are not active, etc.). Stop displaying the state indicator when represented by the state indicator changed to state. In some embodiments, according to determining that the gesture is a first type of gesture and directed at the first state indicator, according to determining that the state indicator is in a second category different from the first category. , the computer system determines whether the accessory device represented by the status indicator is activated after a second predetermined period of time and/or after a predetermined period of time (e.g., lights off, door locked, alarm Do not stop displaying the state indicator when represented by the state indicator changed to a particular state (such as not active). Stopping displaying the state indicator after detecting input of the first type of gesture provides visual feedback that an action has been performed that changes the state of the accessory device controlled via the state indicator. Provide to users. Improve the usability of the computer system by providing the user with improved visual feedback (e.g., assist the user in providing appropriate input when operating/interacting with the computer system) reduce power usage by making the user-system interface more efficient (by reducing user errors), as well as enabling users to use computer systems more quickly and efficiently and improve the battery life of your computer system.

いくつかの実施形態では、ジェスチャが検出されると、第1の状態インジケータ(例えば、1314h)が第1の場所で表示される。いくつかの実施形態では、ジェスチャが第1のタイプのジェスチャ(例えば、1350f)で、第1の状態インジケータ(例えば、1314h)に向けられたとの判定に従って、コンピュータシステムは、第1の場所で第1の状態インジケータ(例えば、1314h)の表示を中止し、第1の場所で第6の状態インジケータ(例えば、図13Hの1314i)(例えば、第1の状態インジケータとは異なる)を表示する。いくつかの実施形態では、第6の状態インジケータは、ジェスチャが検出される前に、第1の状態インジケータに隣接していた。いくつかの実施形態では、第1の場所で第1の状態インジケータとは異なる状態インジケータを表示することは、アニメーションを介して、第1の状態インジケータとは異なる状態インジケータを第3の場所から第1の場所へ移動させることを含む。状態インジケータの表示を停止し、第1のタイプのジェスチャの入力を検出した後にその場所に隣接する状態インジケータを表示することにより、状態インジケータを削除し、ディスプレイ上に(例えば、ディスプレイ生成構成要素を介して)新しい状態インジケータ(例えば、隣接する状態インジケータ)を表示するために必要とされる入力の数が低減される。動作を実行するために必要な入力の数を低減することにより、システムの操作性を向上させ、(例えば、システムを操作する/システムと対話するときに、適切な入力を提供するようにユーザを支援し、ユーザの誤りを低減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用を低減し、システムのバッテリ寿命を改善する。 In some embodiments, a first state indicator (eg, 1314h) is displayed at a first location when the gesture is detected. In some embodiments, upon determining that the gesture is a first type of gesture (eg, 1350f) and directed at the first state indicator (eg, 1314h), the computer system performs the first Stop displaying one status indicator (eg, 1314h) and display a sixth status indicator (eg, 1314i in FIG. 13H) (eg, different from the first status indicator) in the first location. In some embodiments, the sixth state indicator was adjacent to the first state indicator before the gesture was detected. In some embodiments, displaying a state indicator that is different from the first state indicator at the first location includes displaying the state indicator that is different from the first state indicator from the third location to the third location via animation. Including moving to one location. Remove the state indicator by stopping displaying the state indicator and displaying a state indicator adjacent to its place after detecting the input of the first type of gesture, and remove the state indicator on the display (e.g., the display generating component The number of inputs required to display a new status indicator (eg, an adjacent status indicator) is reduced. Improves the usability of the system by reducing the number of inputs required to perform an action (e.g., prompting the user to provide appropriate input when operating/interacting with the system). It makes the user-system interface more efficient (by assisting and reducing user error), as well as reducing power usage by enabling users to use the system more quickly and efficiently. , to improve system battery life.

いくつかの実施形態では、ジェスチャが第1のタイプのジェスチャ(例えば、1350i)で、第1の状態インジケータ(例えば、1314h)に向けられたとの判定に従って、コンピュータシステムは、第1の状態インジケータが、第1のアクセサリタイプの複数のアクセサリデバイスが状態を変更したこと(例えば、第1の状態ではない、第2の状態(例えば、又は第1の視覚的見掛けとは異なる第2の視覚的見掛けで表示される))を示すために、第1のアクセサリタイプの複数のアクセサリデバイスが第1の状態(例えば、又は第1の視覚的見掛けで表示されている)にあることを示すことから変更されるように、第1の状態インジケータを視覚的に更新する(例えば、図13Gの1314h)。いくつかの実施形態では、第1の状態インジケータは、視覚的に更新された後の所定の時間の期間、表示を中止する。いくつかの実施形態では、ジェスチャが第2のタイプのジェスチャ(又は、第3のタイプのジェスチャ)で、第1の状態インジケータに向けられたとの判定に従って、コンピュータシステムは、第1のアクセサリタイプの複数のアクセサリデバイスが第2の状態にあることを示す(及び/又は第1の状態インジケータを維持する(例えば、第1のアクセサリタイプの複数のアクセサリデバイスが第1の状態にあることを示すように))第1の状態インジケータを更新することを取り止める。第1のタイプのジェスチャの入力を検出した後に、複数のアクセサリデバイスが状態を変化したことを示す状態インジケータを更新することにより、状態インジケータを介して制御されたアクセサリデバイスの状態を変更するアクションが実行されたという視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, upon determining that the gesture is a first type of gesture (eg, 1350i) and directed at the first state indicator (eg, 1314h), the computer system determines that the first state indicator is , that a plurality of accessory devices of the first accessory type have changed state (e.g., not the first state, a second state (e.g., or a second visual appearance that differs from the first visual appearance). changed from indicating that a plurality of accessory devices of a first accessory type are in a first state (e.g., or displayed in a first visual appearance) to indicate Visually updates the first status indicator (eg, 1314h in FIG. 13G) so that the In some embodiments, the first status indicator ceases display for a predetermined period of time after being visually updated. In some embodiments, upon determining that the gesture is a second type gesture (or a third type gesture) and directed at the first status indicator, the computer system controls the indicate that the plurality of accessory devices are in the second state (and/or maintain a first state indicator (eg, indicate that the plurality of accessory devices of the first accessory type are in the first state); d)) stop updating the first state indicator. The action of changing the state of the accessory device controlled via the state indicator by updating the state indicator to indicate that the plurality of accessory devices have changed state after detecting input of the first type of gesture. Provide visual feedback to the user that it has been done. Improve the usability of the computer system by providing the user with improved visual feedback (e.g., assist the user in providing appropriate input when operating/interacting with the computer system) reduce power usage by making the user-system interface more efficient (by reducing user errors), as well as enabling users to use computer systems more quickly and efficiently and improve the battery life of your computer system.

いくつかの実施形態では、第1の状態インジケータ(例えば、1314h)は、第1のユーザインタフェース(例えば、710)上に表示される。いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェース(例えば、710)とは異なる第2のユーザインタフェース(例えば、1360)を表示する要求(例えば、1350h)を(例えば、第1のユーザインタフェース上に第1の状態インジケータを表示する間に)受信する。いくつかの実施形態では、第2のユーザインタフェースを表示する要求(例えば、1350h)の受信に応答して、コンピュータシステムは、第1のアクセサリタイプの1つ以上のアクセサリデバイスが第1の状態にあることを示す状態インジケータ(例えば、図13Iの1350i)を含む第2のユーザインタフェース(例えば、1360)を表示し、ここで、第2のユーザインタフェース(例えば、1360)(例えば、現在表示されているユーザインタフェース)が第1のグループのアクセサリデバイス(例えば、部屋(例えば、建物(例えば、ホーム)の一部(例えば、部屋(例えば、寝室、リビングルーム、オフィス、ガレージ)、ポーチ)を表すグループに指定されたデバイスのグループ)に対応し、及び第1のアクセサリデバイスが第1のグループのアクセサリデバイス(例えば、第1のアクセサリデバイスが第1の状態にある間)に対応するとの判定に従って、第1のアクセサリタイプの1つ以上のアクセサリデバイスは、第1のアクセサリデバイスを含み、第2のユーザインタフェース(例えば、1360)(例えば、現在表示されているユーザインタフェース)は、第1のグループのアクセサリデバイスに対応し、第1のアクセサリデバイスは第1のグループのアクセサリデバイスに対応せず(例えば、第1のアクセサリデバイスが第1の状態にある間)、第1のアクセサリタイプの1つ以上のアクセサリデバイスは、第1のアクセサリデバイスを含まない。いくつかの実施形態では、第2のユーザインタフェースを表示する要求の受信に応答して、コンピュータシステムは、第1のユーザインタフェースを含む第1のユーザインタフェースの表示を中止する。特定の予め定められた条件が満たされたときに、複数のデバイスの状態を示す状態インジケータを表示すること(例えば、状態を含むユーザインタフェースがアクセサリデバイスのグループに対応するかどうか、及び状態インジケータに関連する特定のデバイス(例えば、同じ状態及びアクセサリタイプ)がアクセサリデバイスのグループに対応するかどうか)により、アクセサリデバイスの特定のグループに対応するユーザインタフェースに関連する複数のデバイスを示す状態インジケータがユーザに自動的に提供される。更なるユーザ入力を必要とせずに条件の1組が満たされたときに動作を実行することにより、システムの操作性が高められ、ユーザ-システムインタフェースを(例えば、システムを操作する/システムと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、システムの電力使用が抑えられ、バッテリ寿命が改善される。状態を含むユーザインタフェースが、アクセサリデバイスのグループに対応するかどうか、及び状態インジケータに関連する特定のデバイス(例えば、同じ状態及びアクセサリタイプ)が、アクセサリデバイスのグループに対応するかどうかに基づく、複数のデバイスの状態の状態インジケータを表示することにより、表示されている特定のユーザインタフェースに関連するデバイスを示す状態インジケータに関する視覚フィードバックがユーザに提供される。改善された視覚的フィードバックをユーザに提供することにより、コンピュータシステムの操作性を向上させ、(例えば、コンピュータシステムを操作する/コンピュータシステムと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-システムインタフェースをより効率的にし、加えて、ユーザがコンピュータシステムをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、コンピュータシステムのバッテリ寿命を改善する。 In some embodiments, the first status indicator (eg, 1314h) is displayed on the first user interface (eg, 710). In some embodiments, the computer system sends a request (eg, 1350h) to display a second user interface (eg, 1360) that is different from the first user interface (eg, 710) (eg, the first while displaying the first status indicator on the user interface). In some embodiments, in response to receiving a request to display a second user interface (eg, 1350h), the computer system causes one or more accessory devices of the first accessory type to enter the first state. display a second user interface (eg, 1360) including a status indicator (eg, 1350i in FIG. 13I) indicating that the second user interface (eg, 1360) (eg, currently displayed user interface) represents a first group of accessory devices (e.g., rooms (e.g., parts of a building (e.g., home) (e.g., rooms (e.g., bedroom, living room, office, garage), porch)). group of devices specified in the device), and the first accessory device corresponds to the first group of accessory devices (e.g., while the first accessory device is in the first state), The one or more accessory devices of the first accessory type include the first accessory device, and the second user interface (eg, 1360) (eg, the currently displayed user interface) is of the first group. corresponding accessory devices, the first accessory device not corresponding to the first group of accessory devices (eg, while the first accessory device is in the first state), and one or more of the first accessory type does not include a first accessory device, hi some embodiments, in response to receiving a request to display a second user interface, the computer system comprises a first user interface including a first user interface display a status indicator that indicates the status of multiple devices when certain pre-determined conditions are met (e.g., a user interface that includes status for a group of accessory devices). associated with a user interface corresponding to a particular group of accessory devices, depending on whether they correspond and whether a particular device associated with the status indicator (e.g., same state and accessory type) corresponds to a group of accessory devices. A user is automatically provided with status indicators to indicate multiple devices, and the system is highly operable by performing actions when a set of conditions are met without requiring further user input. make the user-system interface more efficient (e.g., by helping the user to provide appropriate input and reducing user error when operating/interacting with the system); By enabling users to use the system more quickly and efficiently, system power usage is reduced and battery life is improved. Based on whether the user interface containing the state corresponds to a group of accessory devices, and whether the particular device (e.g., same state and accessory type) associated with the state indicator corresponds to the group of accessory devices. By displaying status indicators of the device status of the user, visual feedback is provided to the user regarding the status indicators that indicate the devices associated with the particular user interface being displayed. Improve the usability of the computer system by providing the user with improved visual feedback (e.g., assist the user in providing appropriate input when operating/interacting with the computer system) reduce power usage by making the user-system interface more efficient (by reducing user errors), as well as enabling users to use the computer system more quickly and efficiently and improve the battery life of your computer system.

いくつかの実施形態では、ジェスチャ(例えば、1350a~1350c及び1350f)を検出する前に、第3のアクセサリタイプの1つ以上のアクセサリデバイスが第7の状態(例えば、オン/オフ、開放、閉鎖)にあることを示す第8の状態インジケータが表示される。いくつかの実施形態では、1つ以上のアクセサリデバイスは、第3のアクセサリタイプの第8のアクセサリデバイスを含む。いくつかの実施形態では、ジェスチャ(例えば、1350f、1350i)が第2のタイプのジェスチャ(例えば、押圧及び保持ジェスチャ)で、第8の状態インジケータ(例えば、1314h)に(例えば、対応する場所で)向けられたとの判定に従い、第8の状態インジケータ(例えば、図13Iの1314h)が第7の状態にある(例えば、第3のアクセサリタイプの1つのアクセサリのみが第7の状態にある)第3のアクセサリタイプのアクセサリデバイスの所定の数未満(例えば、2未満)に対応する(及び/又は示す)との判定に従って、コンピュータシステムは、第8のアクセサリデバイスに対応する第8のアクセサリ制御ユーザインタフェースオブジェクト対象(例えば、1318)(例えば、第9のアクセサリ制御ユーザインタフェースオブジェクト対象よりも高い制御及び/又は精細度を有する)を表示する。いくつかの実施形態では、第8のアクセサリ制御ユーザインタフェースオブジェクト対象の選択により、第8のアクセサリデバイスを、第8の状態(例えば、80%の輝度、20%の輝度、40%の開放、20%の開放、第7の状態とは完全に反対ではない状態、第7の状態に対応する特性(例えば、オン/オフ)よりもデバイスによって表され得る異なる特性に対応する状態(例えば、光の色(例えば、青色、赤色、緑色、黄色、白色))に変更させる。いくつかの実施形態では、ジェスチャ(例えば、1350f、1350i)が第2のタイプのジェスチャ(例えば、押圧及び保持ジェスチャ)で、第8の状態インジケータ(例えば、1314h)に(例えば、対応する場所で)向けられたとの判定に従い、第8の状態インジケータ(例えば、図13Iの1314h)が第7の状態にある第3のアクセサリタイプのアクセサリデバイスの所定の数以上(例えば、2以上)に対応する(及び/又は示す)との判定に従って、コンピュータシステムは、第8のアクセサリデバイスに対応する第9のアクセサリ制御ユーザインタフェースオブジェクト対象(例えば、例えば、718hのように制御)を表示する。いくつかの実施形態では、第9のアクセサリ制御ユーザインタフェースオブジェクト対象を選択により、第8のアクセサリデバイスを(例えば、第8のアクセサリ制御ユーザインタフェースオブジェクト対象を表示せずに)第8の状態とは異なる第9の状態(例えば、オン/オフ、開放/閉鎖、第7の状態とは反対の状態)に変更させる。いくつかの実施形態では、第8のアクセサリデバイスに対応するアクセサリユーザインタフェース制御オブジェクト対象の数は、第8の状態インジケータが、第3のアクセサリタイプの所定の数未満(例えば、2)が第7の状態にあることを示すとの判定が行われる場合よりも、第8の状態インジケータが、第3のアクセサリタイプの所定の数未満(例えば、2)が第7の状態にあることを示すとの判定が行われる場合の方が大きい。いくつかの実施形態では、第8のアクセサリ制御ユーザインタフェースオブジェクト対象は、第9のアクセサリ制御ユーザインタフェースオブジェクト対象よりも大きい。選択されたとき、状態インジケータによって表される制御の数に基づいて、アクセサリデバイスを異なるように変更する制御を表示することにより、デバイスは、UIを乱すことなく、いくつかの状況で追加の又は異なる制御を提供することが可能になる。表示される追加コントローラによってUIを雑然とさせることなく、システムの追加制御できるようにすることにより、システムの操作性が高められ、ユーザ-システムインタフェースを(例えば、システムを操作する/システムと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがシステムをより素早くかつ効率的に使用することを有効化することによって、システムの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, one or more accessory devices of the third accessory type are in a seventh state (eg, on/off, open, closed) before detecting the gesture (eg, 1350a-1350c and 1350f). ) is displayed. In some embodiments, the one or more accessory devices include an eighth accessory device of the third accessory type. In some embodiments, the gesture (eg, 1350f, 1350i) is a second type of gesture (eg, press and hold gesture) to the eighth state indicator (eg, 1314h) (eg, at a corresponding location). ), the eighth state indicator (e.g., 1314h in FIG. 13I) is in the seventh state (e.g., only one accessory of the third accessory type is in the seventh state). Upon determining that less than a predetermined number (e.g., less than two) of accessory devices of three accessory types are supported (and/or indicated), the computer system directs an eighth accessory control user corresponding to an eighth accessory device. Display an interface object target (eg, 1318) (eg, having more control and/or definition than the ninth accessory control user interface object target). In some embodiments, selection of an eighth accessory control user interface object target causes the eighth accessory device to enter an eighth state (e.g., 80% brightness, 20% brightness, 40% open, 20 % open, a state that is not completely opposite to the seventh state, a state that corresponds to a different property that can be exhibited by the device than the property that corresponds to the seventh state (e.g., on/off) color (e.g., blue, red, green, yellow, white).In some embodiments, the gestures (e.g., 1350f, 1350i) are second type gestures (e.g., press and hold gestures). , the third state indicator (eg, 1314h in FIG. 13I) is in the seventh state, according to the determination that the eighth state indicator (eg, 1314h) is directed (eg, at a corresponding location). Upon determining (and/or indicating) that it supports (and/or indicates) a predetermined number or more (e.g., two or more) of accessory devices of the accessory type, the computer system creates a ninth accessory control user interface object corresponding to an eighth accessory device. Display a target (e.g., control as in 718h) In some embodiments, selection of a ninth accessory control user interface object target causes an eighth accessory device (e.g., eighth accessory control change to a ninth state (e.g., on/off, open/closed, opposite to the seventh state) that is different from the eighth state (without displaying a user interface object object). In a form, the number of accessory user interface control object targets corresponding to the eighth accessory device is in the seventh state if the eighth state indicator is less than a predetermined number (eg, two) of the third accessory type A determination is made that the eighth state indicator indicates that less than a predetermined number (e.g., two) of the third accessory type is in the seventh state than a determination is made that a In some embodiments, the eighth accessory control user interface object target is larger than the ninth accessory control user interface object target When selected, the control represented by the state indicator By displaying controls that change the accessory device differently based on the number of without having to provide additional or different controls in some situations. By allowing additional control of the system without cluttering the UI with additional displayed controllers, the usability of the system is enhanced and the user-system interface (e.g., operating/interacting with the system by helping the user to provide the correct input at times and by reducing user error), as well as enabling the user to use the system more quickly and efficiently; Reduces system power usage and improves battery life.

いくつかの実施形態では、単一のアクセサリデバイスに対応するそれぞれの状態インジケータ(例えば、第8の状態インジケータ)に従って、それぞれの状態インジケータは、アクセサリデバイスの名前(例えば、英数字文字)を含む。複数のアクセサリデバイスに対応するそれぞれの状態インジケータ(例えば、第8の状態インジケータ)に従って、それぞれの状態インジケータは、表されるアクセサリデバイスの数の示唆(例えば、数字表現)を含む。 In some embodiments, along with each status indicator (eg, eighth status indicator) corresponding to a single accessory device, each status indicator includes the accessory device's name (eg, alphanumeric characters). Following each status indicator (eg, eighth status indicator) corresponding to multiple accessory devices, each status indicator includes an indication (eg, a numeric representation) of the number of accessory devices represented.

いくつかの実施形態では、コンピュータシステムは、別のタイプの状態インジケータ(例えば、1314a~1314f及び1314j~1314l)(例えば、気候制御、センサ(例えば、異なるタイプのセンサが単一の状態インジケータで組み合わされてもよい))上のタップを検出し、タップの検出に応答して、他のタイプの状態インジケータに関連する複数のタイプのデバイスを制御するためのユーザインタフェース(例えば、1382、1384、1386)を表示する。いくつかの実施形態では、デバイス700は、タップを検出した後に、他のタイプの制御を表示することを中止しない。 In some embodiments, the computer system controls the operation of another type of status indicator (eg, 1314a-1314f and 1314j-1314l) (eg, climate control, sensor (eg, different types of sensors combined in a single status indicator). user interface (e.g., 1382, 1384, 1386 ). In some embodiments, device 700 does not stop displaying other types of controls after detecting a tap.

方法1400に関して上述したプロセス(例えば、図14)の詳細はまた、上述した方法にも類似の方式で適用可能であることに留意されたい。例えば、方法1400は、任意選択的に、方法800及び1000に関して前述した様々な方法の特性のうちの任意の1つ以上を含む。別の例では、方法800で送信された音声メッセージは、方法1400に関連して上述したように、変更又はより多くの状態インジケータであり得る。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the details of the process (eg, FIG. 14) described above with respect to method 1400 are also applicable in an analogous manner to the methods described above. For example, method 1400 optionally includes any one or more of the various method features described above with respect to methods 800 and 1000 . In another example, the voice message sent in method 800 can be a change or more status indicator, as described above with respect to method 1400 . For the sake of brevity, these details are not repeated below.

図15A~15Fは、いくつかの実施形態に係る、音声メッセージを再生するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図16のプロセスを含む後述のプロセスを例示するために使用される。 15A-15F illustrate exemplary user interfaces for playing voice messages, according to some embodiments. The user interfaces of these figures are used to illustrate the processes described below, including the process of FIG.

図15Aは、アフォーダンス704を含むユーザインタフェース702を表示するデバイス700を示す。図15Aに示すように、マルチキャスト通知1502は、ユーザインタフェース702の一部の上に表示される。マルチキャスト通知1502は、音声マルチキャストメッセージがジョン及び3人の他者から、デバイス700を含む、ホーム602に指定されたデバイスのグループに送信されたことを示す。換言すれば、デバイス700がホーム602に指定されているため、デバイス700は、ジョン及び3人の他者から音声マルチキャストメッセージを受信している。マルチキャスト通知1502は、再生表現1504を含む。いくつかの実施形態では、再生表現1504は選択可能である。いくつかの実施形態では、マルチキャスト通知1502は、上述の他のマルチキャストメッセージ(例えば、マルチキャスト通知708a、マルチキャスト通知708、マルチキャスト通知904、マルチキャスト通知906a、マルチキャスト通知906b、マルチキャスト通知908a、マルチキャスト通知908b、マルチキャスト通知908c、マルチキャスト通知910)に関連して上述したように、1つ以上の特徴を含むことができる。いくつかの実施形態では、上記の他のマルチキャストメッセージは、マルチキャスト通知1502の1つ以上の特徴(例えば、再生表現1504)を含み得る。図15Aでは、デバイス700は、マルチキャスト通知1502上でタップジェスチャ1550aを検出する。 FIG. 15A shows device 700 displaying user interface 702 including affordance 704 . As shown in FIG. 15A, multicast notification 1502 is displayed over a portion of user interface 702 . Multicast notification 1502 indicates that an audio multicast message has been sent from John and three others to a group of devices designated Home 602 , including device 700 . In other words, because device 700 is designated home 602, device 700 is receiving audio multicast messages from John and three others. Multicast notification 1502 includes playback representation 1504 . In some embodiments, playback representation 1504 is selectable. In some embodiments, multicast notification 1502 may be combined with other multicast messages described above (e.g., multicast notification 708a, multicast notification 708, multicast notification 904, multicast notification 906a, multicast notification 906b, multicast notification 908a, multicast notification 908b, multicast Notification 908c, multicast notification 910) can include one or more features as described above. In some embodiments, such other multicast messages may include one or more features of multicast notification 1502 (eg, playback representation 1504). 15A, device 700 detects tap gesture 1550a on multicast notification 1502. In FIG.

図15B~15Fは、(例えば、自動的に)音声マルチキャストメッセージを再生するための例示的なユーザインタフェースを示す。いくつかの実施形態では、図15B~15Fに関連して説明されるユーザインタフェースは、9I~9Jのユーザインタフェース及び/又は9M~9Pのユーザインタフェースなどの、上記の1つ以上のユーザインタフェースの代わりに表示することができる。 15B-15F illustrate exemplary user interfaces for playing (eg, automatically) audio multicast messages. In some embodiments, the user interfaces described in connection with FIGS. 15B-15F replace one or more of the user interfaces described above, such as the user interfaces of 9I-9J and/or the user interfaces of 9M-9P. can be displayed in

図15Bに示すように、タップジェスチャ1550aの検出に応答して、デバイス700は、ユーザインタフェース702の一部にオーバーレイされたユーザインタフェース1520を表示し、(例えば、タップジェスチャ1550aを検出した後にユーザ入力を介在させることなく)、現在の送信者示唆1322aによって示されるように、ジョンから受信した音声マルチキャストメッセージの再生を開始する。いくつかの実施形態では、音声の再生を開始する一部として、デバイス700は、デバイス700に電子的に結合された1つ以上のスピーカを介して音声を出力する。 As shown in FIG. 15B, in response to detecting tap gesture 1550a, device 700 displays user interface 1520 overlaid on a portion of user interface 702 (e.g., user input after detecting tap gesture 1550a). ), begins playing the audio multicast message received from John, as indicated by the current sender suggestion 1322a. In some embodiments, as part of initiating playback of audio, device 700 outputs audio through one or more speakers electronically coupled to device 700 .

図15Bに示すように、ユーザインタフェース1520は、ホーム602に関連付けられたデバイスのグループに送信された音声マルチキャストメッセージが再生されていることを示す、マルチキャストホーム識別子1532を含む。ユーザインタフェース1520はまた、マルチキャスト記録アフォーダンス736、現在の送信者示唆1522a、グラフィカル送信者示唆1524、及びカウント示唆930を含む。いくつかの実施形態では、デバイス700は、上述のマルチキャスト記録アフォーダンス736、現在の送信者示唆922a~922b、グラフィカル送信者示唆924a~924b、及びカウント示唆930を考慮して、それぞれ、表示及び動作するために使用する、マルチキャスト記録アフォーダンス736、現在の送信者示唆1522a、グラフィカル送信者示唆1524、及びカウント示唆930を考慮して表示及び動作するために、デバイス700は上述の1つ以上の技術を使用する。 As shown in FIG. 15B, user interface 1520 includes multicast home identifier 1532, which indicates that an audio multicast message sent to a group of devices associated with home 602 is being played. User interface 1520 also includes multicast recording affordance 736 , current sender suggestion 1522 a , graphical sender suggestion 1524 , and count suggestion 930 . In some embodiments, device 700 displays and operates in view of multicast recording affordance 736, current sender suggestions 922a-922b, graphical sender suggestions 924a-924b, and counting suggestions 930, respectively, described above. Device 700 uses one or more of the techniques described above to display and operate in view of multicast recording affordances 736, current sender suggestions 1522a, graphical sender suggestions 1524, and counting suggestions 930 used to do.

図15Aを再び見ると、通知1502は、4つの音声マルチキャストメッセージが受信され(例えば、「ジョン及び3人の他者」)、再生されたことを示している。したがって、図15Bでは、ユーザインタフェース1520は、受信メッセージの一部に対応するグラフィカル送信者示唆1524を含む。図15Bでは、グラフィカル送信者示唆1524は、グラフィカル送信者示唆1524a~1524cを含む。グラフィカル示唆1524aは、「ジョン」から受信した、第1の音声マルチキャストメッセージに対応する。グラフィカル示唆1524bは、第1の音声マルチキャストメッセージの後に受信された(又は送信された)第2の音声マルチキャストメッセージに対応する。グラフィカル示唆1524cは、第2の音声マルチキャストメッセージの後に受信された(又は送信された)第3の音声マルチキャストメッセージに対応する。特に、図15Aでは、ユーザインタフェース1520は、所定の数(例えば、3)のグラフィック示唆が同時に表示されるべきであると判定されたため、第4の音声マルチキャストメッセージに対応するグラフィカル示唆を含まない。 15A, notification 1502 indicates that four audio multicast messages were received (eg, "John and 3 others") and played. Accordingly, in FIG. 15B, user interface 1520 includes graphical sender suggestions 1524 corresponding to a portion of the received message. In FIG. 15B, graphical sender suggestions 1524 include graphical sender suggestions 1524a-1524c. Graphical suggestion 1524a corresponds to the first audio multicast message received from "John." Graphical suggestion 1524b corresponds to a second audio multicast message received (or sent) after the first audio multicast message. Graphical suggestion 1524c corresponds to a third audio multicast message received (or sent) after the second audio multicast message. In particular, in FIG. 15A, user interface 1520 does not include a graphical suggestion corresponding to the fourth audio multicast message because it was determined that a predetermined number (eg, 3) of graphical suggestions should be displayed simultaneously.

グラフィカル示唆1524a~1524cは、異なる表現を図示するグラフィカル示唆1524a~1524cによって示される、異なるユーザ(又はデバイス)によって送信された、異なるマルチキャストメッセージに対応する。グラフィカル示唆1524aは、第1の音声マルチキャストメッセージの送信者(例えば、「ジョン」)(例えば、判定された送信者)の視覚的表現を含む。グラフィカル示唆1524bは、第2の音声マルチキャストメッセージを記録したデバイス(例えば、スピーカ)の視覚的表現を含む。グラフィカル示唆1524cは、第3の音声マルチキャストメッセージの送信者(例えば、「エマアップルシード(Emma Appleseed)」を表す「EA」で、図7ABに示すようにホーム602に関連付けられた人物)に対応する文字の視覚的表現を含む。グラフィカル示唆1524bは、第2の音声マルチキャストメッセージを生成した人物が判定され得ないため、送信者の視覚的表現の代わりにデバイスの視覚的表現を含む。グラフィカル示唆1524cは、デバイス700がユーザの視覚的表現(例えば、エミリー)へのアクセスを有さないため、ユーザの視覚的表現の代わりに文字の視覚的表現を含む。いくつかの実施形態では、複数のグラフィカル示唆は、グラフィカル示唆に対応する音声マルチキャストメッセージが同じ送信者によって送信されたとの判定が行われると、同じ視覚的表現を含む。 Graphical suggestions 1524a-1524c correspond to different multicast messages sent by different users (or devices) indicated by graphical suggestions 1524a-1524c depicting different representations. Graphical suggestion 1524a includes a visual representation of the sender (eg, "John") of the first audio multicast message (eg, the determined sender). Graphical suggestion 1524b includes a visual representation of the device (eg, speaker) that recorded the second audio multicast message. Graphical suggestion 1524c corresponds to the sender of a third audio multicast message (eg, "EA" for "Emma Appleseed" and associated with Home 602 as shown in FIG. 7AB). Contains visual representations of characters. Graphical suggestion 1524b includes a visual representation of the device instead of a visual representation of the sender, as the person who generated the second audio multicast message cannot be determined. Graphical suggestion 1524c includes a visual representation of the character instead of the user's visual representation because device 700 does not have access to the user's visual representation (eg, Emily). In some embodiments, multiple graphical suggestions include the same visual representation upon determination that the audio multicast messages corresponding to the graphical suggestions were sent by the same sender.

図15Bに示されるように、グラフィカル示唆1524aは、ユーザインタフェース1520上に表示された最大のグラフィカル示唆であり、音声示唆1524a1(例えば、グラフィカル示唆1524aを取り囲む円)と共に表示される。現在の送信者示唆1522aによって示すように、ジョンからの第1の音声マルチキャストメッセージは、現在再生されている。したがって、グラフィカル示唆1524aは、最大のグラフィック表現であり、ジョンからの音声マルチキャストメッセージが現在再生されていることを示す音声示唆1524a1と共に表示される。いくつかの実施形態では、音声示唆1524a1は動的であり、再生されている第1の音声マルチキャストメッセージに従ってサイズが変化する。グラフィカル示唆1524bは、第2の音声マルチキャストメッセージが、デバイス700によって再生されるキューの次の音声マルチキャストメッセージであるため、ユーザインタフェース1520上に表示される第2の最大のグラフィカル示唆である。グラフィカル示唆1524cは、第3の音声マルチキャストメッセージが、第2の音声マルチキャストメッセージの後にデバイス700によって再生されるキューの次の音声マルチキャストメッセージであるため、ユーザインタフェース1520上に表示される第3の最大のグラフィカル示唆である。図15Bでは、デバイス700は、第1の音声マルチキャストメッセージが所定の時間の期間内に終了する(例えば、0秒、1秒)(又は次のメッセージ(例えば、第2のメッセージ)が所定の時間の期間内に開始する)と判定する。 As shown in FIG. 15B, graphical suggestion 1524a is the largest graphical suggestion displayed on user interface 1520 and is displayed along with audio suggestion 1524a1 (eg, a circle surrounding graphical suggestion 1524a). The first audio multicast message from John is currently being played, as indicated by current sender suggestion 1522a. Thus, graphical suggestion 1524a is the full graphical representation and is displayed with audio suggestion 1524a1 indicating that an audio multicast message from John is currently being played. In some embodiments, audio suggestion 1524a1 is dynamic, varying in size according to the first audio multicast message being played. Graphical suggestion 1524 b is the second largest graphical suggestion displayed on user interface 1520 because the second audio multicast message is the next audio multicast message in queue to be played by device 700 . Graphical suggestion 1524c displays a third maximum audio multicast message displayed on user interface 1520 because the third audio multicast message is the next audio multicast message in queue to be played by device 700 after the second audio multicast message. is a graphical suggestion of In FIG. 15B, device 700 indicates that the first audio multicast message ends within a predetermined time period (eg, 0 seconds, 1 second) (or the next message (eg, second message) start within the period).

第1の音声マルチキャストメッセージが所定の時間の期間内に終了する(又は終了した)と判定することに応答して(例えば、スキップアフォーダンス1534上のタップジェスチャに基づいて、ユーザ入力なしで)、デバイス700は、グラフィカル示唆1524b~1524cを反時計回りに回転させ、グラフィカル示唆1524aの表示を中止する。図15Cに示すように、第1の音声マルチキャストメッセージが所定の時間の期間内に終了する(又は終了した)との判定に応答して、グラフィカル示唆1524bは、グラフィック表現1524aが図15Bに以前に表示された場所に表示され、グラフィカル示唆1524cは、グラフィック表現1524bが図15Bに以前に表示された場所に表示される。図15Cに示すように、グラフィカル示唆1524aは、グラフィック示唆1524bが図15Bに以前に表示された同じサイズで表示され、グラフィカル示唆1524cは、グラフィカル示唆1524bが図15Bに以前に表示された同じサイズで表示される。 In response to determining that the first audio multicast message ends (or has ended) within a predetermined period of time (eg, based on a tap gesture on skip affordance 1534, without user input), the device 700 rotates graphical suggestions 1524b-1524c counterclockwise and stops displaying graphical suggestion 1524a. As shown in FIG. 15C, in response to determining that the first audio multicast message has ended (or has ended) within a predetermined period of time, graphical indication 1524b changes the graphical representation 1524a to what it was previously shown in FIG. 15B. Displayed where displayed, graphical suggestion 1524c is displayed where graphical representation 1524b was previously displayed in FIG. 15B. As shown in FIG. 15C, graphical suggestion 1524a is displayed at the same size that graphical suggestion 1524b was previously displayed in FIG. 15B, and graphical suggestion 1524c is displayed at the same size that graphical suggestion 1524b was previously displayed in FIG. 15B. Is displayed.

図15Cに示すように、現在の送信者示唆1522bは、図15Bに以前に表示された、現在の送信者示唆1522aに置き換えられている。したがって、図15Cでは、図15Cのユーザインタフェース1520が表示される時間によって第1の音声マルチキャストメッセージの再生が完了しているため、デバイス700は現在、第2の音声マルチキャストメッセージを再生している。図15Cに示すように、ここで、グラフィカル示唆1524bは、音声示唆1524a1に関連して上述したものと類似の技術を使用して表示される、音声示唆1524b1と共に表示される。図15Cに示すように、グラフィカル示唆1524cは、デバイス700が現在、第3の音声マルチキャストメッセージ(例えば、グラフィカル示唆1524cに対応する音声マルチキャストメッセージ)を現在出力していないので、グラフィカル示唆1524cを取り囲む音声示唆を有さない。いくつかの実施形態では、デバイス600は、15Bのユーザインタフェース1520の表示と図15Cのユーザインタフェース1520の表示の間で遷移している間に、グラフィカル示唆1524b~1524cのサイズを徐々に増大させるアニメーションを表示する。 As shown in FIG. 15C, current sender suggestion 1522b has been replaced with current sender suggestion 1522a previously displayed in FIG. 15B. Thus, in FIG. 15C, the device 700 is now playing a second audio multicast message because the first audio multicast message has completed playing by the time user interface 1520 of FIG. 15C is displayed. As shown in FIG. 15C, graphical suggestion 1524b is now displayed with audio suggestion 1524b1 displayed using techniques similar to those described above with respect to audio suggestion 1524a1. As shown in FIG. 15C, graphical suggestion 1524c has audio surrounding graphical suggestion 1524c because device 700 is not currently outputting a third audio multicast message (eg, an audio multicast message corresponding to graphical suggestion 1524c). No suggestions. In some embodiments, the device 600 displays an animation that gradually increases the size of the graphical indications 1524b-1524c while transitioning between the display of the user interface 1520 of 15B and the display of the user interface 1520 of FIG. 15C. display.

図15Cに示すように、デバイス700は、グラフィカル示唆1524a(例えば、第1の音声マルチキャストメッセージが終了した)を表示することを中止しているので、デバイス700は、ジェーンによって送信された第4の音声マルチキャストメッセージに対応する、(図15Eの現在の送信者示唆1522dによって示すように)グラフィカル示唆1524dを新たに表示する。グラフィカル示唆1524dは、図15Bのグラフィカル示唆1524cと同じサイズで、同じ場所に表示される(例えば、グラフィカル示唆1524dは、ここで音声再生のキューで第2であるため)。図15Cでは、デバイス700は、第2の音声マルチキャストメッセージが所定の時間の期間内に終了する(例えば、0~1秒)(又は次のメッセージ(例えば、第3の音声マルチキャストメッセージ)が所定の時間の期間内に開始する)(又は終了した)と判定する。 As shown in FIG. 15C , device 700 has ceased displaying graphical indication 1524a (eg, the first audio multicast message has ended), so device 700 no longer receives the fourth message sent by Jane. A new graphical suggestion 1524d (as shown by current sender suggestion 1522d in FIG. 15E) corresponding to the audio multicast message is displayed. Graphical suggestion 1524d is the same size and displayed in the same location as graphical suggestion 1524c of FIG. 15B (eg, because graphical suggestion 1524d is now second in the queue for audio playback). In FIG. 15C, device 700 indicates that the second audio multicast message ends within a predetermined time period (eg, 0-1 seconds) (or the next message (eg, third audio multicast message) start (or end) within a period of time.

第2の音声マルチキャストメッセージが所定の時間の期間内に終了する(又は終了した)と判定することに応答して、デバイス700は、グラフィカル示唆1524c~1524dを反時計回りに回転させ、グラフィカル示唆1524bの表示を中止する。図15Dに示すように、第2の音声マルチキャストメッセージが所定の時間の期間内に終了するとの判定に応答して、グラフィカル示唆1524cは、グラフィック表現1524bが図15Cに以前に表示された場所及びサイズで表示され、グラフィカル示唆1524dは、グラフィック表現1524cが図15Cに以前に表示された場所及びサイズで表示される。 In response to determining that the second audio multicast message ends (or has ended) within the predetermined period of time, device 700 rotates graphical suggestions 1524c-1524d counter-clockwise to graphical suggestion 1524b. stop displaying . As shown in FIG. 15D, in response to determining that the second audio multicast message will expire within a predetermined time period, graphical suggestion 1524c displays the location and size at which graphical representation 1524b was previously displayed in FIG. 15C. , and graphical suggestion 1524d is displayed at the location and size that graphical representation 1524c was previously displayed in FIG. 15C.

図15Dに示すように、現在の送信者示唆1522cは、図15Cに以前に表示された、現在の送信指示1522bに置き換えられている。したがって、図15Dでは、図15Dのユーザインタフェース1520が表示される時間によって第2の音声マルチキャストメッセージの再生が完了しているため、デバイス700は現在、第3の音声マルチキャストメッセージを再生している。デバイス700は、第2の音声マルチキャストメッセージの再生の終了後の所定の時間の期間に、入力の介在なしに、第3の音声マルチキャストメッセージを自動的に再生する。いくつかの実施形態では、デバイス700は、再生されるマルチキャストメッセージ間で所定のサウンド(例えば、チャイム、バズ、階調)を再生する。例えば、デバイス700は、第2の音声マルチキャストメッセージの再生を自動的に開始する前に第1のサウンドを再生することができ、第3の音声マルチキャストメッセージの再生を自動的に開始する前に、第2のサウンド(例えば、同じチャイム)を再生することができる。いくつかの実施形態では、デバイス600は、所定のサウンドを再生している間(その後又は前に)、ユーザインタフェースを遷移する(例えば、図15Cのユーザインタフェース1520を図15Dのユーザインタフェース1520に遷移する)。いくつかの実施形態では、図15Cのスキップアフォーダンス1534上の入力の検出に応答して、デバイス700は、第2の音声メッセージの再生(例えば、図15Cで再生されている)を終了し(第2の音声メッセージの端部に到達する前に)、第3の音声メッセージの再生を開始し、ユーザインタフェースを遷移する(例えば、図15Cのユーザインタフェース1520を図15Dのユーザインタフェース1520に遷移する)。図15Dでは、デバイス700は、第3の音声マルチキャストメッセージが所定の時間の期間内に終了する(例えば、0~1秒)(又は次のメッセージ(例えば、第4の音声マルチキャストメッセージ)が所定の時間の期間内に開始する)(又は終了した)と判定する。 As shown in FIG. 15D, the current sender suggestion 1522c has been replaced with the current send instruction 1522b previously displayed in FIG. 15C. Thus, in FIG. 15D, the device 700 is now playing the third audio multicast message because the second audio multicast message has completed playing by the time the user interface 1520 of FIG. 15D is displayed. Device 700 automatically plays a third audio multicast message without input intervention for a predetermined period of time after the end of playing the second audio multicast message. In some embodiments, device 700 plays predetermined sounds (eg, chimes, buzzes, tones) between played multicast messages. For example, the device 700 can play a first sound before automatically starting playing a second audio multicast message, and before automatically starting playing a third audio multicast message: A second sound (eg, the same chime) can be played. In some embodiments, the device 600 transitions the user interface (e.g., transitions the user interface 1520 of FIG. 15C to the user interface 1520 of FIG. 15D) while playing (after or before) the predetermined sound. do). In some embodiments, in response to detecting an input on skip affordance 1534 of FIG. 15C, device 700 ends playing the second voice message (eg, played in FIG. 2), start playing a third voice message and transition the user interface (e.g., transition user interface 1520 of FIG. 15C to user interface 1520 of FIG. 15D). . In FIG. 15D, device 700 indicates that the third audio multicast message ends within a predetermined time period (eg, 0-1 seconds) (or the next message (eg, fourth audio multicast message) start (or end) within a period of time.

第3の音声マルチキャストメッセージが所定の時間の期間内に終了する(又は終了した)と判定することに応答して、デバイス700は、グラフィカル示唆1524dを移動させ(例えば、の位置を変更して)、反時計回りに拡大し、グラフィカル示唆1524cの表示を中止する。図15Eに示すように、グラフィカル示唆1524dは、唯一の表示されたグラフィカル示唆であるため、デバイス700は、グラフィカル示唆1524dのサイズを、グラフィカル示唆1524cが以前に表示されたサイズよりも大きいサイズに増大させる。いくつかの実施形態では、グラフィカル示唆1524dは、図15Bのグラフィカル示唆1524aの場所と比較して、図15Eの異なる場所(例えば、1524の中心に)で表示される。図15Eに示すように、現在の送信者示唆1522dは、図15Dに以前に表示された、現在の送信指示1522cに置き換えられている。したがって、図15Eでは、図15Eのユーザインタフェース1520が表示される時間によって第3の音声マルチキャストメッセージの再生が完了したことから、デバイス700は現在、第4の音声マルチキャストメッセージ(例えば、グラフィカル示唆1524dに対応する音声マルチキャストメッセージ)を再生している。デバイス700は、第3の音声マルチキャストメッセージの再生の終了後(例えば、第3の音声マルチキャストメッセージが終了してから)の所定の時間の期間に、入力の介在なしに、第4の音声マルチキャストメッセージを自動的に再生する。 In response to determining that the third audio multicast message ends (or has ended) within a predetermined period of time, device 700 moves (eg, changes the position of) graphical indication 1524d. , expand counterclockwise and stop displaying graphical suggestion 1524c. As shown in FIG. 15E, since graphical suggestion 1524d is the only displayed graphical suggestion, device 700 increases the size of graphical suggestion 1524d to a size greater than the size previously displayed of graphical suggestion 1524c. Let In some embodiments, graphical suggestion 1524d is displayed at a different location (eg, in the center of 1524) in FIG. 15E compared to the location of graphical suggestion 1524a in FIG. 15B. As shown in FIG. 15E, current sender suggestion 1522d has been replaced with current send instruction 1522c previously displayed in FIG. 15D. Thus, in FIG. 15E, the device 700 is now playing the fourth audio multicast message (eg, at graphical suggestion 1524d) because playback of the third audio multicast message was completed by the time user interface 1520 of FIG. 15E was displayed. corresponding audio multicast message). Device 700 may play a fourth audio multicast message, without input intervention, for a predetermined period of time after completion of playback of the third audio multicast message (e.g., after completion of the third audio multicast message). automatically play.

図15Fに示すように、第4の音声メッセージの再生が終了したと判定した後に、デバイス700は、追加のメディア(又はマルチキャスト音声メッセージ)を再生することなく、グラフィカル示唆1524a~1524cを含むようにユーザインタフェース1520を更新する。グラフィカル示唆1524a~1524cを再表示することに加えて、デバイス700は再生アフォーダンス926を表示する。いくつかの実施形態では、再生アフォーダンス926上でタップジェスチャ1550f1を検出したことに応答して、デバイス700は、第1の音声マルチキャストメッセージの再生を開始し、図15B~15Eに記載されたフローを繰り返す。いくつかの実施形態では、マルチキャストアフォーダンスマルチキャスト記録アフォーダンス736上でタップジェスチャ1550f2(又は、押圧及び保持ジェスチャ)を検出することに応答して、デバイス700は、(例えば、マルチキャスト音声メッセージ(例えば、第1、第2、第3、第4の音声マルチキャストメッセージ)が送信されたデバイスのグループに返信するために)ホーム602に関連付けられたデバイスのグループに音声メッセージを記録し、送信するためのユーザインタフェースを表示する。したがって、いくつかの実施形態では、デバイス700は、マルチキャスト記録アフォーダンス736上でのタップジェスチャの検出に応答して、図7C1のユーザインタフェース741、図7Cのユーザインタフェース730、又は図7Dのユーザインタフェース740を表示する。いくつかの実施形態では、マルチキャスト記録アフォーダンス736上のタップジェスチャは、端部記録入力(例えば、別のタップジェスチャ)が検出されるまで音声録音を開始する。端部記録入力が検出されると、記録された音声メッセージは、デバイスのグループに送信される。いくつかの実施形態では、マルチキャスト記録アフォーダンス736上で、押圧及び保持ジェスチャが検出される。押圧及び保持ジェスチャが検出されると、音声記録が開始される。押圧及び保持ジェスチャの端部(例えば、リフトオフ)が検出されると、音声記録が終了し、記録された音声メッセージがデバイスのグループに送信される。いくつかの実施形態では、図15B~15Eのユーザインタフェースのうちのいずれかでマルチキャスト記録アフォーダンス736のアクティブ化(例えば、タップジェスチャ、タップアンドホールドジェスチャ)を検出することにより、現在の再生メッセージの再生を停止させ、デバイスのグループに送信するために音声メッセージを記録するためのプロセスを開始させる。 As shown in FIG. 15F, after determining that playback of the fourth voice message has ended, device 700 may proceed to include graphical suggestions 1524a-1524c without playing additional media (or multicast voice messages). Update the user interface 1520. In addition to redisplaying graphical suggestions 1524 a - 1524 c , device 700 displays playback affordance 926 . In some embodiments, in response to detecting tap gesture 1550f1 on playback affordance 926, device 700 begins playing the first audio multicast message, following the flow described in FIGS. 15B-15E. repeat. In some embodiments, in response to detecting a tap gesture 1550f2 (or a press and hold gesture) on multicast affordance multicast recording affordance 736, device 700 (eg, multicast voice message (eg, first a user interface for recording and sending voice messages to a group of devices associated with home 602 (to reply to the group of devices to which the second, third, and fourth voice multicast messages) were sent; indicate. Accordingly, in some embodiments, in response to detecting a tap gesture on multicast recording affordance 736, device 700 displays user interface 741 of FIG. 7C1, user interface 730 of FIG. 7C, or user interface 740 of FIG. 7D. display. In some embodiments, a tap gesture on multicast recording affordance 736 initiates audio recording until an edge recording input (eg, another tap gesture) is detected. When an edge recording input is detected, the recorded voice message is sent to the group of devices. In some embodiments, press and hold gestures are detected on the multicast recording affordance 736 . Audio recording is initiated when a press and hold gesture is detected. When the end of the press and hold gesture (eg, lift-off) is detected, the voice recording ends and the recorded voice message is sent to the group of devices. In some embodiments, detecting activation of the multicast recording affordance 736 (eg, tap gesture, tap and hold gesture) in any of the user interfaces of FIGS. 15B-15E plays back the current playback message. and start a process to record a voice message for sending to a group of devices.

図16は、いくつかの実施形態に係る、コンピュータシステムを使用して音声メッセージを再生するための方法を示すフロー図である。方法1600は、ディスプレイ生成構成要素(例えば、一体型ディスプレイ、接続されたディスプレイ)及び1つ以上の入力デバイス(例えば、タッチ感知面)と通信するコンピュータシステム(例えば、100、300、500、634、674、700、701、850)で実行される。方法1600のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 FIG. 16 is a flow diagram illustrating a method for playing a voice message using a computer system, according to some embodiments. The method 1600 can be performed by a computer system (eg, 100, 300, 500, 634, 634, 634, 634, 634, 634, 634, 634, 634, 634, 634, 634, 634) in communication with a display generating component (eg, integrated display, connected display) and one or more input devices (eg, touch sensitive surface). 674, 700, 701, 850). Some acts of method 1600 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

後述するように、方法1600は、メディアコンテンツを再生するための直観的方法を提供する。本方法は、メディアメッセージを再生するユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作成する。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコンテンツを再生することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As discussed below, method 1600 provides an intuitive way to play media content. The method reduces the cognitive burden on users of playing media messages, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to play media content faster and more efficiently.

コンピュータシステム(例えば、700)は、ディスプレイ生成構成要素を介して、メディアユーザインタフェース(例えば、1520)を表示し(1602)、それには、第1の場所で、第1のメディアメッセージ(例えば、音声メディア、視覚的メディア、オーディオビジュアルメディア)の第1の表現(1604)(例えば、図15Bの1524a)、及び第1の場所とは異なる第2の場所で、第2のメディアメッセージの第2の表現(1606)(例えば、図15Bの1524b)が含まれる。いくつかの実施形態では、メディアユーザインタフェースは、メディアのグループ(例えば、メディアのグループが順序付けられた1組にある)の複数の(例えば、いくつかの、全てではない)メディアメッセージの表現を含む。 A computer system (e.g., 700) displays (1602) a media user interface (e.g., 1520) via a display generation component that includes, at a first location, a first media message (e.g., voice media, visual media, audiovisual media), and a second representation (1604) (e.g., 1524a in FIG. 15B) of the second media message at a second location different from the first location. A representation (1606) (eg, 1524b in FIG. 15B) is included. In some embodiments, the media user interface includes a representation of multiple (e.g., some, but not all) media messages of a group of media (e.g., the group of media is in an ordered set). .

メディアユーザインタフェースを表示したこと、及びメディアユーザインタフェース(例えば、1520)に対応するユーザ入力に基づいていないことに応答して、コンピュータシステム(例えば、700)は、第1のメディアメッセージを再生する(1608)(例えば、第1のメディアメッセージの音声及び/又はビデオを出力する)。 In response to displaying the media user interface and not based on user input corresponding to the media user interface (eg, 1520), the computer system (eg, 700) plays a first media message ( 1608) (eg, output audio and/or video of the first media message).

第1のメディアメッセージの再生の完了(例えば、第1のメディアメッセージの端部まで再生することによって第1のメディアメッセージの端部に到達したこと)の検出に応答して、コンピュータシステム(例えば、700)は、ディスプレイ生成構成要素を介して、(例えば、図15Cのような)第1のメディアメッセージに対応する表現(例えば、1524a)(例えば、任意の表現)を表示することなく、(例えば、図15Cのような)第2のメディアメッセージの第2の表現(例えば、1524b)を表示する(1610)。 In response to detecting completion of playback of the first media message (e.g., reaching the end of the first media message by playing to the end of the first media message), the computer system (e.g., 700) via the display generation component (eg, as in FIG. 15C) without displaying a representation (eg, 1524a) corresponding to the first media message (eg, any representation) (eg, , FIG. 15C) displays 1610 a second representation (eg, 1524b) of the second media message.

異なる場所で様々なメディアメッセージの表現を表示することは、ユーザに、メディアメッセージの順序に関するフィードバック、そして例えば、どのメディアメッセージが現在再生中で、どのメディアメッセージが次に再生するかを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Displaying representations of various media messages at different locations provides the user with feedback on the order of the media messages and, for example, which media message is currently playing and which media message will play next. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device, reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態では、複数の(例えば、いくつかの、全てではない、3つの)メディアメッセージの表現は、順序付けられた1組の順序に基づいて様々なサイズで表示される。いくつかの実施形態では、より早くメディアメッセージが順序付けられた1組にあると、対応するメディアメッセージの表現はより大きくなる(例えば、現在再生しているメディアメッセージの表現は最大であり、次に再生されるメディアメッセージの表現はその次に最大であるなど)。したがって、メディアメッセージの順序は、それらの対応する表示描像の比較サイズで反映される。 In some embodiments, multiple (eg, some, but not all, three) representations of media messages are displayed in varying sizes based on an ordered set of orders. In some embodiments, the earlier a media message is in the ordered set, the larger the corresponding representation of the media message (e.g., the representation of the currently playing media message is the largest, then The representation of the media message that is played is the next largest, etc.). Therefore, the order of media messages is reflected in the relative size of their corresponding display images.

いくつかの実施形態によれば、第1のメディアメッセージ(例えば、音声メディア、視覚的メディア、オーディオビジュアルメディア)の第1の表現(例えば、図15Bの1524a)を第1の場所で表示することは、第1のメディアメッセージ(例えば、音声メディア、視覚的メディア、オーディオビジュアルメディア)の第1の表現(例えば、1524a)を第1の場所及び第1のサイズ(例えば、図15Bのように)で表示することを含む。いくつかの実施形態によれば、第2の場所での第2のメディアメッセージの第2の表現(例えば、図15Bの1524b)を表示することは、第2の場所及び(例えば、図15Bのように)第1のサイズとは異なる(例えば、より小さい)第2のサイズで第2のメディアメッセージの第2の表示(例えば、1524b)を表示することを含む。 According to some embodiments, displaying a first representation (eg, 1524a in FIG. 15B) of a first media message (eg, audio media, visual media, audiovisual media) at a first location. places a first representation (eg, 1524a) of a first media message (eg, audio media, visual media, audiovisual media) in a first location and a first size (eg, as in FIG. 15B). Including displaying in According to some embodiments, displaying the second representation of the second media message at the second location (eg, 1524b of FIG. 15B) is performed at the second location and (eg, 1524b of FIG. 15B). displaying a second representation (eg, 1524b) of the second media message at a second size that is different (eg, smaller) than the first size (such as).

異なるサイズで様々なメディアメッセージの表現を表示することは、ユーザに、メディアメッセージの順序に関するフィードバック(例えば、順序付けられた1組でサイズが大きいほどより早い)、そして例えば、どのメディアメッセージが現在再生中で、どのメディアメッセージが次に再生するかを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Displaying representations of various media messages at different sizes provides the user with feedback regarding the order of the media messages (e.g., larger size is earlier in an ordered set) and e.g. which media message is currently playing. In it, provide which media message to play next. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device; reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態によれば、コンピュータシステム(例えば、700)は、ディスプレイ生成構成要素を介して、第1の場所での第1のメディアメッセージの第1の表現及び第2の場所での第2のメディアメッセージの第2の表現と同時に、第1のサイズとは異なる(及び、任意選択的に、第2のサイズとは異なる)第3のサイズ(例えば、第2のサイズと同じ、第2のサイズより小さい)及び第1の場所及び第2の場所とは異なる第3の場所で、第3のメディアメッセージの第3の表現(例えば、1524c)を表示する。第1のメディアメッセージの再生の完了(例えば、第1のメディアメッセージの端部まで再生することによって第1のメディアメッセージの端部に到達したこと)の検出に応答して、コンピュータシステム(例えば、700)は、ディスプレイ生成構成要素を介して、第1のメディアメッセージの第1の表現(例えば、1524a)を表示することなく、第1のサイズ及び第1の場所で、(例えば、図15Cのような)第2のメディアメッセージの第2の表現(例えば、1524b)を表示し、コンピュータシステム(例えば、700)は、第2のサイズ及び第2の場所で、(例えば、図15Cのような)第3のメディアメッセージの第3の表現(例えば、1524c)を表示する。 According to some embodiments, a computer system (eg, 700), via a display generation component, renders a first representation of a first media message at a first location and a second representation at a second location. 2 media message simultaneously with a third size different from the first size (and optionally different from the second size), e.g. 2 size) and at a third location different from the first and second locations, displaying a third representation (eg, 1524c) of the third media message. In response to detecting completion of playback of the first media message (e.g., reaching the end of the first media message by playing to the end of the first media message), the computer system (e.g., 700) via the display generating component, without displaying the first representation (eg, 1524a) of the first media message in the first size and first location (eg, in FIG. 15C). The computer system (eg, 700) displays a second representation (eg, 1524b) of the second media message (eg, 1524b) in a second size and in a second location (eg, FIG. 15C). ) displays a third representation (eg, 1524c) of the third media message.

異なる場所及び異なるサイズで様々なメディアメッセージの表現を表示することにより、再生されるべきメディアメッセージの順序に関するフィードバックがユーザに提供される。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 By displaying representations of various media messages in different locations and different sizes, feedback is provided to the user regarding the order in which the media messages should be played. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device, reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態によると、コンピュータシステム(例えば、700)は、第1のリモートユーザからの(例えば、コンピュータシステムを含む、デバイスの目標グループ(例えば、ホームの複数のデバイス(例えば、ホーム自動化システム))に向けられた)第1の(例えば、音声)メッセージである第1のメディアメッセージ、及び第1のリモートユーザとは異なる第2のリモートユーザからの(例えば、コンピュータシステムを含む、デバイスの目標グループ(例えば、ホームの複数のデバイス(例えば、ホーム自動化システム))に向けられた)第2の(例えば、音声)メッセージである第2のメディアメッセージを含む、メディアメッセージ(例えば、メディアのグループ、第1、第2、第3、及び第4のメディアメッセージ)に対応するデータ(第1、第2、第3、第4のデータ)を(例えば、無線ネットワークを介して)受信する。コンピュータシステム(例えば、700)は、ディスプレイ生成構成要素を介して、メディアメッセージに対応する通知(例えば、1502)を(例えば、(更に詳細に上述しているように)時間周期の端部までデータの受信に応答して)表示する。通知(例えば、1502)を表示している間に、コンピュータシステム(例えば、700)は、1つ以上の入力デバイスを介して、通知(例えば、ロックスクリーン上に表示された通知のアクティブ化、メディアのグループに対応する通知、メディアのグループが順序付けられた1組にある)の選択(例えば、1550a)を受信する。いくつかの実施形態では、メディアユーザインタフェースを表示することが、通知(例えば1502)の選択(例えば、1550a)の受信に応答して発生する。いくつかの実施形態では、第1のメディアメッセージを再生することが、通知(例えば1502)の選択(例えば、1550a)の受信に応答して発生する。 According to some embodiments, a computer system (eg, 700) receives a target group of devices (eg, home multiple devices (eg, home automation system ))), and from a second remote user different from the first remote user (e.g., a device, including a computer system). A media message (e.g., a group of media) including a second media message that is a second (e.g., voice) message directed to a target group (e.g., a plurality of devices in a home (e.g., a home automation system)) , first, second, third, and fourth media messages) is received (eg, via a wireless network). A computer system (e.g., 700), via a display generation component, sends a notification (e.g., 1502) corresponding to a media message (e.g., data to the end of a time period (as described in further detail above)). display) in response to receipt of While displaying the notification (eg, 1502), the computer system (eg, 700) may, via one or more input devices, receive the notification (eg, activation of the notification displayed on the lock screen, media , a selection (eg, 1550a) corresponding to a group of media, the group of media being in an ordered set. In some embodiments, displaying the media user interface occurs in response to receiving the selection (eg, 1550a) of the notification (eg, 1502). In some embodiments, playing the first media message occurs in response to receiving the selection (eg, 1550a) of the notification (eg, 1502).

メディアユーザインタフェースを表示し、通知の選択に応答して第1のメディアメッセージを自動的に再生することによって、同じ入力に応答して、コンピュータシステムが2つの機能(表示及び再生)を実行することが可能になり、それによって、コンピュータシステムが再生を開始するために追加の入力を受信する必要性を低減する。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに、適切な入力を提供するようにユーザを支援し、ユーザの誤りを低減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用を低減し、デバイスのバッテリ寿命を改善する。 Displaying a media user interface and automatically playing a first media message in response to notification selection, thereby causing the computer system to perform two functions (display and playback) in response to the same input. , thereby reducing the need for the computer system to receive additional input to initiate playback. Improve device usability by reducing the number of inputs required to perform an action (e.g., prompt the user to provide appropriate input when manipulating/interacting with the device). It reduces power usage by making the user-device interface more efficient (by assisting and reducing user error), as well as enabling users to use the device more quickly and efficiently, thereby reducing power usage and improve battery life.

いくつかの実施形態では、第1の表示(例えば、1524a)、第2の表現(例えば、1524b)、及び第3の表現(例えば、1524c)は、1つの線に表示されない(例えば、第1、第2、及び第3の場所は全て1つの線上にあるとは限らない)。いくつかの実施形態では、表示されるメディアの表現は、(例えば、表現が削除され、新しい表現が追加されると)1行に表示されない。 In some embodiments, the first representation (eg, 1524a), the second representation (eg, 1524b), and the third representation (eg, 1524c) are not displayed in one line (eg, the first , second and third places are not all on one line). In some embodiments, representations of displayed media are not displayed in one line (eg, as representations are deleted and new representations are added).

別の実施形態によると、第1のサイズは、第2のサイズよりも大きい。いくつかの実施形態では、第2のサイズは、第3のサイズより大きい。いくつかの実施形態では、第2のサイズ及び第3のサイズは、同じサイズである。いくつかの実施形態では、現在再生しているメディアファイルの表現(例えば、図15Bの1524a、図15Cの1524b)は、メディアメッセージの複数の他の(例えば、全て)表示描像のサイズよりも大きいサイズで表示される。 According to another embodiment, the first size is larger than the second size. In some embodiments, the second size is larger than the third size. In some embodiments, the second size and the third size are the same size. In some embodiments, a representation of the currently playing media file (eg, 1524a in FIG. 15B, 1524b in FIG. 15C) is larger than the size of multiple other (eg, all) display representations of the media message. displayed in size.

様々なメディアメッセージの表現を、ますます大きいサイズで表示することにより、メディアメッセージの順序に関するフィードバックがユーザに提供される。例えば、対応するメディアメッセージがより早ければ、表現がより大きくなることは、メディアメッセージの順序付けられた1組にあり、(例えば)最大表現は現在再生中のメディアアイテムである。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 By displaying representations of various media messages in larger and larger sizes, feedback is provided to the user regarding the order of the media messages. For example, the earlier the corresponding media message, the larger the representation is in the ordered set of media messages, where (for example) the largest representation is the currently playing media item. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device, reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態によれば、第1のメディアメッセージの再生の完了(例えば、第1のメディアメッセージの端部まで再生することによって第1のメディアメッセージの端部に到達すること)を検出したことに応答して、更なるユーザ入力を受信(又は必要と)することなく、第2のメディアメッセージを再生する(例えば、第2のメディアの音声及び/又はビデオを出力する)。いくつかの実施形態では、第2のメディアメッセージは、第1のサイズ及び第1の場所で、第2のメディアメッセージの第2の表現を表示することと共に再生される。 According to some embodiments, completion of playback of the first media message (e.g., reaching the end of the first media message by playing to the end of the first media message) is detected In response, play the second media message (eg, output the audio and/or video of the second media) without receiving (or requiring) further user input. In some embodiments, the second media message is played with displaying a second representation of the second media message at the first size and at the first location.

第1のメディアメッセージの完了に応答して第2のメディアメッセージを自動的に再生することにより、コンピュータシステムが第2のメディアメッセージの再生を開始するために追加の入力を受信する必要がなくなる。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに、適切な入力を提供するようにユーザを支援し、ユーザの誤りを低減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用を低減し、デバイスのバッテリ寿命を改善する。 By automatically playing the second media message in response to completion of the first media message, the computer system does not need to receive additional input to begin playing the second media message. Improve device usability by reducing the number of inputs required to perform an action (e.g., prompt the user to provide appropriate input when manipulating/interacting with the device). It reduces power usage by making the user-device interface more efficient (by assisting and reducing user error), as well as enabling users to use the device more quickly and efficiently, thereby reducing power usage and improve battery life.

いくつかの実施形態では、第2のメディアメッセージの再生の完了を検出したことに応答して(例えば、第2のメディアメッセージの端部に到達した、第1のメディアの残りをスキップする)、コンピュータシステムは、更なるユーザ入力を受信(又は必要と)することなく、第3のメディアメッセージを再生する(例えば、第3のメディアメッセージの音声及び/又はビデオを出力する)。いくつかの実施形態では、第3のメディアメッセージは、第1のサイズ及び第1の場所で、第3のメディアメッセージの第3の表現を表示することと共に再生される。いくつかの実施形態では、第5のメディアの第5の表現は、第2のメディアメッセージの再生の完了を検出した後には表示されない。 In some embodiments, in response to detecting completion of playback of the second media message (e.g., skipping the remainder of the first media upon reaching the end of the second media message), The computer system plays the third media message (eg, outputs audio and/or video of the third media message) without receiving (or requiring) further user input. In some embodiments, the third media message is played with displaying a third representation of the third media message at the first size and at the first location. In some embodiments, the fifth representation of the fifth media is not displayed after detecting completion of playing the second media message.

いくつかの実施形態によると、第1のメディアメッセージの再生の完了を検出する前に、第4のメディアメッセージ(例えば、音声メディア、視覚的メディア、オーディオビジュアルメディア)の第4の表現(例えば、1524d)は、第1のメディアの第1の表示と同時に表示されない(例えば、図15Bに示すように、メディアユーザインタフェース内に)。第1のメディアメッセージの再生の完了(例えば、第1のメディアメッセージの端部まで再生することによって第1のメディアメッセージの端部に到達したこと)の検出の後(例えば、応答して)、(いくつかの実施形態では、第1のメディアメッセージの再生の完了の検出に応答して)、コンピュータシステム(例えば、700)は、ディスプレイ生成構成要素を介して、(例えば、メディアユーザインタフェース(例えば、1520)の)第4のメディアメッセージの第4の表現(例えば、1524d)を(例えば、第3のサイズ及び第3の場所で)表示する(いくつかの実施形態では、第4のメディアメッセージは、メディアメッセージの第2及び第3の表現と同時に表示される)。 According to some embodiments, a fourth representation (e.g., audio media, visual media, audiovisual media) of a fourth media message (e.g., audio media, visual media, audiovisual media) prior to detecting completion of playback of the first media message. 1524d) is not displayed concurrently with the first display of the first media (eg, in the media user interface, as shown in FIG. 15B). after (eg, in response to) detection of completion of playback of the first media message (eg, reaching the end of the first media message by playing to the end of the first media message); In some embodiments, in response to detecting completion of playback of the first media message, the computer system (e.g., 700), via the display generation component, (e.g., media user interface (e.g., , 1520)) of the fourth media message (e.g., 1524d) (e.g., in a third size and in a third location) (in some embodiments, the fourth media message is displayed simultaneously with the second and third representations of the media message).

メディアメッセージが再生され、再生されたメディアメッセージの表現が除去されるまで、メディアのグループの追加のメディアメッセージの表現を表示することなく、メディアメッセージのグループの第1の所定の数のメディアメッセージの表現を表示することにより、ユーザインタフェースを乱すことなく、追加のメディアメッセージが再生のために利用可能であるというフィードバックがユーザに提供される。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 playing a first predetermined number of media messages of a group of media messages without displaying additional media message representations of the group of media until the media message is played and the representation of the played media message is removed; Displaying the representation provides feedback to the user that additional media messages are available for playback without disrupting the user interface. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device, reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態では、メディアユーザインタフェースが最初に表示されるとき(例えば、表示された通知の選択に応答して)、メディアユーザインタフェースは、第4の表現を含むことなく、第1の表現、第2の表現、及び第3の表現を含む。 In some embodiments, when the media user interface is first displayed (e.g., in response to selecting a displayed notification), the media user interface displays the first representation without including the fourth representation. , a second representation, and a third representation.

いくつかの実施形態では、第3のメディアメッセージの再生の完了を検出したことに応答して(例えば、第3のメディアメッセージの端部に到達した、第3のメディアメッセージの残りをスキップする)、第1のサイズとは異なる(例えば、より大きい)サイズ及び第1の場所とは異なる場所で、第4のメディアメッセージの第4の表現(例えば、1524d)を表示し、(例えば、図15Eに示すように)ユーザ入力を受信(又は必要と)することなく、第4のメディアメッセージを再生する。 In some embodiments, in response to detecting completion of playback of the third media message (eg, reaching the end of the third media message, skipping the remainder of the third media message). , displaying a fourth representation (eg, 1524d) of the fourth media message (eg, 1524d) at a different (eg, larger) size than the first size and at a different location than the first, and (eg, FIG. 15E ) without receiving (or requiring) user input.

いくつかの実施形態によると、第2のメディアメッセージを再生している間に、コンピュータシステム(例えば、700)は、メディアユーザインタフェース(例えば、1520)に次のメディアユーザインタフェースオブジェクト対象(例えば、1534)を表示し、アクティブ化すると(例えば、タップオンの検出)、第2のメディアメッセージの再生を完了させる(例えば、現在再生しているメディアメッセージの再生を停止する、第2のメディアメッセージの残りの再生を取り止める、第2のメディアメッセージの残りを過ぎてスキップする)(及び任意選択的に、第3のメディアメッセージの再生を開始する)。第2のメディアメッセージを再生している間に、コンピュータシステム(例えば、700)は、1つ以上の入力デバイスを介して、次のメディアユーザインタフェースオブジェクト対象(例えば、1534)のアクティブ化(例えば、タップオン)を受信する。次のメディアユーザインタフェースオブジェクト対象(例えば、1534)のアクティブ化の受信に応答して、コンピュータシステム(例えば、700)は、ディスプレイ生成構成要素を介して、第2のメディアメッセージの第2の表現を表示することなく、第1の場所に(及び任意選択的に、第1のサイズで)第3のメディアメッセージの第3の表現を、ディスプレイ生成構成要素を介して表示する。いくつかの実施形態では、第3のメディアメッセージは、第1のサイズで第1の場所で第3のメディアメッセージの第3の表現を表示することと共に再生される。いくつかの実施形態では、次のメディアユーザインタフェースオブジェクト対象は、アクティブ化されると、現在再生しているメディアメッセージを完了させる。いくつかの実施形態では、現在再生しているメディアメッセージの完了を検出することにより(例えば、現在再生しているメディアメッセージがメディアのグループの最終メディアメッセージである場合を除いて)、技術によって、順序付けられた1組の次のメディアメッセージの再生に進む。いくつかの実施形態では、次のメディアユーザインタフェースオブジェクト対象(例えば、1534)のアクティブ化の受信に応答して、コンピュータシステムは、(例えば、第2のメディアメッセージの端部まで再生することなく)第2のメディアメッセージの再生を中止し、第3のメディアメッセージを再生する。 According to some embodiments, while playing the second media message, the computer system (eg, 700) prompts the media user interface (eg, 1520) for the next media user interface object target (eg, 1534). ) and, when activated (e.g., detecting a tap-on), causes playback of the second media message to complete (e.g., stops playing the currently playing media message, remaining of the second media message). Stop playing, skip past the rest of the second media message) (and optionally start playing a third media message). While playing the second media message, the computer system (eg, 700) activates (eg, tap on). In response to receiving activation of the next media user interface object target (eg, 1534), the computer system (eg, 700) renders a second representation of the second media message via the display generation component. Without displaying, a third representation of the third media message is displayed at the first location (and optionally at the first size) via the display generating component. In some embodiments, the third media message is played with displaying a third representation of the third media message at the first location at the first size. In some embodiments, the next media user interface object target completes the currently playing media message when activated. In some embodiments, by detecting the completion of the currently playing media message (e.g., unless the currently playing media message is the last media message of a group of media), the technology: Proceed to play the next media message in the ordered set. In some embodiments, in response to receiving activation of the next media user interface object object (eg, 1534), the computer system (eg, without playing to the end of the second media message) Stop playing the second media message and play a third media message.

次のメディアユーザインタフェースオブジェクト対象を表示することにより、コンピュータシステムは、現在再生しているメディアメッセージの残りを再生する追加時間を費やすことなく、スキップして次のメディアメッセージを再生するためのユーザ入力の受信を可能にする。この追加の制御をユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより素早くかつ効率的に使用することを有効化することによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 By displaying the next media user interface object target, the computer system receives user input to skip and play the next media message without spending additional time playing the remainder of the currently playing media message. enable the reception of Providing the user with this additional control improves the usability of the device (e.g., assists the user in providing appropriate input when operating/interacting with the device, and reduces the risk of user error). reduce power usage and device battery life by making the user-device interface more efficient by reducing improve.

いくつかの実施形態では、コンピュータシステムは、(例えば、第2のメディアを再生すると同時に)以前のメディアユーザインタフェースオブジェクト対象を(例えば、メディアユーザインタフェースで)表示せず、アクティブ化すると(例えば、タップオンの検出)、(例えば、第2の)メディアメッセージの再生を完了させ、以前の(例えば、第1の)メディアメッセージの再生を開始する。いくつかの実施形態では、コンピュータシステムは、(例えば、図15Eのように)(例えば、メディアのグループの)最後(例えば、第4)のメディアメッセージが再生している時に、次のメディアユーザインタフェースオブジェクト対象を表示することを取り止める。 In some embodiments, the computer system does not display (e.g., in the media user interface) previous media user interface object targets (e.g., while playing the second media) and upon activation (e.g., tapping on detection), complete playback of the (eg, second) media message and begin playback of the previous (eg, first) media message. In some embodiments, the computer system prompts the next media user interface when the last (eg, fourth) media message (eg, of a group of media) is playing (eg, as in FIG. 15E). Stop displaying the object target.

いくつかの実施形態では、第1のメディアメッセージ、第2のメディアメッセージ、及び第3のメディアメッセージは、メディアのグループの一部である。いくつかの実施形態によれば、最終メディアメッセージを再生した後(例えば、完了の検出に応答して)(例えば、メディアのグループの全てのメディアメッセージを再生又はスキップした後)、コンピュータシステム(例えば、700)は、ディスプレイ生成構成要素を介して、メディアユーザインタフェースの再生ユーザインタフェースオブジェクト対象を(例えば、926、第1の場所で、第4のメディアメッセージの第4の表現が表示された場所で)表示し、アクティブ化されると(例えば、1550f1、タップオンの検出)、後続のメディアメッセージ(例えば、第2、第3、及び第4のメディアメッセージ)の再生に進む前に、第1のメディアメッセージを再生する(例えば、第1のメディアメッセージの音声及び/又はビデオを出力する)。いくつかの実施形態では、再生ユーザインタフェースオブジェクト対象のアクティブ化によって、メディアのグループのメディアメッセージを再生するために再びプロセスが再開される。いくつかの実施形態では、(例えば、メディアのグループの)最終メディアメッセージを再生した後、コンピュータシステムは、コンピュータシステムから第1、第2、及び第3のメディアメッセージ(及び、任意選択的に第4のメディアメッセージ)を(例えば、所定の持続時間が経過した後に)削除する(又はそうでなければ、メディアメッセージをユーザからアクセス不能にする)。 In some embodiments, the first media message, the second media message and the third media message are part of a group of media. According to some embodiments, after playing the final media message (e.g., in response to detecting completion) (e.g., after playing or skipping all media messages of a group of media), the computer system (e.g., , 700), via the display generation component, renders the playback user interface object object of the media user interface (e.g., 926, at the first location, at the location where the fourth representation of the fourth media message was displayed). ) and, when activated (e.g., 1550f1, tap-on detection), before proceeding to playback of subsequent media messages (e.g., second, third, and fourth media messages). Play the message (eg, output audio and/or video of the first media message). In some embodiments, activation of the play user interface object target restarts the process again to play the media message of the group of media. In some embodiments, after playing a final media message (eg, of a group of media), the computer system retrieves first, second, and third media messages (and optionally a third media message) from the computer system. 4 media message) (eg, after a predetermined duration) (or otherwise render the media message inaccessible to the user).

ユーザインタフェースオブジェクト対象(例えば、再生ボタン)を表示して、メディアメッセージのグループのメディアメッセージを再生することにより、再生のために各メディアメッセージを個別に選択する必要なく、メディアメッセージを再生する(及び再リッスンする、再視聴する)ことが可能になる。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザを適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Play media messages (and re-listen, re-view) becomes possible. By providing additional control options without cluttering the UI with additional controllers being displayed, the usability of the device is enhanced and the user-device interface (e.g., when operating/interacting with the device making the device more efficient (by helping the user to give the correct input and reducing user error), as well as by enabling the user to use the device more quickly and efficiently Reduced usage and improved battery life.

いくつかの実施形態によると、第1のメディアメッセージ、第2のメディアメッセージ、及び第3のメディアメッセージ(及び、任意選択的に、第4のメディアメッセージ)は、コンピュータシステムを含むデバイス(例えば、ホームの複数のデバイス(例えば、ホーム自動化システム))の目標グループに向けられた。いくつかの実施形態によると、コンピュータシステム(例えば、700)は、ディスプレイ生成構成要素を介して、メディアユーザインタフェースにマルチキャストアフォーダンス(例えば、736)を表示し、アクティブ化されたとき(例えば、1550f2、タップオンの検出)、音声マルチキャストメッセージをデバイスの目標グループに送信するプロセスを開始する。いくつかの実施形態では、音声マルチキャストメッセージを送信するプロセスは、図7C1のユーザインタフェースを表示することを含み、図7C1に関して説明される。いくつかの実施形態では、1つ以上のデバイスは、第1、第2、及び第3のメディアメッセージが向けられた電子デバイスのグループの一部である電子デバイスである。 According to some embodiments, the first media message, the second media message, and the third media message (and optionally the fourth media message) are transmitted from a device comprising a computer system (e.g., Aimed at a target group of multiple devices in the home (eg, home automation systems). According to some embodiments, a computer system (eg, 700) displays a multicast affordance (eg, 736) on a media user interface via a display generation component and when activated (eg, 1550f2, tap-on detection), which initiates the process of sending an audio multicast message to a target group of devices. In some embodiments, the process of sending an audio multicast message includes displaying the user interface of FIG. 7C1 and is described with respect to FIG. 7C1. In some embodiments, the one or more devices are electronic devices that are part of a group of electronic devices to which the first, second, and third media messages are directed.

音声マルチキャストメッセージを1つ以上のデバイスに送信するプロセスを開始するマルチキャストアフォーダンスを表示することにより、どのユーザ/デバイスがメッセージを受信するかを個別に選択する必要なく、メッセージを含むメディアメッセージに応答する能力をユーザに提供し、それによって、応答を提供するためにユーザが必要とする入力の数を低減する。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに、適切な入力を提供するようにユーザを支援し、ユーザの誤りを低減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用を低減し、デバイスのバッテリ寿命を改善する。 Respond to media messages containing messages by presenting a multicast affordance that initiates the process of sending an audio multicast message to one or more devices, without having to individually select which users/devices will receive the message It provides the user with capabilities, thereby reducing the number of inputs required by the user to provide a response. Improve device usability by reducing the number of inputs required to perform an action (e.g., prompting the user to provide appropriate input when manipulating/interacting with the device). It reduces power usage by making the user-device interface more efficient (by assisting and reducing user error), as well as enabling users to use the device more quickly and efficiently, thereby reducing power usage and improve battery life.

いくつかの実施形態では、音声マルチキャストメッセージを送信するプロセスは、コンピュータシステムで音声メッセージを記録することを含む。いくつかの実施形態では、音声メッセージは、(例えば、メディアのグループの一部として)コンピュータシステムでの再生のために利用可能にされる。いくつかの実施形態では、コンピュータシステムは、音声マルチキャストメッセージを送信することと共に、コンピュータシステムから第1、第2、及び第3のメディアメッセージ(及び任意選択的に、第4のメディアメッセージ)をコンピュータシステムから削除する(又はそうでなければ、メディアメッセージをユーザからアクセス不能にする)。 In some embodiments, the process of sending the audio multicast message includes recording the audio message with a computer system. In some embodiments, voice messages are made available for playback on a computer system (eg, as part of a group of media). In some embodiments, the computer system transmits the audio multicast message and also sends the first, second, and third media messages (and optionally a fourth media message) from the computer system to the computer. Delete from the system (or otherwise render the media message inaccessible to the user).

いくつかの実施形態によれば、それぞれのメディアメッセージ(例えば、第1のメディアメッセージ、第2のメディアメッセージ)を再生している間に、コンピュータシステム(例えば、700)は、ディスプレイ生成構成要素を介し、メディアユーザインタフェースで、それぞれのメディアメッセージが受信された、それぞれのユーザの名前(例えば、1524a、1524b、1524c、1524d)を表示する。いくつかの実施形態では、再生中のメディアメッセージが変更されると、それぞれのユーザの名前が置き換えられる(例えば、以前の名前、現在の名前、次の名前は同じ場所で表示される)。 According to some embodiments, while playing respective media messages (eg, first media message, second media message), computer system (eg, 700) causes the display generation component to via the media user interface to display the name of each user (eg, 1524a, 1524b, 1524c, 1524d) from whom each media message was received. In some embodiments, each user's name is replaced when the playing media message changes (eg, previous name, current name, next name are displayed in the same place).

現在再生しているメディアが受信されたそれぞれのユーザの名前を表示することにより、コンピュータシステムが現在再生しているメディアメッセージを受信したソースに関するフィードバックがユーザに提供される。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Displaying the name of each user from whom the currently playing media was received provides feedback to the user as to the source from which the computer system received the currently playing media message. Improve the usability of the device by providing improved visual feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device, reduce power usage and device battery life by making the user-device interface more efficient (by reducing errors in the improve.

いくつかの実施形態によると、現在再生しているメディアメッセージ(例えば、図15Bの1524a、図15Cの1524b)の表現は、現在再生していないメディアメッセージのそれぞれの表示描像の背景色(例えば、図15Bの1524b及び1524c、図15Cの1524c及び1524d)の背景色とは異なる第1の背景色(例えば、緑色)で表示される。 According to some embodiments, the representation of the currently playing media message (e.g., 1524a in FIG. 15B, 1524b in FIG. 15C) is the background color (e.g., 1524b and 1524c in FIG. 15B and 1524c and 1524d in FIG. 15C) in a first background color (eg, green) different from the background color.

いくつかの実施形態によると、メディアメッセージは、音声メッセージ(例えば、マルチキャスト音声メッセージ)である。いくつかの実施形態では、音声メッセージ(例えば、第1のメディアメッセージ)は、外部デバイスで(マイクロフォンを使用して)記録され、外部デバイスによってデバイスのグループに送信された音声メッセージ及び/又はコンピュータシステムを含む複数の外部デバイスに向けられた(例えば、送信された)音声メッセージである)。いくつかの実施形態では、第2のメディアメッセージは、第2の複数の外部デバイス(例えば、複数の外部デバイスとは異なる、複数の外部デバイスと同じ)に向けられた(又は送信された)第2の音声メッセージである。 According to some embodiments, the media message is an audio message (eg, a multicast audio message). In some embodiments, a voice message (e.g., the first media message) is recorded (using a microphone) with an external device and sent by the external device to a group of devices and/or a computer system. is a voice message intended (eg, sent) to multiple external devices, including In some embodiments, the second media message is directed to (or sent to) a second plurality of external devices (eg, the same plurality of external devices, different from the plurality of external devices). 2 voice message.

会話の複数の音声メッセージを自動的に(例えば、順序で)再生することにより、ユーザが個別に特定の音声メッセージを選択して再生することを必要とせずに、コンピュータシステムに会話(例えば、複数の参加者間の音声会話)の出力を可能にし、それにより、必要な入力の数を低減する。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに、適切な入力を提供するようにユーザを支援し、ユーザの誤りを低減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用を低減し、デバイスのバッテリ寿命を改善する。 By automatically playing (e.g., in sequence) multiple voice messages of a conversation, a computer system can play a conversation (e.g., multiple voice conversations between participants), thereby reducing the number of inputs required. Improve device usability by reducing the number of inputs required to perform an action (e.g., prompt the user to provide appropriate input when manipulating/interacting with the device). It reduces power usage by making the user-device interface more efficient (by assisting and reducing user error), as well as enabling users to use the device more quickly and efficiently, thereby reducing power usage and improve battery life.

いくつかの実施形態では、メディアのグループのメディアメッセージの合計カウント(例えば、図15Bの930の「4の1」の「4」)が表示される。いくつかの実施形態では、現在再生しているメディアの数が(例えば、合計カウントと共に)(例えば、図15Bの930の「4の1」内の「1」、メディアのグループの順序付けられた1組で)表示される(例えば、図15Dのような「4の3」)。 In some embodiments, the total count of media messages for the group of media (eg, "4" in "1 of 4" at 930 in FIG. 15B) is displayed. In some embodiments, the number of media currently playing (e.g., along with the total count) (e.g., "1" in "1 of 4" at 930 in FIG. 15B, the ordered 1 of the group of media) in pairs) (eg, “3 of 4” as in FIG. 15D).

いくつかの実施形態では、メディアメッセージ(例えば、第1のメディアメッセージ)は、マルチユーザデバイス(例えば、複数のユーザ用に構成されたデバイス、特定のユーザ用には構成されていないデバイス)に対応する。いくつかの実施形態では、メディアメッセージ(例えば、第2のメディアメッセージ)は、単一ユーザデバイス(例えば、単一のユーザ用に構成されたデバイス)に対応する。いくつかの実施形態では、メディアメッセージの対応するユーザの視覚指示子(例えば、1522a、1524a、1522c、1524c)は、ユーザに対応するメディアメッセージを再生すると同時に表示される。いくつかの実施形態では、マルチユーザデバイスに対応するメディアメッセージを再生している間に、マルチユーザデバイスを示す視覚指示子(例えば、1522b、1524b)が表示される。 In some embodiments, the media message (eg, the first media message) corresponds to a multi-user device (eg, a device configured for multiple users, a device not configured for a particular user). do. In some embodiments, the media message (eg, the second media message) corresponds to a single user device (eg, a device configured for a single user). In some embodiments, the corresponding user visual indicators (eg, 1522a, 1524a, 1522c, 1524c) of the media message are displayed to the user concurrently with playing the corresponding media message. In some embodiments, visual indicators (eg, 1522b, 1524b) are displayed to indicate the multi-user devices while playing media messages corresponding to the multi-user devices.

方法1600に関して上述したプロセス(例えば、図16)の詳細はまた、上述した方法にも類似の方式で適用可能であることに留意されたい。例えば、方法1600は、任意選択的に、方法800、1000及び1400に関して前述した様々な方法の特性のうちの任意の1つ以上を含む。別の例では、方法800の音声メッセージは、方法1600で送信される音声メッセージと同じであり得る。別の例では、方法800に関して記載の表示された通知は、方法1600で表示された同じ通知であり得る。別の例では、方法1200に関して1つ以上のデバイスに送信される音声入力は、方法1600のコンピュータシステムで受信及び再生される同じ音声メッセージであり得る。簡潔性のために、これらの詳細は、ここでは繰り返さない。 Note that the details of the processes described above with respect to method 1600 (eg, FIG. 16) are also applicable in an analogous manner to the methods described above. For example, method 1600 optionally includes any one or more of the various method features described above with respect to methods 800 , 1000 and 1400 . In another example, the voice message of method 800 can be the same as the voice message sent in method 1600 . In another example, the displayed notification described with respect to method 800 may be the same notification displayed in method 1600 . In another example, the audio input sent to one or more devices for method 1200 can be the same audio message received and played by the computer system of method 1600 . For the sake of brevity, these details are not repeated here.

上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。これらの実施形態は、本技術の原理、及びその実際の適用を最もよく説明するために、選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。 The foregoing, for purposes of explanation, has been described with reference to specific embodiments. However, the illustrative discussion above is not intended to be exhaustive or to limit the invention to the precise forms disclosed. Many modifications and variations are possible in light of the above teaching. These embodiments were chosen and described in order to best explain the principles of the technology and its practical application. This enables others skilled in the art to best utilize the technology and various embodiments, with various modifications as appropriate for the particular application intended.

添付図面を参照して、本開示及び例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。 Having fully described the present disclosure and examples with reference to the accompanying drawings, it should be noted that various changes and modifications will become apparent to those skilled in the art. Such changes and modifications are intended to be included within the scope of this disclosure and examples as defined by the claims.

上述のように、本技術の一態様は、様々なソースから入手可能なデータを収集及び使用して、ユーザへのビジュアルコンテンツ(例えば、視覚的な指示)又は音声入力が1つ以上のデバイスに音声メッセージとして送信されるかどうかに関する情報をユーザに提供する任意の他のコンテンツの伝送を改善することである。本開示は、いくつかの例において、この収集されたデータは、特定の人を一意に特定する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを想到している。 As noted above, one aspect of the present technology is the ability to collect and use data available from various sources to provide visual content (e.g., visual instructions) or voice input to users on one or more devices. To improve the transmission of any other content that provides the user with information as to whether it will be sent as a voice message. This disclosure indicates that, in some instances, this collected data includes personal information data that uniquely identifies a particular person or that can be used to contact or locate a particular person. I am thinking of getting.

本開示は、本技術における個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。例えば、個人情報データは、それぞれのユーザが音声メッセージとして音声入力が送信されるかどうかを判定することができるように、示唆のディスプレイを改善するために使用することができる。したがって、そのような個人情報データの使用は、ユーザによる音声メッセージの送信についての計算された制御を可能にする。更には、ユーザに利益をもたらす、個人情報データに関する他の使用もまた、本開示によって想到される。 This disclosure recognizes that the use of personal information data in the technology may be a use to the benefit of the user. For example, personal information data can be used to improve the display of suggestions so that each user can determine whether voice input is sent as a voice message. The use of such personal information data thus allows calculated control over the transmission of voice messages by the user. Furthermore, other uses for personal information data that benefit users are also contemplated by the present disclosure.

本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はアクセスは、医療保険の相互運用性と説明責任に関する法律(Health Insurance Portability and Accountability Act、HIPAA)などの、連邦法及び/又は州法によって管理することができ、その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国の異なる個人データのタイプに関して、異なるプライバシー慣行が保たれるべきである。 The present disclosure contemplates that entities involved in the collection, analysis, disclosure, transmission, storage, or other use of such personal information data will adhere to robust privacy policies and/or practices. Specifically, such entities implement privacy policies and practices that are generally recognized as meeting or exceeding industry or governmental requirements to keep personal data confidential and strictly maintained. and should be used consistently. Such policies should be readily accessible by users and should be updated as data collection and/or use changes. Personal information from users should be collected for the entity's lawful and legitimate use and should not be shared or sold except for those lawful uses. Moreover, such collection/sharing should be done after informing and obtaining consent from the user. In addition, such entities protect and secure access to such Personal Data and ensure that others who have access to that Personal Data comply with their privacy policies and procedures. should consider taking all necessary steps to Further, such entities may themselves be evaluated by third parties to certify their adherence to widely accepted privacy policies and practices. In addition, policies and practices should be adapted to the specific types of personal information data collected and/or accessed and comply with applicable laws and standards, including jurisdiction-specific considerations. should be adapted. For example, in the United States, collection or access to certain health data may be governed by federal and/or state laws, such as the Health Insurance Portability and Accountability Act (HIPAA). However, health data in other countries may be subject to other regulations and policies and should be dealt with accordingly. Different privacy practices should therefore be maintained for different types of personal data in each country.

前述のことがらにも関わらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するように、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、ユーザから音声入力を受信する場合、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成され得る。別の例では、ユーザは、表示されている示唆に基づいて音声メッセージとして送信される音声入力を提供しないことを選択することができる。更に別の例では、ユーザは、表示されている示唆に基づいて、音声入力に対応する音声メッセージのコンテンツを制限するように選択することができる。「オプトイン」及び「オプトアウト」の選択肢を提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを想到する。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。 Notwithstanding the foregoing, the present disclosure also contemplates embodiments in which a user selectively prevents use of or access to personal information data. That is, the present disclosure contemplates that hardware and/or software elements may be provided to prevent or block access to such personal information data. For example, when receiving voice input from a user, the technology is configured to allow the user to choose to "opt-in" or "opt-out" of participation in the collection of personal information data during registration for the service or at any time thereafter. can be In another example, the user may choose not to provide voice input that is sent as a voice message based on the displayed suggestions. In yet another example, the user may choose to limit the content of the voice message corresponding to the voice input based on the displayed suggestions. In addition to providing "opt-in" and "opt-out" options, this disclosure contemplates providing notice regarding access or use of personal information. For example, the user may be notified upon download of an app that will access the user's personal data, and then reminded again just before the personal data is accessed by the app.

更には、本開示の意図は、個人情報データを、非意図的若しくは無許可アクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなった時点で削除することによって、危険性を最小限に抑えることができる。更には、適用可能な場合、特定の健康関連アプリケーションにおいて、ユーザのプライバシーを保護するために、データの非特定化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって情報集約すること)及び/又は他の方法によって、容易にすることができる。 Furthermore, it is the intent of this disclosure that personal information data should be managed and processed in a manner that minimizes the risk of unintentional or unauthorized access or use. Risks can be minimized by limiting data collection and deleting data when it is no longer needed. Additionally, where applicable, data de-identification can be used to protect user privacy in certain health-related applications. De-identification may include, where appropriate, removing certain identifiers (e.g. date of birth, etc.), controlling the amount or specificity of data stored (e.g. location data rather than address level). city level), controlling how data is stored (eg, aggregating data across users), and/or in other ways.

それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものではあるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することもまた可能であることを想到している。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部分が欠如することにより、実施不可能となるものではない。例えば、視覚的な指示は、ユーザに関連付けられたデバイスによりリクエストされたコンテンツ、音声メッセージ送信サービスで使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいて、ユーザに表示することができる。 Thus, while this disclosure broadly covers the use of personal information data to implement one or more of the various disclosed embodiments, this disclosure also covers the use of such personal information data. It is contemplated that it is also possible to implement the various embodiments without requiring access to the . That is, various embodiments of the present technology are not rendered inoperable by the lack of all or part of such personal information data. For example, visual instructions may be non-personal data or information, such as content requested by a device associated with a user, other non-personal information available for voice messaging services, or publicly available information. Only a minimal amount of personal information can be displayed to the user.

Claims (18)

方法であって、
ディスプレイ生成構成要素と通信するコンピュータシステムにおいて、
前記ディスプレイ生成構成要素を介して、
第1の選択可能なユーザインタフェースオブジェクト対象であって、前記第1の選択可能なユーザインタフェースオブジェクト対象の選択が、1組の外部デバイスによって出力されるべき第1の音声メッセージを記録し、送信するためのプロセスを開始するものであって、前記1組の外部デバイスは、1つ以上の外部デバイスの第1の1組及び1つ以上の外部デバイスの第2の1組を含む、第1の選択可能なユーザインタフェースオブジェクト対象と、
第1の外部アクセサリデバイスに対応する第1のアクセサリ制御ユーザインタフェースオブジェクト対象であって、前記第1のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、前記第1の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始する、第1のアクセサリ制御ユーザインタフェースオブジェクト対象とを含む、第1のユーザインタフェースを表示することと、
前記第1のユーザインタフェースを表示している間に、第2のユーザインタフェースを表示する要求に対応する入力を受信することと、
前記第2のユーザインタフェースを表示する前記要求を受信することに応答して、前記第2のユーザインタフェースを表示することであって、前記第2のユーザインタフェースが、
第2の選択可能なユーザインタフェースオブジェクト対象であって、前記第2の選択可能なユーザインタフェースオブジェクト対象の選択が、1つ以上の外部デバイスの前記第1の1組によって出力されるべき第2の音声メッセージを送信することなく、1つ以上の外部デバイスの前記第2の1組によって出力されるべき前記第2の音声メッセージを記録し、送信するためのプロセスを開始する、第2の選択可能なユーザインタフェースオブジェクト対象と、
第2の外部アクセサリデバイスに対応する第2のアクセサリ制御ユーザインタフェースオブジェクト対象であって、前記第2のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、前記第2の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始する、第2のアクセサリ制御ユーザインタフェースオブジェクト対象とを含む、第2のユーザインタフェースを表示することと、
を含む、方法。
a method,
In a computer system in communication with a display generation component,
Via said display generation component,
A first selectable user interface object object, wherein selection of said first selectable user interface object object records and transmits a first audio message to be output by a set of external devices. wherein the set of external devices includes a first set of one or more external devices and a second set of one or more external devices a selectable user interface object target;
A first accessory control user interface object target corresponding to a first external accessory device, wherein selection of said first accessory control user interface object target causes instructions to change the state of said first external accessory device. displaying a first user interface including a first accessory control user interface object object that initiates the sending process;
receiving input corresponding to a request to display a second user interface while displaying the first user interface;
displaying the second user interface in response to receiving the request to display the second user interface, the second user interface comprising:
a second selectable user interface object target, wherein a selection of said second selectable user interface object target is to be output by said first set of one or more external devices; a second selectable to initiate a process for recording and transmitting said second voice message to be output by said second set of one or more external devices without transmitting a voice message; user interface object targets, and
a second accessory control user interface object target corresponding to a second external accessory device, wherein selection of said second accessory control user interface object target causes instructions to change the state of said second external accessory device; displaying a second user interface including a second accessory control user interface object object that initiates the sending process;
A method, including
前記第1の外部アクセサリデバイスが前記第2の外部アクセサリデバイスと異なる、請求項1に記載の方法。 2. The method of claim 1, wherein the first external accessory device is different than the second external accessory device. 前記第1の選択可能なユーザインタフェースオブジェクト対象が、前記ディスプレイ生成構成要素を介して、第1の場所に表示され、前記第2の選択可能なユーザインタフェースオブジェクト対象が、前記ディスプレイ生成構成要素を介して、前記第1の場所に表示される、請求項1から2のいずれか一項に記載の方法。 The first selectable user interface object target is displayed at a first location via the display generation component, and the second selectable user interface object target is displayed via the display generation component. 3. A method according to any one of claims 1 to 2, wherein a message is displayed at the first location. 前記第1の外部アクセサリデバイスが、前記1組の外部デバイスに含まれ、
前記第1のユーザインタフェースは、第3の外部アクセサリデバイスに対応する第3のアクセサリ制御ユーザインタフェースオブジェクト対象を含むものであって、前記第3のアクセサリ制御ユーザインタフェースオブジェクト対象の選択が、前記第3の外部アクセサリデバイスの状態を変更する命令を送信するプロセスを開始させ、
前記第3の外部アクセサリデバイスは、前記1組の外部デバイスに含まれず、前記第1の選択可能なユーザインタフェースオブジェクト対象の選択は、前記第3の外部アクセサリデバイスによって出力されるべき前記第1の音声メッセージを送信するプロセスを開始しない、
請求項1から3のいずれか一項に記載の方法。
said first external accessory device being included in said set of external devices;
The first user interface includes a third accessory control user interface object target corresponding to a third external accessory device, wherein selection of the third accessory control user interface object target corresponds to the third start a process that sends commands to change the state of external accessory devices in
The third external accessory device is not included in the set of external devices, and the selection of the first selectable user interface object target is the first external accessory device to be output by the third external accessory device. do not start the process of sending voice messages,
4. A method according to any one of claims 1-3.
前記第1のユーザインタフェースは、トップレベルの場所に対応し、前記第2のユーザインタフェースは、第1のタイプの第1のサブ場所に対応するものであって、1つ以上の外部デバイスの前記第2の1組は、前記第1のサブ場所に対応し、1つ以上の外部デバイスの前記第2の1組は、前記第1のサブ場所に対応する1つ以上の外部デバイスの前記第2の1組に基づいて、前記第1のタイプの第2のサブ場所に対応するように作成することができない、請求項1から4のいずれか一項に記載の方法。 The first user interface corresponds to a top-level place, the second user interface corresponds to a first sub-place of a first type, and the one or more external devices. A second set of one or more external devices corresponds to the first sub-location, and the second set of one or more external devices corresponds to the first sub-location. 5. A method according to any one of claims 1 to 4, wherein it cannot be created to correspond to the second sub-location of said first type based on a set of two. 前記第1のユーザインタフェースは、トップレベルの場所に対応し、前記第2のユーザインタフェースは、第1のタイプの複数のサブ場所に対応する第2のタイプの第3のサブ場所に対応するものであって1つ以上の外部デバイスの前記第2の1組は、前記第1のタイプの前記複数のサブ場所に含まれている1つ以上の外部デバイスの前記第2の1組に基づいて、前記第3のサブ場所に対応する、請求項1から5のいずれか一項に記載の方法。 The first user interface corresponds to a top-level location and the second user interface corresponds to a third sub-location of a second type corresponding to multiple sub-locations of a first type. and the second set of one or more external devices is based on the second set of one or more external devices included in the plurality of sub-locations of the first type , corresponding to the third sub-location. 前記第2の外部アクセサリデバイスが、前記第2のタイプの前記第3のサブ場所に関連付けられたものであって、前記第2の外部アクセサリデバイスは、前記第3のサブ場所とは異なる前記第2のタイプの第4のサブ場所にも関連付けられた、請求項6に記載の方法。 The second external accessory device is associated with the third sub-location of the second type, wherein the second external accessory device is different from the third sub-location. 7. The method of claim 6, also associated with a fourth sub-location of type 2. 1つ以上の外部デバイスの前記第2の1組が、第1の場所に関連付けられたものであって、1つ以上の外部デバイスの前記第1の1組によって出力されるべき前記第2の音声メッセージを送信することなく、1つ以上の外部デバイスの前記第2の1組によって出力されるべき前記第2の音声メッセージを記録し、送信するための前記プロセスが、前記第1の場所の示唆を表示することを含む、請求項1から7のいずれか一項に記載の方法。 The second set of one or more external devices is associated with a first location, and the second set of one or more external devices is to be output by the first set of one or more external devices. said process for recording and transmitting said second voice message to be output by said second set of one or more external devices without transmitting a voice message at said first location; 8. The method of any one of claims 1-7, comprising displaying a suggestion. 前記1組の外部デバイスが、パーソナルモバイル電子装置を含む、請求項1から8のいずれか一項に記載の方法。 9. The method of any one of claims 1-8, wherein the set of external devices comprises a personal mobile electronic device. 1つ以上の外部デバイスの前記第2の1組が、パーソナルモバイル電子装置を含まない、請求項1から9のいずれか一項に記載の方法。 10. The method of any one of claims 1-9, wherein the second set of one or more external devices does not include a personal mobile electronic device. 前記第2のユーザインタフェースを表示した後に、1つ以上の外部デバイスの前記第2の1組によって出力されるべき音声メッセージを送信することを無効にする入力を受信することと、
1つ以上の外部デバイスの前記第2の1組によって出力されるべき音声メッセージを送信することを無効にする前記入力を受信することに応答して、前記第1の選択可能なユーザインタフェースオブジェクト対象の選択を介して、及び前記第2の選択可能なユーザインタフェースオブジェクト対象の選択を介して、1つ以上の外部デバイスの前記第2の1組によって出力されるべき音声メッセージを送信することを無効にすることと、
を更に含む、請求項1から10のいずれか一項に記載の方法。
receiving input to disable sending voice messages to be output by the second set of one or more external devices after displaying the second user interface;
said first selectable user interface object target in response to receiving said input to disable sending voice messages to be output by said second set of one or more external devices. and via selection of said second selectable user interface object subject to disabling transmission of voice messages to be output by said second set of one or more external devices. and
11. The method of any one of claims 1-10, further comprising:
前記第1のユーザインタフェースが、トップレベルの場所に対応し、前記第2のユーザインタフェースが、前記トップレベルの場所のサブ場所に対応し、
前記コンピュータシステムと通信するマイクロフォンにおいて、デジタルアシスタントの自然言語要求を含むオーディオ入力を受信することであって、前記オーディオ入力が、
音声メッセージを送信するプロセスを開始する命令と、
場所識別子と、
音声メッセージとを含む、受信することと、
前記場所識別子が前記トップレベルの場所に対応するとの判定に従って、
1つ以上の外部デバイスの前記第1の1組及び1つ以上の外部デバイスの前記第2の1組を含む、1つ以上の外部デバイスの前記1組での再生のために、外部デバイスの前記1組の任意のデバイスとの全二重音声通信チャネルを確立することなく、前記音声メッセージを送信することと、
前記場所識別子が前記サブ場所に対応するとの判定に従って、
1つ以上の外部デバイスの前記第2の1組で再生し、1つ以上の外部デバイスの前記第1の1組で再生しないために、外部デバイスの前記1組の任意のデバイスとの全二重音声通信チャネルを確立することなく、前記音声メッセージを送信することと、
を更に含む、請求項1から11のいずれか一項に記載の方法。
the first user interface corresponds to a top-level location, the second user interface corresponds to a sub-location of the top-level location;
receiving, at a microphone in communication with the computer system, audio input comprising natural language requests of a digital assistant, the audio input comprising:
instructions for initiating a process of sending a voice message;
a location identifier;
receiving, including voice messages;
According to determining that the location identifier corresponds to the top-level location,
for playback on said set of one or more external devices, including said first set of one or more external devices and said second set of one or more external devices; sending the voice message without establishing a full-duplex voice communication channel with any device of the set;
According to determining that the location identifier corresponds to the sub-location,
to play on said second set of one or more external devices and not play on said first set of one or more external devices; transmitting the voice message without establishing a voice communication channel;
12. The method of any one of claims 1-11, further comprising:
前記1組の外部デバイスによって出力されるべきそれぞれの音声メッセージを記録し、送信するためのそれぞれのプロセスを開始することが、
更なるユーザ入力なしで、新しい音声メッセージの前記記録を開始することと、
記録されている音声の1つ以上の動的示唆を含む記録ユーザインタフェースを表示することと、
を含む、請求項1から12のいずれか一項に記載の方法。
initiating respective processes for recording and transmitting respective voice messages to be output by the set of external devices;
starting said recording of a new voice message without further user input;
displaying a recording user interface including one or more dynamic suggestions of recorded speech;
13. A method according to any one of claims 1 to 12, comprising
前記コンピュータシステムが、マイクロフォンを含む1つ以上の入力デバイスと通信するものであって、前記1組の外部デバイスによって出力されるべき前記第1の音声メッセージを記録し、送信するための前記プロセスが、
前記マイクロフォンを介して、第2のオーディオ入力を受信することと、
前記第1の音声メッセージを前記1組の外部デバイスに送信することであって、前記第1の音声メッセージは前記第2のオーディオ入力に基づく、送信することと、
を含む、請求項1から13のいずれか一項に記載の方法。
said computer system communicating with one or more input devices including a microphone, said process for recording and transmitting said first voice message to be output by said set of external devices; ,
receiving a second audio input via the microphone;
sending said first voice message to said set of external devices, said first voice message being based on said second audio input;
14. A method according to any one of claims 1 to 13, comprising
1つ以上の外部デバイスの前記第1の1組は、前記第1の音声メッセージ及び前記第2の音声メッセージを再生することが可能な第1のスピーカを含み、1つ以上の外部デバイスの前記第2の1組は、前記第1の音声メッセージ及び前記第2の音声メッセージを再生することが可能な第2のスピーカを含む、請求項1から14のいずれか一項に記載の方法。 The first set of one or more external devices includes a first speaker capable of playing the first voice message and the second voice message; 15. A method according to any preceding claim, wherein a second set comprises a second speaker capable of reproducing said first voice message and said second voice message. 請求項1から15のいずれか一項に記載の方法をコンピュータに実行させるためのコンピュータプログラム。 A computer program for causing a computer to perform the method according to any one of claims 1 to 15. 請求項16に記載の前記コンピュータプログラムを格納するメモリと、
前記メモリに格納された前記コンピュータプログラムを実行可能な1つ以上のプロセッサとを備えるコンピュータシステム。
a memory storing the computer program according to claim 16 ;
and one or more processors capable of executing said computer programs stored in said memory.
請求項1から15のいずれか一項に記載の方法を実行する手段を備える、コンピュータシステム。 A computer system comprising means for performing the method according to any one of claims 1 to 15.
JP2022125792A 2020-05-11 2022-08-05 User interface for voice messages Active JP7236585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023028786A JP2023088908A (en) 2020-05-11 2023-02-27 User interface for audio message

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202063023225P 2020-05-11 2020-05-11
US63/023,225 2020-05-11
US202063041979P 2020-06-21 2020-06-21
US63/041,979 2020-06-21
DKPA202070617 2020-09-22
DKPA202070617A DK202070617A1 (en) 2020-05-11 2020-09-22 User interface for audio message
JP2020159840A JP7121780B2 (en) 2020-05-11 2020-09-24 User interface for voice messages

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020159840A Division JP7121780B2 (en) 2020-05-11 2020-09-24 User interface for voice messages

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023028786A Division JP2023088908A (en) 2020-05-11 2023-02-27 User interface for audio message

Publications (2)

Publication Number Publication Date
JP2022180346A JP2022180346A (en) 2022-12-06
JP7236585B2 true JP7236585B2 (en) 2023-03-09

Family

ID=78511629

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020159840A Active JP7121780B2 (en) 2020-05-11 2020-09-24 User interface for voice messages
JP2022125792A Active JP7236585B2 (en) 2020-05-11 2022-08-05 User interface for voice messages
JP2023028786A Pending JP2023088908A (en) 2020-05-11 2023-02-27 User interface for audio message

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020159840A Active JP7121780B2 (en) 2020-05-11 2020-09-24 User interface for voice messages

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023028786A Pending JP2023088908A (en) 2020-05-11 2023-02-27 User interface for audio message

Country Status (3)

Country Link
JP (3) JP7121780B2 (en)
KR (3) KR102426564B1 (en)
AU (3) AU2020239711C1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008099330A (en) 2007-12-18 2008-04-24 Sony Corp Information processor, and portable telephone set
JP2014170982A (en) 2013-03-01 2014-09-18 J-Wave I Inc Message transmission program, message transmission device, and message distribution system
US20170357425A1 (en) 2016-06-12 2017-12-14 Apple Inc. Generating Scenes Based On Accessory State
JP2018007158A (en) 2016-07-06 2018-01-11 パナソニックIpマネジメント株式会社 Display control system, display control method, and display control program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7571014B1 (en) * 2004-04-01 2009-08-04 Sonos, Inc. Method and apparatus for controlling multimedia players in a multi-zone system
JP2014071835A (en) * 2012-10-01 2014-04-21 Fujitsu Ltd Electronic apparatus and processing control method
JP2014087126A (en) * 2012-10-22 2014-05-12 Sharp Corp Power management device, method for controlling power management device, and control program for power management device
DK179494B1 (en) * 2016-06-12 2019-01-11 Apple Inc. User interface for managing controllable external devices
CN109688442B (en) * 2017-05-16 2021-06-04 苹果公司 Method and interface for home media control
DK179549B1 (en) * 2017-05-16 2019-02-12 Apple Inc. Far-field extension for digital assistant services
MX2019015201A (en) * 2017-06-15 2020-08-13 Lutron Tech Co Llc Communicating with and controlling load control systems.
JP7346455B2 (en) * 2018-05-07 2023-09-19 グーグル エルエルシー Providing a composite graphical assistant interface to control various connected devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008099330A (en) 2007-12-18 2008-04-24 Sony Corp Information processor, and portable telephone set
JP2014170982A (en) 2013-03-01 2014-09-18 J-Wave I Inc Message transmission program, message transmission device, and message distribution system
US20170357425A1 (en) 2016-06-12 2017-12-14 Apple Inc. Generating Scenes Based On Accessory State
JP2018007158A (en) 2016-07-06 2018-01-11 パナソニックIpマネジメント株式会社 Display control system, display control method, and display control program

Also Published As

Publication number Publication date
KR20220110459A (en) 2022-08-08
JP2022180346A (en) 2022-12-06
AU2022201532A1 (en) 2022-03-24
KR20230011455A (en) 2023-01-20
JP2021179948A (en) 2021-11-18
AU2020239711A1 (en) 2021-11-25
KR102426564B1 (en) 2022-07-29
JP7121780B2 (en) 2022-08-18
KR102486885B1 (en) 2023-01-11
AU2023204396A1 (en) 2023-08-03
KR20210137873A (en) 2021-11-18
AU2023204396B2 (en) 2024-05-02
AU2022201532B2 (en) 2023-06-01
AU2020239711C1 (en) 2022-03-31
JP2023088908A (en) 2023-06-27
AU2020239711B2 (en) 2022-01-06

Similar Documents

Publication Publication Date Title
US11513667B2 (en) User interface for audio message
US20220004356A1 (en) User interface for audio message
JP7126034B1 (en) User interface for audio media control
JP7231767B2 (en) User interface for managing controllable external devices
EP3959590B1 (en) User interface for accessory control
JP7236585B2 (en) User interface for voice messages
CN117957518A (en) Media control user interface

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221111

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7236585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150