JP7349044B2 - creative camera - Google Patents

creative camera Download PDF

Info

Publication number
JP7349044B2
JP7349044B2 JP2023083816A JP2023083816A JP7349044B2 JP 7349044 B2 JP7349044 B2 JP 7349044B2 JP 2023083816 A JP2023083816 A JP 2023083816A JP 2023083816 A JP2023083816 A JP 2023083816A JP 7349044 B2 JP7349044 B2 JP 7349044B2
Authority
JP
Japan
Prior art keywords
effect
camera
user interface
media item
affordance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023083816A
Other languages
Japanese (ja)
Other versions
JP2023116485A (en
Inventor
オーエス, マルセル ヴァン
ジェシカ アボウカスム,
ディビッド アール. ブラック,
ロバート チン,
グレゴリー エル. デュデイ,
キャサリン ケイ. アーネスト,
グラント ポール,
ジェイソン リックワルド,
ザ サード, ウィリアム エイ. ソレンティノ
ブライアン イー. ウォルシュ,
ジャン-フランソワ エム. アルボウズ,
リー エス. ブロウグトン,
ジャエ ウー チャン,
アラン シー. ダイ,
アーレリオ グズマン,
ニコラス ヴィ. キング,
クリストファー ジェイ. モウリオス,
ジョアンナ エム. ニューマン,
ニコラス ヴィ. スカペル,
ジョセフ-アレキサンダー ピー. ウェイル,
クリストファー アイ. ウィルソン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/110,514 external-priority patent/US10375313B1/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2023116485A publication Critical patent/JP2023116485A/en
Priority to JP2023146062A priority Critical patent/JP7404587B2/en
Application granted granted Critical
Publication of JP7349044B2 publication Critical patent/JP7349044B2/en
Priority to JP2023210355A priority patent/JP2024028968A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00095Systems or arrangements for the transmission of the picture signal
    • H04N1/00103Systems or arrangements for the transmission of the picture signal specially adapted for radio transmission, e.g. via satellites
    • H04N1/00106Systems or arrangements for the transmission of the picture signal specially adapted for radio transmission, e.g. via satellites using land mobile radio networks, e.g. mobile telephone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3261Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal
    • H04N2201/3263Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal of a graphical motif or symbol, e.g. Christmas symbol, logo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3273Display

Description

(関連出願の相互参照)
本出願は、2018年5月7日に出願された「Creative Camera」と題する米国仮特許出願第62/668,227号に関連する。この出願の内容は、参照によりその全体が本明細書に組み込まれる。
(Cross reference to related applications)
This application is related to U.S. Provisional Patent Application No. 62/668,227, filed May 7, 2018, and entitled "Creative Camera." The contents of this application are incorporated herein by reference in their entirety.

本開示は、一般に、コンピュータユーザインタフェースに関し、より具体的には、ビジュアルエフェクトを表示するための技術に関する。 TECHNICAL FIELD This disclosure relates generally to computer user interfaces, and more specifically to techniques for displaying visual effects.

ビジュアルエフェクトを用いて、電子デバイスを使用してメディアをキャプチャ及び視聴する際のユーザエクスペリエンスを向上させる。ビジュアルエフェクトは、画像データの外観を変えることができ、又は画像内にキャプチャされた環境の理想化された、又は完全に架空の表現を表すことができる。 Visual effects are used to enhance the user experience when capturing and viewing media using electronic devices. Visual effects can change the appearance of image data or can represent an idealized or completely fictional representation of the environment captured within the image.

しかしながら、電子デバイスを使用してビジュアルエフェクトを表示するための一部の技術は、一般的に扱いにくく非効率である。例えば、一部の既存の技術では、複数回のキー押下又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術では、必要以上の時間が必要であり、ユーザの時間及びデバイスの電力を浪費する。後者の問題は、バッテリ動作デバイスにおいては特に重大である。 However, some techniques for displaying visual effects using electronic devices are generally cumbersome and inefficient. For example, some existing technologies use complex and time-consuming user interfaces that may include multiple key presses or strokes. Existing techniques require more time than necessary, wasting user time and device power. The latter problem is particularly acute in battery-operated devices.

したがって、本技術は、電子デバイスに、ビジュアルエフェクトを表示するためのより速くより効率的な方法及びインタフェースを提供する。そのような方法及びインタフェースは、ビジュアルエフェクトを表示するための他の方法を、任意選択的に補完又は置換する。そのような方法及びインタフェースは、ユーザの認知負担を軽減し、より効率的なヒューマン-マシンインタフェースを生成する。バッテリ動作コンピューティングデバイスの場合には、そのような方法及びインタフェースにより、電力が節約され、バッテリを充電する間隔が増す。 Thus, the present technology provides electronic devices with faster and more efficient methods and interfaces for displaying visual effects. Such methods and interfaces optionally complement or replace other methods for displaying visual effects. Such methods and interfaces reduce the cognitive burden on users and create more efficient human-machine interfaces. For battery-operated computing devices, such methods and interfaces conserve power and increase the time between battery charging.

方法について説明する。方法は、カメラと、表示装置と、1つ以上の入力デバイスとを有する電子デバイスにおいて実行される。方法は、表示装置を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンスを含むメッセージングユーザインタフェースを表示することと、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力を検出することと、第1の入力を検出したことに応じて、キャプチャアフォーダンスを含むカメラユーザインタフェースを表示することと、1つ以上の入力デバイスを介して、キャプチャアフォーダンスに向けられた第2の入力を検出することと、第2の入力を検出したことに応じて、カメラを使用して画像データをキャプチャすることと、キャプチャアフォーダンスの表示を停止することと、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示することと、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力を検出することと、第3の入力を検出したことに応じて、キャプチャされた画像データを第1の参加者に送信する処理を開始することと、を含む。 Explain the method. The method is performed on an electronic device having a camera, a display, and one or more input devices. The method includes displaying, via a display device, a messaging user interface that includes a camera affordance of a message conversation that includes at least a first participant; and, via one or more input devices, directed to the camera affordance. detecting a first input; displaying a camera user interface including a capture affordance in response to detecting the first input; and directed to the capture affordance via the one or more input devices. detecting a second input that was previously detected by the capture affordance; and in response to detecting the second input, capturing image data using the camera; displaying the transmitting affordance at a location in the camera user interface previously occupied by the transmitting affordance; detecting, via the one or more input devices, a third input directed to the transmitting affordance; and starting a process of transmitting the captured image data to the first participant in response to detecting the first participant.

非一時的コンピュータ可読記憶媒体について説明する。非一時的コンピュータ可読記憶媒体は、カメラと、表示装置と、1つ以上の入力デバイスとを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンスを含むメッセージングユーザインタフェースを表示し、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力を検出し、第1の入力を検出したことに応じて、キャプチャアフォーダンスを含むカメラユーザインタフェースを表示し、1つ以上の入力デバイスを介して、キャプチャアフォーダンスに向けられた第2の入力を検出し、第2の入力を検出したことに応じて、カメラを使用して画像データをキャプチャし、キャプチャアフォーダンスの表示を停止し、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示し、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力を検出し、第3の入力を検出したことに応じて、キャプチャされた画像データを第1の参加者に送信する処理を開始する、命令を含む。 Non-transitory computer-readable storage media are described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device that includes a camera, a display, and one or more input devices. , the one or more programs display a messaging user interface that includes a camera affordance of a message conversation that includes at least a first participant via the display device; detecting a directed first input; and in response to detecting the first input, displaying a camera user interface including a capture affordance; detects a second input, and in response to detecting the second input, uses the camera to capture image data, stops displaying the capture affordance, and the camera user previously occupied by the capture affordance; displaying a transmission affordance at a location within the interface; detecting a third input directed to the transmission affordance via the one or more input devices; and in response to detecting the third input; Instructions are included to initiate a process of transmitting image data to a first participant.

一時的コンピュータ可読記憶媒体について説明する。一時的コンピュータ可読記憶媒体は、カメラと、表示装置と、1つ以上の入力デバイスとを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンスを含むメッセージングユーザインタフェースを表示し、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力を検出し、第1の入力を検出したことに応じて、キャプチャアフォーダンスを含むカメラユーザインタフェースを表示し、1つ以上の入力デバイスを介して、キャプチャアフォーダンスに向けられた第2の入力を検出し、第2の入力を検出したことに応じて、カメラを使用して画像データをキャプチャし、キャプチャアフォーダンスの表示を停止し、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示し、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力を検出し、第3の入力を検出したことに応じて、キャプチャされた画像データを第1の参加者に送信する処理を開始する、命令を含む。 A temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device that includes a camera, a display, and one or more input devices; The one or more programs display, via the display device, a messaging user interface that includes a camera affordance of a message conversation that includes at least a first participant, and that directs the user to the camera affordance via the one or more input devices. detecting a first input directed to the capture affordance, in response to detecting the first input, displaying a camera user interface including a capture affordance; and in response to detecting the second input, use the camera to capture image data, stop displaying the capture affordance, and remove the camera user interface previously occupied by the capture affordance. displaying a transmitting affordance at a location within the transmitting affordance, detecting a third input directed to the transmitting affordance via the one or more input devices, and in response to detecting the third input, the captured image; Includes instructions to initiate a process of transmitting data to a first participant.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、1つ以上の入力デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示装置を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンスを含むメッセージングユーザインタフェースを表示し、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力を検出し、第1の入力を検出したことに応じて、キャプチャアフォーダンスを含むカメラユーザインタフェースを表示し、1つ以上の入力デバイスを介して、キャプチャアフォーダンスに向けられた第2の入力を検出し、第2の入力を検出したことに応じて、カメラを使用して画像データをキャプチャし、キャプチャアフォーダンスの表示を停止し、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示し、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力を検出し、第3の入力を検出したことに応じて、キャプチャされた画像データを第1の参加者に送信する処理を開始する、命令を含む。 Describe electronic devices. The electronic device includes a camera, a display, one or more input devices, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. , the one or more programs displaying a messaging user interface including a camera affordance of a message conversation including at least a first participant via the display device, and via the one or more input devices; detecting a first input directed to the camera affordance, displaying a camera user interface including the capture affordance in response to detecting the first input; detecting the directed second input, and in response to detecting the second input, using the camera to capture image data, stopping displaying the capture affordance, and in response to detecting the second input; displaying a transmitting affordance at a location within the camera user interface, detecting a third input directed to the transmitting affordance via the one or more input devices, and in response to detecting the third input; Instructions are included to initiate a process of transmitting captured image data to a first participant.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、1つ以上の入力デバイスと、表示装置を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンスを含むメッセージングユーザインタフェースを表示する手段と、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力を検出する手段と、第1の入力を検出したことに応じて、キャプチャアフォーダンスを含むカメラユーザインタフェースを表示する手段と、1つ以上の入力デバイスを介して、キャプチャアフォーダンスに向けられた第2の入力を検出する手段と、第2の入力を検出したことに応じて、カメラを使用して画像データをキャプチャし、キャプチャアフォーダンスの表示を停止し、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示する手段と、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力を検出する手段と、第3の入力を検出したことに応じて、キャプチャされた画像データを第1の参加者に送信する処理を開始する手段と、を含む。 Describe electronic devices. The electronic device includes a camera, a display, one or more input devices, and means for displaying, via the display, a messaging user interface that includes a camera affordance of a message conversation that includes at least a first participant; means for detecting a first input directed to the camera affordance via the one or more input devices; and means for displaying a camera user interface including the capture affordance in response to detecting the first input; , means for detecting a second input directed to the capture affordance via the one or more input devices; and in response to detecting the second input, capturing image data using the camera; means for ceasing display of the capture affordance and displaying the transmit affordance at a location in the camera user interface previously occupied by the capture affordance; and means for initiating a process of transmitting the captured image data to the first participant in response to detecting the third input.

方法について説明する。方法は、カメラと表示装置とを有する電子デバイスにおいて実行される。方法は、表示装置を介してカメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、カメラを介してキャプチャされた画像データの表現を含むカメラ表示領域と、第1のカメラ表示モードに関連付けられた第1のアフォーダンスと、を含む、ことと、被写体がカメラの視野内に位置し、かつ、被写体及び背景の表現がカメラ表示領域に表示される間に、第1のアフォーダンスに向けられたジェスチャを検出することと、第1のアフォーダンス向けられたジェスチャを検出したことに応じて、第1のカメラ表示モードをアクティブ化することであって、第1のカメラ表示モードをアクティブ化することは、複数のアバターオプションのうちの選択された1つを含むアバター選択領域を表示することと、選択されたアバターオプションの表現を、カメラ表示領域内の被写体の表現上に表示することと、を含む、ことと、第1のカメラ表示モードがアクティブである間に、被写体の姿勢の変化を検出することと、被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更することと、を含む。 Explain the method. The method is performed on an electronic device having a camera and a display. The method includes displaying a camera user interface via a display device, the camera user interface being associated with a first camera display mode and a camera display area including a representation of image data captured via the camera. and a first affordance oriented toward the first affordance while the subject is located within the field of view of the camera and the representation of the subject and background is displayed in the camera display area. detecting the gesture and, in response to detecting the gesture directed to the first affordance, activating a first camera display mode, the activating the first camera display mode comprising: detecting the gesture; , displaying an avatar selection region including a selected one of the plurality of avatar options, and displaying a representation of the selected avatar option over a representation of the subject within the camera display region. , detecting a change in the pose of the subject while the first camera display mode is active; and, in response to detecting the change in pose of the subject, displaying the subject while maintaining display of the background changing the appearance of the displayed representation of the selected avatar option based on the detected change in pose of the selected avatar option.

非一時的コンピュータ可読記憶媒体について説明する。非一時的コンピュータ読み可読記憶媒体は、カメラと表示装置とを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、カメラを介してキャプチャされた画像データの表現を含むカメラ表示領域と、第1のカメラ表示モードに関連付けられた第1のアフォーダンスと、を含む、カメラユーザインタフェースを表示し、被写体がカメラの視野内に位置し、かつ、被写体及び背景の表現がカメラ表示領域に表示される間に、第1のアフォーダンスに向けられたジェスチャを検出し、第1のアフォーダンス向けられたジェスチャを検出したことに応じて、第1のカメラ表示モードをアクティブ化し、第1のカメラ表示モードをアクティブ化することは、複数のアバターオプションのうちの選択された1つを含むアバター選択領域を表示することと、選択されたアバターオプションの表現を、カメラ表示領域内の被写体の表現上に表示することと、を含み、第1のカメラ表示モードがアクティブである間に、被写体の姿勢の変化を検出し、被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する、命令を含む。 Non-transitory computer-readable storage media are described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device that includes a camera and a display, the one or more programs comprising: displaying, via the display device, a camera user interface including a camera display area including a representation of image data captured via the camera and a first affordance associated with a first camera display mode; detecting a gesture directed to the first affordance while the subject is within the field of view of the camera and a representation of the subject and background are displayed in the camera display area; activating a first camera display mode in response to detecting, activating the first camera display mode displaying an avatar selection area including the selected one of the plurality of avatar options; and displaying a representation of the selected avatar option over the representation of the subject within the camera display area, and detecting a change in the subject's pose while the first camera display mode is active. and, in response to a detected change in the subject's pose, change the appearance of the displayed representation of the selected avatar option based on the detected change in the subject's pose while maintaining the visibility of the background. , including instructions.

一時的コンピュータ可読記憶媒体について説明する。一時的コンピュータ読み可読記憶媒体は、カメラと表示装置とを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、カメラを介してキャプチャされた画像データの表現を含むカメラ表示領域と、第1のカメラ表示モードに関連付けられた第1のアフォーダンスと、を含む、カメラユーザインタフェースを表示し、被写体がカメラの視野内に位置し、かつ、被写体及び背景の表現がカメラ表示領域に表示される間に、第1のアフォーダンスに向けられたジェスチャを検出し、第1のアフォーダンス向けられたジェスチャを検出したことに応じて、第1のカメラ表示モードをアクティブ化し、第1のカメラ表示モードをアクティブ化することは、複数のアバターオプションのうちの選択された1つを含むアバター選択領域を表示することと、選択されたアバターオプションの表現を、カメラ表示領域内の被写体の表現上に表示することと、を含み、第1のカメラ表示モードがアクティブである間に、被写体の姿勢の変化を検出し、被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する、命令を含む。 A temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device that includes a camera and a display device, the one or more programs configured to display displaying a camera user interface through the device, including a camera display area including a representation of image data captured through the camera; and a first affordance associated with a first camera display mode; is located within the field of view of the camera and while the representation of the subject and the background are displayed in the camera display area, detecting a gesture directed to the first affordance; detecting the gesture directed to the first affordance; activating a first camera display mode, wherein activating the first camera display mode displays an avatar selection area including a selected one of the plurality of avatar options; and displaying a representation of the selected avatar option on the representation of the subject within the camera display area, and detecting a change in the subject's pose while the first camera display mode is active. , in response to detecting a change in the subject's pose, altering the appearance of the displayed representation of the selected avatar option based on the detected change in the subject's pose while maintaining the display of the background; Contains instructions.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示装置を介して、カメラを介してキャプチャされた画像データの表現を含むカメラ表示領域と、第1のカメラ表示モードに関連付けられた第1のアフォーダンスと、を含む、カメラユーザインタフェースを表示し、被写体がカメラの視野内に位置し、かつ、被写体及び背景の表現がカメラ表示領域に表示される間に、第1のアフォーダンスに向けられたジェスチャを検出し、第1のアフォーダンス向けられたジェスチャを検出したことに応じて、第1のカメラ表示モードをアクティブ化し、第1のカメラ表示モードをアクティブ化することは、複数のアバターオプションのうちの選択された1つを含むアバター選択領域を表示することと、選択されたアバターオプションの表現を、カメラ表示領域内の被写体の表現上に表示することと、を含み、第1のカメラ表示モードがアクティブである間に、被写体の姿勢の変化を検出し、被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する、命令を含む。 Describe electronic devices. The electronic device includes a camera, a display, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. The program displays a camera user interface including, via the display device, a camera display area including a representation of image data captured via the camera, and a first affordance associated with a first camera display mode. detecting a gesture directed to the first affordance while the subject is within the field of view of the camera and the representation of the subject and the background is displayed in the camera display area; activating a first camera display mode in response to detecting the gesture, wherein activating the first camera display mode includes an avatar selection area that includes a selected one of the plurality of avatar options; and displaying a representation of the selected avatar option over the representation of the subject in the camera display area, the representation of the subject's pose while the first camera display mode is active. Appearance of the displayed representation of the selected avatar option based on the detected change in the subject's pose while maintaining the background display. Contains instructions to modify.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、1つ以上の入力デバイスと、表示装置を介してカメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、カメラを介してキャプチャされた画像データの表現を含むカメラ表示領域と、第1のカメラ表示モードに関連付けられた第1のアフォーダンスと、を含む、手段と、被写体がカメラの視野内に位置し、かつ、被写体及び背景の表現がカメラ表示領域に表示される間に、第1のアフォーダンスに向けられたジェスチャを検出する手段と、第1のアフォーダンス向けられたジェスチャを検出したことに応じて、第1のカメラ表示モードをアクティブ化する手段であって、第1のカメラ表示モードをアクティブ化することは、複数のアバターオプションのうちの選択された1つを含むアバター選択領域を表示することと、選択されたアバターオプションの表現を、カメラ表示領域内の被写体の表現上に表示することと、を含む、手段と、第1のカメラ表示モードがアクティブである間に、被写体の姿勢の変化を検出する手段と、被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する手段と、を含む。 Describe electronic devices. The electronic device includes a camera, a display, one or more input devices, and means for displaying a camera user interface through the display, the camera user interface providing information about image data captured via the camera. a camera display area that includes a representation; and a first affordance associated with a first camera display mode; means for detecting a gesture directed at the first affordance while displayed in the region; and means for activating a first camera display mode in response to detecting the gesture directed at the first affordance. activating the first camera display mode includes displaying an avatar selection area including the selected one of the plurality of avatar options; and means for detecting a change in pose of the subject while the first camera display mode is active; and means for detecting a change in pose of the subject while the first camera display mode is active. and in response to the detection, means for changing the appearance of the displayed representation of the selected avatar option based on the detected change in the subject's pose while maintaining the display of the background.

方法について説明する。方法は、表示装置を有する電子デバイスにおいて実行される。方法は、表示装置を介して、メディアアイテムの表現を含むメディア表示領域と、エフェクトアフォーダンスとを含む、メディアユーザインタフェースを表示することと、エフェクトアフォーダンスに向けられたジェスチャを検出することと、エフェクトアフォーダンス向けられたジェスチャを検出したことに応じて、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示することと、を、を含み、メディアアイテムが対応する深度データに関連付けられているとの判定に従って、複数のエフェクトオプションが、深度データに基づいてエフェクトを適用するためのそれぞれのエフェクトオプションを含み、画像データが深度データを含まないとの判定に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない、ことを含む。 Explain the method. The method is performed on an electronic device having a display. The method includes displaying, via a display device, a media user interface that includes a media display area that includes a representation of a media item and an effect affordance; detecting a gesture directed to the effect affordance; and detecting a gesture directed to the effect affordance. displaying multiple effect options for applying effects to the media item simultaneously with the representation of the media item in response to detecting a directed gesture, the depth data to which the media item corresponds; The plurality of effect options includes respective effect options for applying an effect based on depth data according to the determination that the image data does not include depth data, and the plurality of effect options include respective effect options for applying an effect based on the depth data, Options include being unavailable for activation in multiple effect options.

非一時的コンピュータ可読記憶媒体について説明する。非一時的コンピュータ読み可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、メディアアイテムの表現を含むメディア表示領域と、エフェクトアフォーダンスとを含む、メディアユーザインタフェースを表示し、エフェクトアフォーダンスに向けられたジェスチャを検出し、エフェクトアフォーダンス向けられたジェスチャを検出したことに応じて、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示する命令を含み、メディアアイテムが対応する深度データに関連付けられているとの判定に従って、複数のエフェクトオプションが、深度データに基づいてエフェクトを適用するためのそれぞれのエフェクトオプションを含み、画像データが深度データを含まないとの判定に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない、ことを含む。 Non-transitory computer-readable storage media are described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device that includes a display device, the one or more programs displaying a media user interface including a media display area including a representation of the media item and an effect affordance; detecting a gesture directed to the effect affordance; and responsive to detecting the gesture directed to the effect affordance; and displaying a plurality of effect options for applying an effect to the media item simultaneously with the representation of the media item, the plurality of effect options according to a determination that the media item is associated with corresponding depth data. includes a respective effect option for applying an effect based on depth data, each effect option being unavailable for activation in the plurality of effect options pursuant to a determination that the image data does not include depth data; Including.

一時的コンピュータ可読記憶媒体について説明する。一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、メディアアイテムの表現を含むメディア表示領域と、エフェクトアフォーダンスとを含む、メディアユーザインタフェースを表示し、エフェクトアフォーダンスに向けられたジェスチャを検出し、エフェクトアフォーダンス向けられたジェスチャを検出したことに応じて、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示する命令を含み、メディアアイテムが対応する深度データに関連付けられているとの判定に従って、複数のエフェクトオプションが、深度データに基づいてエフェクトを適用するためのそれぞれのエフェクトオプションを含み、画像データが深度データを含まないとの判定に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない、ことを含む。 A temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device that includes a display, and the one or more programs are configured to be executed by one or more processors of an electronic device that includes a display. , displaying a media user interface including a media display area including a representation of the media item and an effect affordance, detecting a gesture directed to the effect affordance, and responsive to detecting the gesture directed to the effect affordance; including instructions for displaying a plurality of effect options for applying effects to the media item concurrently with the representation of the media item, the plurality of effect options subject to a determination that the media item is associated with corresponding depth data; including respective effect options for applying effects based on depth data, and specifying that the respective effect options are not available for activation in multiple effect options pursuant to a determination that the image data does not include depth data; include.

電子デバイスについて説明する。電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示装置を介して、メディアアイテムの表現を含むメディア表示領域と、エフェクトアフォーダンスとを含む、メディアユーザインタフェースを表示し、エフェクトアフォーダンスに向けられたジェスチャを検出し、エフェクトアフォーダンス向けられたジェスチャを検出したことに応じて、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示する命令を含み、メディアアイテムが対応する深度データに関連付けられているとの判定に従って、複数のエフェクトオプションが、深度データに基づいてエフェクトを適用するためのそれぞれのエフェクトオプションを含み、画像データが深度データを含まないとの判定に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない、ことを含む。 Describe electronic devices. The electronic device includes a display, one or more processors, and a memory configured to store one or more programs configured to be executed by the one or more processors, the one or more programs comprising: displaying, via the display device, a media user interface including a media display area including a representation of the media item and an effect affordance; detecting a gesture directed to the effect affordance; detecting a gesture directed to the effect affordance; optionally including instructions for displaying a plurality of effect options for applying effects to the media item concurrently with the representation of the media item, and in accordance with a determination that the media item is associated with the corresponding depth data. effect options include respective effect options for applying effects based on depth data, and each effect option may be activated in multiple effect options according to a determination that the image data does not include depth data. Including unavailable.

電子デバイスについて説明する。電子デバイスは、表示装置と、1つ以上の入力デバイスと、表示装置を介して、メディアアイテムの表現を含むメディア表示領域と、エフェクトアフォーダンスとを含む、メディアユーザインタフェースを表示する手段と、エフェクトアフォーダンスに向けられたジェスチャを検出する手段と、エフェクトアフォーダンス向けられたジェスチャを検出したことに応じて、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示する手段と、を含み、メディアアイテムが対応する深度データに関連付けられているとの判定に従って、複数のエフェクトオプションが、深度データに基づいてエフェクトを適用するためのそれぞれのエフェクトオプションを含み、画像データが深度データを含まないとの判定に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない、ことを含む。 Describe electronic devices. The electronic device includes means for displaying a media user interface including a display, one or more input devices, a media display area including a representation of a media item via the display, and effect affordances. means for detecting a gesture directed at the effect affordance; and means for displaying a plurality of effect options for applying the effect to the media item simultaneously with the representation of the media item in response to detecting the gesture directed to the effect affordance. , the plurality of effect options include respective effect options for applying an effect based on the depth data, the plurality of effect options include respective effect options for applying an effect based on the depth data, and the image data is associated with the depth data according to the determination that the media item is associated with the corresponding depth data. The respective effect option is not available for activation in the plurality of effect options.

方法について説明する。方法は、表示装置を有する電子デバイスにおいて実行される。方法は、表示装置を介して、ライブビデオ通信アプリケーションのライブビデオ通信ユーザインタフェースを表示することであって、ライブビデオ通信ユーザインタフェースが、ライブビデオ通信セッションに参加する被写体の表現と、第1のアフォーダンスとを含む、ことと、第1のアフォーダンスに向けられたジェスチャを検出することと、第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、カメラエフェクトモードをアクティブ化し、ライブビデオ通信セッションに参加する被写体の表現のサイズを増大させることと、を含む。 Explain the method. The method is performed on an electronic device having a display. The method includes displaying, via a display device, a live video communications user interface of a live video communications application, the live video communications user interface comprising: a representation of a subject participating in a live video communications session; and a first affordance. and detecting a gesture directed to the first affordance; and in response to detecting the gesture directed to the first affordance, activating a camera effects mode to perform a live video communication session. and increasing the size of the representation of the subject participating in the image.

非一時的コンピュータ可読記憶媒体について説明する。非一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ライブビデオ通信アプリケーションの、ライブビデオ通信セッションに参加する被写体の表現と、第1のアフォーダンスとを含むライブビデオ通信ユーザインタフェースを、表示装置を介して表示し、第1のアフォーダンスに向けられたジェスチャを検出し、第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、カメラエフェクトモードをアクティブ化し、ライブビデオ通信セッションに参加する被写体の表現のサイズを増大させる、命令を含む。 Non-transitory computer-readable storage media are described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device that includes a display device, the one or more programs configured to execute a live video communication application. displaying a live video communication user interface including a first affordance and a representation of a subject participating in a live video communication session of the display device, detecting a gesture directed to the first affordance, and detecting a gesture directed to the first affordance; instructions for activating a camera effects mode and increasing the size of a representation of a subject participating in a live video communication session in response to detecting a gesture directed to an affordance of 1;

一時的コンピュータ可読記憶媒体について説明する。一時的コンピュータ読み可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ライブビデオ通信アプリケーションの、ライブビデオ通信セッションに参加する被写体の表現と、第1のアフォーダンスとを含むライブビデオ通信ユーザインタフェースを、表示装置を介して表示し、第1のアフォーダンスに向けられたジェスチャを検出し、第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、カメラエフェクトモードをアクティブ化し、ライブビデオ通信セッションに参加する被写体の表現のサイズを増大させる、命令を含む。 A temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device that includes a display device, the one or more programs configured to execute a live video communication application. displaying a live video communication user interface including a first affordance and a representation of a subject participating in a live video communication session of the display device, detecting a gesture directed to the first affordance, and detecting a gesture directed to the first affordance; instructions for activating a camera effects mode and increasing the size of a representation of a subject participating in a live video communication session in response to detecting a gesture directed to an affordance of 1;

電子デバイスについて説明する。電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、ライブビデオ通信アプリケーションの、ライブビデオ通信セッションに参加する被写体の表現と、第1のアフォーダンスとを含む、ライブビデオ通信ユーザインタフェースを、表示装置を介して表示し、第1のアフォーダンスに向けられたジェスチャを検出するし、第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、カメラエフェクトモードをアクティブ化し、ライブビデオ通信セッションに参加する被写体の表現のサイズを増大させる、命令を含む。 Describe electronic devices. The electronic device includes a display, one or more processors, and a memory configured to store one or more programs configured to be executed by the one or more processors, the one or more programs comprising: displaying a live video communications user interface of the live video communications application including a first affordance and a representation of a subject participating in a live video communications session; and a gesture directed to the first affordance; and, in response to detecting a gesture directed at the first affordance, include instructions for activating a camera effects mode and increasing the size of a representation of a subject participating in a live video communication session.

電子デバイスについて説明する。電子デバイスは、表示装置と、1つ以上の入力デバイスと、表示装置を介して、ライブビデオ通信アプリケーションのライブビデオ通信ユーザインタフェースを表示する手段であって、ライブビデオ通信ユーザインタフェースが、ライブビデオ通信セッションに参加する被写体の表現と、第1のアフォーダンスとを含む、手段と、第1のアフォーダンスに向けられたジェスチャを検出する手段と、第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、カメラエフェクトモードをアクティブ化し、ライブビデオ通信セッションに参加する被写体の表現のサイズを増大させる、手段と、を含む。 Describe electronic devices. The electronic device includes a display device, one or more input devices, and means for displaying a live video communications user interface of a live video communications application via the display device, the live video communications user interface being configured to display a live video communications user interface for a live video communications application. means including a representation of a subject participating in the session and a first affordance; means for detecting a gesture directed to the first affordance; and responsive to detecting a gesture directed to the first affordance; and means for activating a camera effects mode to increase the size of a representation of a subject participating in a live video communication session.

方法について説明する。方法は、カメラと表示装置とを有する電子デバイスにおいて実行される。方法は、表示装置を介して、1つ以上のカメラを介してキャプチャされた画像データの表現を表示することであって、表現が被写体の表現を含み、かつ、画像データが被写体の深度データを含む深度データに対応する、ことと、表示装置を介して、被写体の表現の少なくとも一部の代わりに表示される仮想アバターの表現を表示することとであって、仮想アバターは、被写体の深度データに基づいて決定される、被写体の表現に対してシミュレーションされた深度に配置される、ことと、を含み、仮想アバターの表現を表示することは、深度データに基づいて、仮想アバターの第1の部分が、深度ベース表示基準であって、仮想アバターの第1の部分が被写体の対応する第1の部分の前にあるシミュレーションされた深度を有することを、被写体の深度データが示すという要求を含む、深度ベース表示基準のセットを満たすとの判定に従って、深度ベース表示基準が満たされるように、仮想アバターの表現の一部として、被写体の第1の部分の代わりに表示される仮想アバターの第1の部分の表現を含めることと、深度データに基づいて、仮想アバターの第1の部分が、被写体の第1の部分に対する深度ベース表示基準のセットを満たさないとの判定に従って、仮想アバターの表現から、仮想アバターの第1の部分の表現を除外し、仮想アバターの第1の部分によって占有されていたであろう領域に、被写体の第1の部分を表示することと、を含む。 Explain the method. The method is performed on an electronic device having a camera and a display. The method includes displaying, via a display device, a representation of image data captured through one or more cameras, the representation including a representation of a subject, and the image data including depth data of the subject. and displaying, via the display device, a representation of a virtual avatar displayed in place of at least a portion of the representation of the subject, the virtual avatar corresponding to the depth data of the subject. and displaying the representation of the virtual avatar is positioned at a simulated depth relative to the representation of the subject determined based on the depth data. the portion is a depth-based display criterion, including a requirement that the depth data of the subject indicates that a first portion of the virtual avatar has a simulated depth that is in front of a corresponding first portion of the subject; , a first portion of the virtual avatar that is displayed in place of the first portion of the subject as part of the representation of the virtual avatar such that the depth-based display criteria are satisfied. from the representation of the virtual avatar pursuant to including a representation of a portion of the virtual avatar and determining that, based on the depth data, the first portion of the virtual avatar does not satisfy a set of depth-based display criteria for the first portion of the subject. , excluding the representation of the first portion of the virtual avatar and displaying the first portion of the subject in the area that would have been occupied by the first portion of the virtual avatar.

非一時的コンピュータ可読記憶媒体について説明する。非一時的コンピュータ読み可読記憶媒体は、カメラと表示装置とを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、1つ以上のカメラを介してキャプチャされた画像データの表現を表示し、表現が被写体の表現を含み、かつ、画像データが被写体の深度データを含む深度データに対応し、表示装置を介して、被写体の表現の少なくとも一部の代わりに表示される仮想アバターの表現を表示する命令を含み、仮想アバターは、被写体の深度データに基づいて決定された被写体の表現に対してシミュレーションされた深度に配置され、仮想アバターの表現を表示することは、深度データに基づいて、仮想アバターの第1の部分が、深度ベース表示基準であって、仮想アバターの第1の部分が被写体の対応する第1の部分の前にあるシミュレーションされた深度を有することを、被写体の深度データが示すという要求を含む、深度ベース表示基準のセットを満たすとの判定に従って、深度ベース表示基準が満たされるように、仮想アバターの表現の一部として、被写体の第1の部分の代わりに表示される仮想アバターの第1の部分の表現を含めることと、深度データに基づいて、仮想アバターの第1の部分が、被写体の第1の部分に対する深度ベース表示基準のセットを満たさないとの判定に従って、仮想アバターの表現から、仮想アバターの第1の部分の表現を除外し、仮想アバターの第1の部分によって占有されていたであろう領域に、被写体の第1の部分を表示することと、を含む。 Non-transitory computer-readable storage media are described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device that includes a camera and a display, the one or more programs comprising: displaying, via the display device, a representation of image data captured via the one or more cameras, the representation including a representation of a subject, and the image data corresponding to depth data including depth data of the subject; instructions for displaying, via the display device, a representation of a virtual avatar displayed in place of at least a portion of the representation of the subject, the virtual avatar representing a representation of the subject determined based on the depth data of the subject; Displaying the representation of the virtual avatar positioned at the simulated depth is based on the depth data, the first portion of the virtual avatar is a depth-based display reference, and the first portion of the virtual avatar is the subject. The depth-based display criteria are met pursuant to a determination that the set of depth-based display criteria is met, including a requirement that the depth data of the subject indicates that the subject has a simulated depth that is in front of a corresponding first portion of the subject. including, as part of the representation of the virtual avatar, a representation of the first part of the virtual avatar that is displayed in place of the first part of the subject, and based on the depth data, the first part of the virtual avatar is excludes the representation of the first part of the virtual avatar from the representation of the virtual avatar in accordance with the determination that the part does not satisfy the set of depth-based display criteria for the first part of the subject; displaying the first portion of the object in the area that would have been occupied by the portion.

一時的コンピュータ可読記憶媒体について説明する。一時的コンピュータ可読記憶媒体は、カメラと表示装置とを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、1つ以上のカメラを介してキャプチャされた画像データの表現を表示し、表現が被写体の表現を含み、かつ、画像データが被写体の深度データを含む深度データに対応し、表示装置を介して、被写体の表現の少なくとも一部の代わりに表示される仮想アバターの表現を表示する命令を含み、仮想アバターは、被写体の深度データに基づいて決定された被写体の表現に対してシミュレーションされた深度に配置され、仮想アバターの表現を表示することは、深度データに基づいて、仮想アバターの第1の部分が、深度ベース表示基準であって、仮想アバターの第1の部分が被写体の対応する第1の部分の前にあるシミュレーションされた深度を有することを、被写体の深度データが示すという要求を含む、深度ベース表示基準のセットを満たすとの判定に従って、深度ベース表示基準が満たされるように、仮想アバターの表現の一部として、被写体の第1の部分の代わりに表示される仮想アバターの第1の部分の表現を含めることと、深度データに基づいて、仮想アバターの第1の部分が、被写体の第1の部分に対する深度ベース表示基準のセットを満たさないとの判定に従って、仮想アバターの表現から、仮想アバターの第1の部分の表現を除外し、仮想アバターの第1の部分によって占有されていたであろう領域に、被写体の第1の部分を表示することと、を含む。 A temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device that includes a camera and a display device, the one or more programs configured to run on the display device. displaying a representation of image data captured via one or more cameras, the representation including a representation of a subject, and the image data corresponding to depth data including depth data of the subject; instructions for displaying a representation of a virtual avatar displayed in place of at least a portion of the representation of the subject, the virtual avatar being simulated for the representation of the subject determined based on the depth data of the subject; displaying a representation of the virtual avatar based on the depth data, the first part of the virtual avatar is placed at a depth based on the depth-based display reference; The depth-based display criteria are satisfied in accordance with the determination that the depth-based display criteria satisfy the set of depth-based display criteria, including a requirement that the depth data of the subject indicates that the subject has a simulated depth that is in front of the first portion of the image. including, as part of the representation of the virtual avatar, a representation of a first portion of the virtual avatar that is displayed in place of the first portion of the subject; excludes the representation of the first portion of the virtual avatar from the representation of the virtual avatar pursuant to a determination that the first portion of the virtual avatar does not satisfy the set of depth-based display criteria for the first portion of the subject; displaying the first portion of the object in the area that would have been occupied.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示装置を介して、1つ以上のカメラを介してキャプチャされた画像データの表現を、表示し、表現が被写体の表現を含み、かつ、画像データが被写体の深度データを含む深度データに対応し、表示装置を介して、被写体の表現の少なくとも一部の代わりに表示される仮想アバターの表現を表示する命令を含み、仮想アバターは、被写体の深度データに基づいて決定された被写体の表現に対してシミュレーションされた深度に配置され、仮想アバターの表現を表示することは、深度データに基づいて、仮想アバターの第1の部分が、深度ベース表示基準であって、仮想アバターの第1の部分が被写体の対応する第1の部分の前にあるシミュレーションされた深度を有することを、被写体の深度データが示すという要求を含む、深度ベース表示基準のセットを満たすとの判定に従って、深度ベース表示基準が満たされるように、仮想アバターの表現の一部として、被写体の第1の部分の代わりに表示される仮想アバターの第1の部分の表現を含めることと、深度データに基づいて、仮想アバターの第1の部分が、被写体の第1の部分に対する深度ベース表示基準のセットを満たさないとの判定に従って、仮想アバターの表現から、仮想アバターの第1の部分の表現を除外し、と、仮想アバターの第1の部分によって占有されていたであろう領域に、被写体の第1の部分を表示することと、を含む。 Describe electronic devices. The electronic device includes a camera, a display, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. The program displays, via a display device, a representation of image data captured through one or more cameras, the representation includes a representation of a subject, and the image data includes depth data of the subject. and includes instructions for displaying, via the display device, a representation of a virtual avatar displayed in place of at least a portion of the representation of the subject, the virtual avatar having a representation of the subject determined based on the depth data of the subject. Displaying the representation of the virtual avatar is arranged at a depth simulated relative to the representation, and displaying the representation of the virtual avatar is based on the depth data, the first portion of the virtual avatar is placed at a depth simulated for the representation, and the first portion of the virtual avatar The depth-based display satisfies a set of depth-based display criteria, including the requirement that the depth data of the object indicates that the portion of the object has a simulated depth that is in front of the corresponding first portion of the object. including, as part of the representation of the virtual avatar, a representation of the first part of the virtual avatar that is displayed in place of the first part of the subject, and based on the depth data, the display criteria are met. excluding the representation of the first portion of the virtual avatar from the representation of the virtual avatar pursuant to a determination that the first portion of the avatar does not satisfy a set of depth-based display criteria for the first portion of the subject; displaying a first portion of the subject in an area that would have been occupied by a first portion of the virtual avatar.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、表示装置を介して、1つ以上のカメラを介してキャプチャされた画像データの表現を表示する手段であって、表現が被写体の表現を含み、かつ、画像データが被写体の深度データを含む深度データに対応する、手段と、表示装置を介して、被写体の表現の少なくとも一部の代わりに表示される仮想アバターの表現を表示する手段であって、仮想アバターは、被写体の深度データに基づいて決定された被写体の表現に対してシミュレーションされた深度に配置される、手段と、を含み、仮想アバターの表現を表示することは、深度データに基づいて、仮想アバターの第1の部分が、深度ベース表示基準であって、仮想アバターの第1の部分が被写体の対応する第1の部分の前にあるシミュレーションされた深度を有することを、被写体の深度データが示すという要求を含む、深度ベース表示基準のセットを満たすとの判定に従って、深度ベース表示基準が満たされるように、仮想アバターの表現の一部として、被写体の第1の部分の代わりに表示される仮想アバターの第1の部分の表現を含めることと、深度データに基づいて、仮想アバターの第1の部分が、被写体の第1の部分に対する深度ベース表示基準のセットを満たさないとの判定に従って、仮想アバターの表現から、仮想アバターの第1の部分の表現を除外し、仮想アバターの第1の部分によって占有されていたであろう領域に、被写体の第1の部分を表示することと、を含む。 Describe electronic devices. The electronic device includes a camera, a display, and means for displaying, via the display, a representation of image data captured through the one or more cameras, the representation comprising a representation of a subject; means for displaying, via a display device, a representation of a virtual avatar displayed in place of at least a portion of the representation of the subject, the image data corresponding to depth data including depth data of the subject; the avatar being positioned at a simulated depth relative to the representation of the subject determined based on the depth data of the subject, wherein displaying the representation of the virtual avatar is configured to: Depth data of the subject indicates that the first portion of the virtual avatar has a simulated depth that is in front of the corresponding first portion of the subject, such that the first portion of the virtual avatar is a depth-based display reference. is displayed in place of the first portion of the subject as part of the representation of the virtual avatar such that the depth-based display criteria are met, including a requirement that the and a determination that the first portion of the virtual avatar does not satisfy a set of depth-based display criteria for the first portion of the subject based on the depth data. , excluding the representation of the first portion of the virtual avatar from the representation of the virtual avatar and displaying the first portion of the subject in the area that would have been occupied by the first portion of the virtual avatar; including.

これらの機能を実行するための実行可能命令は、任意選択的に、非一時的コンピュータ可読記憶媒体、又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。これらの機能を実行するための実行可能命令は、任意選択的に、一時的コンピュータ可読記憶媒体、又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。 Executable instructions for performing these functions are optionally contained in a non-transitory computer-readable storage medium or other computer program product configured for execution by one or more processors. Executable instructions for performing these functions are optionally contained in a temporary computer-readable storage medium or other computer program product configured for execution by one or more processors.

このため、ビジュアルエフェクトを表示するための、より速く、より効率的な方法及びインタフェースがデバイスに提供され、それによって、そのようなデバイスの有効性、効率、及びユーザ満足度が増す。そのような方法及びインタフェースは、ビジュアルエフェクトを表示するための他の方法を補完又は置換できる。 This provides devices with faster and more efficient methods and interfaces for displaying visual effects, thereby increasing the effectiveness, efficiency, and user satisfaction of such devices. Such methods and interfaces can complement or replace other methods for displaying visual effects.

説明される様々な実施形態を良好に理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきである。ここで、類似の参照番号は、それらの図全体を通じて、対応する部分を指す。 For a better understanding of the various embodiments described, reference should be made to the following detailed description in conjunction with the following drawings. Here, like reference numbers refer to corresponding parts throughout the figures.

一部の実施形態に係る、タッチ感知ディスプレイを備えるポータブル多機能デバイスを示すブロック図である。1 is a block diagram illustrating a portable multifunction device with a touch-sensitive display, according to some embodiments. FIG.

一部の実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。FIG. 2 is a block diagram illustrating example components for event processing, according to some embodiments.

一部の実施形態に係る、タッチスクリーンを有するポータブル多機能デバイスを示す。2 illustrates a portable multifunction device with a touch screen, according to some embodiments.

一部の実施形態に係る、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。1 is a block diagram of an exemplary multifunction device with a display and a touch-sensitive surface, according to some embodiments. FIG.

一部の実施形態に係る、ポータブル多機能デバイス上のアプリケーションのメニュー用の例示的なユーザインタフェースを示す図である。FIG. 3 illustrates an example user interface for a menu of applications on a portable multifunction device, according to some embodiments.

一部の実施形態に係る、ディスプレイから分離したタッチ感知面を備える多機能デバイスのための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for a multifunction device with a touch-sensitive surface separate from a display, according to some embodiments.

一部の実施形態に係る、パーソナル電子デバイスを示す図である。1 is a diagram illustrating a personal electronic device, according to some embodiments. FIG.

一部の実施形態に係る、パーソナル電子デバイスを示すブロック図である。1 is a block diagram illustrating a personal electronic device, according to some embodiments. FIG.

メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 is an illustration of an example user interface for displaying visual effects in a messaging application.

メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図6A~図6BQのユーザインタフェースを使用して、図7Aの処理を含む、以下で説明する処理を示す。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a messaging application. The user interfaces of FIGS. 6A-6BQ are used to illustrate the processes described below, including the process of FIG. 7A. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図6A~図6BQのユーザインタフェースを使用して、図7Bの処理を含む、以下で説明する処理を示す。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a messaging application. The user interfaces of FIGS. 6A-6BQ are used to illustrate the processes described below, including the process of FIG. 7B.

カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application.

カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a camera application.

メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。クトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. FIG. 2 illustrates an example user interface for displaying an image. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a media item viewing mode.

メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in media item viewing mode. メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in media item viewing mode.

ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a live video communication session.

ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a live video communication session. ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a live video communication session.

カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 2 illustrates an example user interface for displaying visual effects in a camera application.

カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a camera application. カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a camera application.

以下の説明では、例示的な方法、パラメータなどが記載される。しかし、そのような説明の目的は、本開示の範囲を制限することではなく、例示的な実施形態の説明を提供することであることを理解されたい。 In the description that follows, example methods, parameters, etc. are described. However, it is to be understood that the purpose of such description is not to limit the scope of the disclosure, but rather to provide a description of exemplary embodiments.

ビジュアルエフェクトを表示するための効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。例えば、ビジュアルエフェクトを表示するためのプログラムがすでに存在するが、これらのプログラムは、ユーザが様々なアプリケーションにおいてビジュアルエフェクトを表示することができる、以下の技術に比べて非効率で使いにくい。かかる技術によって、アプリケーションにおいてビジュアルエフェクトを表示するユーザの認知負担を軽減し、それによって生産性を向上させることができる。更に、そのような技術は、通常であれば冗長なユーザ入力に対して浪費される、プロセッサ及びバッテリの電力を低減することができる。 There is a need for electronic devices that provide efficient methods and interfaces for displaying visual effects. For example, while programs already exist for displaying visual effects, these programs are less efficient and difficult to use than the following techniques that allow users to display visual effects in a variety of applications. Such techniques can reduce the cognitive burden on users who display visual effects in applications, thereby increasing productivity. Additionally, such techniques can reduce processor and battery power that would normally be wasted on redundant user input.

以下、図1A~図1B、図2、図3、図4A~図4B、及び図5A~図5Bは、イベント通知を管理する技術を実行するための例示的なデバイスの説明を提供する。 Below, FIGS. 1A-1B, 2, 3, 4A-4B, and 5A-5B provide a description of example devices for implementing techniques for managing event notifications.

図6A~図6BQは、メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。図7A及び図7Bは、一部の実施形態に係る、メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図6A~図6BQのユーザインタフェースを使用して、図7A及び図7Bの処理を含む、以下で説明する処理を示す。 6A-6BQ illustrate example user interfaces for displaying visual effects in a messaging application. 7A and 7B are flow diagrams illustrating a method for displaying visual effects in a messaging application, according to some embodiments. The user interfaces of FIGS. 6A-6BQ are used to illustrate the processes described below, including the processes of FIGS. 7A and 7B.

図8A~図8BQは、カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。図9A及び図9Bは、一部の実施形態に係る、カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図8A~図8BQのユーザインタフェースを使用して、図9A及び図9Bの処理を含む、以下で説明する処理を示す。 8A-8BQ illustrate example user interfaces for displaying visual effects in a camera application. 9A and 9B are flow diagrams illustrating a method for displaying visual effects in a camera application, according to some embodiments. The user interfaces of FIGS. 8A-8BQ are used to illustrate the processes described below, including the processes of FIGS. 9A and 9B.

図10A~図10ALは、カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。図11A及び図11Bは、一部の実施形態に係る、メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図10A~図10ALのユーザインタフェースを使用して、図11A及び図11Bのプロセスを含む、以下で説明する処理を示す。 10A-10AL illustrate example user interfaces for displaying visual effects in a camera application. 11A and 11B are flow diagrams illustrating a method for displaying visual effects in a media item viewing mode, according to some embodiments. The user interfaces of FIGS. 10A-10AL are used to illustrate the processes described below, including the processes of FIGS. 11A and 11B.

図12A~図12APは、ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。図13A及び図13Bは、一部の実施形態に係る、ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図12A~図12APのユーザインタフェースを使用して、図13A及び13Bのプロセスを含む、以下で説明するプロセスを示す。 12A-12AP illustrate example user interfaces for displaying visual effects in a live video communication session. 13A and 13B are flow diagrams illustrating a method for displaying visual effects in a live video communication session, according to some embodiments. The user interfaces of FIGS. 12A-12AP are used to illustrate the processes described below, including the processes of FIGS. 13A and 13B.

図14A~図14Mは、カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。図15A及び図15Bは、一部の実施形態に係る、カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図14A~図14Mのユーザインタフェースを使用して、図15A及び図15Bのプロセスを含む、以下で説明するプロセスを示す。 14A-14M illustrate example user interfaces for displaying visual effects in a camera application. 15A and 15B are flow diagrams illustrating a method for displaying visual effects in a camera application, according to some embodiments. The user interfaces of FIGS. 14A-14M are used to illustrate the processes described below, including the processes of FIGS. 15A and 15B.

以下の説明では、さまざまな要素を説明するために「第1」、「第2」などの用語が使用されるが、これらの要素はこれらの用語によって限定されるべきではない。これらの用語は、1つの要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1のタッチは第2のタッチと称することができ、同様に、第2のタッチは第1のタッチと称し得る。第1のタッチ及び第2のタッチは共にタッチであるが、同じタッチではない。 In the description that follows, terms such as "first", "second", etc. are used to describe various elements, but these elements should not be limited by these terms. These terms are only used to distinguish one element from another. For example, a first touch may be referred to as a second touch, and similarly, a second touch may be referred to as a first touch, without departing from the scope of the various described embodiments. The first touch and the second touch are both touches, but they are not the same touch.

本明細書で説明される様々な実施形態の説明で使用される用語は、特定の実施形態を説明することのみを目的とするものであって、限定することを意図するものではない。説明される様々な実施形態の説明及び添付の特許請求の範囲で使用されるように、単数形「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形もまた含むことが意図される。本明細書で使用されるように、用語「and/or(及び/又は)」は、関連する列挙された項目のうちの1つ以上の任意のすべての可能な組合せを指し、かつこれを含むことをもまた理解されたい。用語「includes(含む)、「including(含む)」、「comprises(含む)」、及び/又は「comprising(含む)」は、本明細書で使用されるとき、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。 The terminology used in the description of various embodiments described herein is for the purpose of describing particular embodiments only and is not intended to be limiting. As used in the description of the various described embodiments and the appended claims, the singular forms "a," "an," and "the" are used unless the context clearly dictates otherwise. Insofar, plural forms are also intended to be included. As used herein, the term "and/or" refers to and includes any and all possible combinations of one or more of the associated listed items. I also want you to understand that. The terms "includes," "including," "comprises," and/or "comprising" as used herein refer to the stated features, integers, steps, Specifies the presence of an action, element, and/or component, but does not exclude the presence or addition of one or more other features, integers, steps, actions, elements, components, and/or groups thereof. will be further understood.

任意選択的に、用語「if(~場合に)」は、文脈に応じて「when(~時に)」、「upon(~すると)」、「in response to determining(~という判定に応じて)」、又は「in response to detecting(~を検出したことに応じて)」を意味すると解釈される。同様に、語句「if it is determined(~と判定される場合)」又は「if(a stated condition or event)is detected((述べられる条件又はイベント)が検出される場合)」は、任意選択で、文脈に依存して「upon determining(~と判定すると)」、「in response to determining(~と判定したことに応じて)」、「upon detecting(the stated condition or event)((述べられる条件又はイベント)を検出すると)」、又は「in response to detecting(the stated condition or event)((述べられる条件又はイベント)を検出したことに応じて)」を意味するものと解釈される。 Optionally, the term "if" can be used as "when," "upon," or "in response to determining," depending on the context. , or "in response to detecting". Similarly, the phrases "if it is determined" or "if (a stated condition or event) is detected" are optional. , depending on the context: "upon determining", "in response to determining", "upon detecting (the stated condition or event)" is taken to mean "in response to detecting (the stated condition or event)".

電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用するための関連するプロセスの実施形態を説明する。一部の実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、モバイル電話機などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態には、California州CupertinoのApple Inc.のiPhone(登録商標)、iPod Touch(登録商標)及びiPad(登録商標)デバイスが挙げられるが、これらに限定されない。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたラップトップ又はタブレットコンピュータなどの他のポータブル電子デバイスも、任意選択的に、使用される。一部の実施形態では、デバイスがポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたデスクトップコンピュータであることもまた理解されたい。 Embodiments of electronic devices, user interfaces for such devices, and associated processes for using such devices are described. In some embodiments, the device is a portable communication device, such as a mobile phone, that also includes other functionality, such as PDA functionality and/or music player functionality. Exemplary embodiments of portable multifunction devices include those manufactured by Apple Inc. of Cupertino, California. devices such as, but not limited to, the iPhone(R), iPod Touch(R), and iPad(R) devices. Other portable electronic devices such as laptops or tablet computers with touch-sensitive surfaces (eg, touch screen displays and/or touch pads) are also optionally used. It should also be appreciated that in some embodiments, the device is not a portable communication device, but rather a desktop computer with a touch-sensitive surface (eg, a touch screen display and/or touch pad).

以下の議論では、ディスプレイ及びタッチ感知面を含む電子デバイスが説明される。しかしながら、電子デバイスが物理キーボード、マウス、及び/又はジョイスティックなどの、1つ以上の他の物理ユーザインタフェースデバイスを任意選択的に含むことを理解されたい。 The following discussion describes electronic devices that include displays and touch-sensitive surfaces. However, it should be understood that the electronic device optionally includes one or more other physical user interface devices, such as a physical keyboard, mouse, and/or joystick.

このデバイスは、一般的に、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。 This device is commonly used in drawing applications, presentation applications, word processing applications, website creation applications, disc authoring applications, spreadsheet applications, gaming applications, telephone applications, video conferencing applications, email applications, instant messaging applications, and training applications. Various applications are supported, such as one or more of a support application, a photo management application, a digital camera application, a digital video camera application, a web browsing application, a digital music player application, and/or a digital video player application.

本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調節及び/又は変更される。このように、デバイスの共通の(タッチ感知面などの)物理アーキテクチャは、ユーザにとって直観的かつ透過的なユーザインタフェースを備える様々なアプリケーションを、任意選択的にサポートする。 The various applications running on the device optionally use at least one common physical user interface device, such as a touch-sensitive surface. One or more functions of the touch-sensitive surface and corresponding information displayed on the device are optionally adjusted and/or changed from application to application and/or within each application. In this way, a common physical architecture (such as a touch-sensitive surface) of the device optionally supports a variety of applications with a user interface that is intuitive and transparent to the user.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、一部の実施形態による、タッチ感知ディスプレイシステム112を備えるポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれる場合があり、「タッチ感知ディスプレイシステム」として既知であるか又は呼ばれる場合もある。デバイス100は、(1つ以上のコンピュータ可読記憶媒体を任意選択的に含む)メモリ102、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力制御デバイス116、及び外部ポート124を含む。デバイス100は、1つ以上の光センサ164を任意選択的に含む。デバイス100は、デバイス100(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出するための、1つ以上の接触強度センサ165を任意選択的に含む。デバイス100は、デバイス100上に触知出力を生成する(例えば、デバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などの、タッチ感知面上に触知出力を生成する)ための、1つ以上の触知出力生成器167を、任意選択的に含む。これらの構成要素は、1つ以上の通信バス又は信号ライン103を介して任意選択的に通信する。 Attention is now directed to embodiments of portable devices with touch-sensitive displays. FIG. 1A is a block diagram illustrating a portable multifunction device 100 with a touch-sensitive display system 112, according to some embodiments. Touch-sensitive display 112 may be conveniently referred to as a "touch screen" and may also be known or referred to as a "touch-sensitive display system." Device 100 includes a memory 102 (optionally including one or more computer-readable storage media), a memory controller 122, one or more processing units (CPUs) 120, a peripheral interface 118, RF circuitry 108, and audio circuitry 110. , a speaker 111 , a microphone 113 , an input/output (I/O) subsystem 106 , other input control devices 116 , and an external port 124 . Device 100 optionally includes one or more optical sensors 164. Device 100 optionally includes one or more touch intensity sensors 165 for detecting the intensity of a touch on device 100 (eg, a touch-sensitive surface, such as touch-sensitive display system 112 of device 100). Device 100 includes: for generating tactile output on device 100 (e.g., generating tactile output on a touch-sensitive surface, such as touch-sensitive display system 112 of device 100 or touch pad 355 of device 300); One or more tactile output generators 167 are optionally included. These components optionally communicate via one or more communication buses or signal lines 103.

本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指接触)の力若しくは圧力(単位面積当りの力)、又はタッチ感知面上の接触の力若しくは圧力の代替物(代用物)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、何百もの(例えば、少なくとも256個の)別個の値を含む値範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組合せを使用して判定(又は、測定)される。例えば、タッチ感知面の下に又はこれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々な点における力を測定するために使用される。一部の実装形態では、複数の力センサからの力測定値は、接触の力の推定値を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触領域のサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化が、タッチ感知面上の接触の力又は圧力の代替物として、任意選択的に用いられる。一部の実装形態では、接触の力又は圧力に対する代替的測定値は、強度閾値を超えているかを判定するために直接使用される(例えば、強度閾値は、代替的測定値に対応する単位で説明される)。一部の実装形態では、接触の力又は圧力に対する代替的測定値は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超えているかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。接触の強度をユーザ入力の属性として使用することによって、アフォーダンスを表示するための(例えば、タッチ感知ディスプレイ上で)、及び/又は、ユーザ入力を受信するための(例えば、タッチ感知ディスプレイ、タッチ感知面、又はノブ若しくはボタンなどの物理的/機械的制御部を介して)、面積が制限されている、低減されたサイズのデバイス上で別途ユーザによってアクセスすることができないことがある追加的なデバイス機能へのユーザのアクセスが可能となる。 As used herein and in the claims, the term "intensity" of a contact on a touch-sensitive surface refers to the force or pressure (force per unit area) of a contact (e.g., a finger contact) on a touch-sensitive surface. ), or a substitute for the force or pressure of contact on a touch-sensitive surface. The intensity of contact has a value range that includes at least four distinct values, and more typically includes hundreds (eg, at least 256) distinct values. The intensity of contact is optionally determined (or measured) using various techniques and various sensors or combinations of sensors. For example, one or more force sensors below or adjacent to the touch-sensitive surface are optionally used to measure forces at various points on the touch-sensitive surface. In some implementations, force measurements from multiple force sensors are combined (eg, a weighted average) to determine an estimate of contact force. Similarly, the pressure sensitive tip of the stylus is optionally used to determine the pressure of the stylus on the touch sensitive surface. Alternatively, the size and/or change in the contact area detected on the touch-sensitive surface, the capacitance and/or change in the touch-sensitive surface proximate the contact, and/or the resistance and/or change in the touch-sensitive surface proximate the contact. / or variations thereof are optionally used as a substitute for contact force or pressure on the touch-sensitive surface. In some implementations, an surrogate measurement of contact force or pressure is used directly to determine whether an intensity threshold is exceeded (e.g., the intensity threshold is in units corresponding to the surrogate measurement). explained). In some implementations, the alternative measurement of contact force or pressure is converted to an estimated force or pressure, and the estimated force or pressure is used to determine whether an intensity threshold is exceeded. (eg, the intensity threshold is a pressure threshold measured in units of pressure). For displaying affordances (e.g., on a touch-sensitive display) and/or for receiving user input (e.g., on a touch-sensitive display, a touch-sensitive display) by using the intensity of contact as an attribute of user input. additional devices that may not be accessible by the user separately on the reduced size device, which have limited area (through surfaces or physical/mechanical controls such as knobs or buttons); Allows user access to functionality.

本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの前の位置に対するデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)のデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又はデバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素がタッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況において、物理的変位によって生成された触知出力は、デバイス又はデバイスの構成要素の物理的特性における認識された変化に相当する触感として、ユーザによって解釈される。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、任意選択的に、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として解釈される。一部の場合では、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触知感を感じる。別の実施例として、タッチ感知面の移動は、任意選択的に、タッチ感知面の平滑度において変化がないときでさえ、ユーザによってタッチ感知面の「粗さ」として解釈又は感知される。ユーザによるそのようなタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。よって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」、「ダウンクリック」、「粗さ」)に対応するものとして説明されるとき、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの説明された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。 As used herein and in the claims, the term "tactile output" refers to the physical displacement of a device relative to the previous position of the device, the configuration of the device, that is to be detected by the user at the user's sense of touch. Refers to the physical displacement of an element (e.g., a touch-sensitive surface) relative to another component of the device (e.g., the housing), or the displacement of a component relative to the center of mass of the device. For example, tactile output generated by physical displacement in situations where the device or a component of the device is in contact with a touch-sensitive surface of the user (e.g., the fingers, palm, or other part of the user's hand) is interpreted by the user as a tactile sensation that corresponds to a perceived change in the physical properties of the device or a component of the device. For example, movement of a touch-sensitive surface (eg, a touch-sensitive display or trackpad) is optionally interpreted by the user as a "down click" or "up click" of a physical actuator button. In some cases, the user may "click down" or Feel a tactile sensation such as a click. As another example, movement of the touch-sensitive surface is optionally interpreted or perceived by the user as a "roughness" of the touch-sensitive surface, even when there is no change in the smoothness of the touch-sensitive surface. Although the user's interpretation of such touch depends on the user's personal sensory perception, there are many sensory perceptions of touch that are common to the majority of users. Thus, when tactile output is described as corresponding to a particular sensory perception of the user (e.g., "up click," "down click," "roughness"), unless otherwise specified, the generated The tactile output corresponds to a physical displacement of the device, or a component of the device, that produces the described sensory perception of a typical (or average) user.

デバイス100は、ポータブル多機能デバイスの一実施例に過ぎず、デバイス100は、示されているものよりも多くの構成要素又は少ない構成要素を任意選択的に有し、2つ以上の構成要素を任意選択的に組み合せて、又は構成要素の異なる構成若しくは配置を任意選択的に有することを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア又はハードウェア及びソフトウェアの双方の組み合わせで実装される。 Device 100 is only one example of a portable multifunction device, and device 100 may optionally have more or fewer components than shown, and may include more than one component. It is to be understood that the components may optionally be combined or have different configurations or arrangements of the components. The various components shown in FIG. 1A may be implemented in hardware, software, or a combination of both hardware and software, including one or more signal processing circuits and/or application specific integrated circuits.

メモリ102は、高速ランダムアクセスメモリを任意選択的に含み、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリもまた任意選択的に含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。 Memory 102 optionally includes high speed random access memory, and also optionally includes nonvolatile memory, such as one or more magnetic disk storage devices, flash memory devices, or other nonvolatile solid state memory devices. Memory controller 122 optionally controls access to memory 102 by other components of device 100.

周辺機器インタフェース118を使用して、本デバイスの入力及び出力周辺機器を、CPU120及びメモリ102に接続することができる。1つ以上のプロセッサ120は、デバイス100のための様々な機能を実行するため並びにデータを処理するために、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる、又は実行する。一部の実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、チップ104などの単一チップ上に任意選択的に実装される。一部の他の実施形態では、それらは別々のチップ上に任意選択的に実装される。 Peripheral interface 118 may be used to connect the device's input and output peripherals to CPU 120 and memory 102. One or more processors 120 operate or execute various software programs and/or instruction sets stored in memory 102 to perform various functions for device 100 and process data. . In some embodiments, peripheral interface 118, CPU 120, and memory controller 122 are optionally implemented on a single chip, such as chip 104. In some other embodiments, they are optionally implemented on separate chips.

RF(radio requency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、及びメモリなどを含むがこれらに限定されない、それらの機能を実行するための周知の回路を任意選択的に含む。RF回路108は任意選択で、ワールドワイドウェブ(WWW)とも称されるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)及び/若しくはメトロポリタンエリアネットワーク(MAN)などの無線ネットワークなどのネットワークと、他のデバイスと無線通信によって通信する。RF回路108は、近距離通信無線などによる近距離通信(NFC)(near field communication)フィールドを検出するための周知の回路を任意選択的に含む。無線通信は、複数の通信規格、通信プロトコル、及び通信技術のうちのいずれかを、任意選択的に使用し、それらの通信規格、通信プロトコル、及び通信技術としては、移動通信用のグローバルシステム(Global System for Mobile Communications、GSM(登録商標))、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケット接続(high-speed downlink packet access、HSDPA)、高速アップリンクパケット接続(high-speed uplink packet access、HSUPA)、Evolution,Data-Only(EV-DO)、HSPA、HSPA+、2重セルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離無線通信(near field communication、NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetooth(登録商標)Low Energy(BTLE)、Wireless Fidelity(Wi-Fi)(登録商標)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/又はIEEE 802.11ac)、ボイスオーバーインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX、電子メール用のプロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/又はポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能メッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンス利用拡張向けセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、及び/又はショートメッセージサービス(Short Message Service、SMS)、あるいは本文書の出願日現在までにまだ開発されていない通信プロトコルを含めた任意の他の好適な通信プロトコルが挙げられるが、これらに限定されない。 A radio frequency (RF) circuit 108 transmits and receives RF signals, also referred to as electromagnetic signals. The RF circuit 108 converts electrical signals to electromagnetic signals, or vice versa, and communicates with communication networks and other communication devices via electromagnetic signals. RF circuitry 108 includes an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, a CODEC chipset, a subscriber identity module (SIM) card, memory, and the like. Optionally includes, but is not limited to, well-known circuitry for performing those functions. RF circuitry 108 optionally includes the Internet, also referred to as the World Wide Web (WWW), an intranet, and/or a wireless network such as a cellular telephone network, a wireless local area network (LAN), and/or a metropolitan area network (MAN). network and communicate with other devices by wireless communication. RF circuitry 108 optionally includes well-known circuitry for detecting near field communication (NFC) fields, such as by near field communication radio. Wireless communications optionally use any of a number of communication standards, protocols, and technologies, including the Global System for Mobile Communications (Global System for Mobile Communications). Global System for Mobile Communications (GSM®), Enhanced Data GSM Environment (EDGE), high-speed downlink packet access (HSDPA), high-speed uplink packet access (HSDPA), speed uplink packet access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA+, Dual-Cell HSPA (DC-HSPDA), long term evolution (LTE), near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access , TDMA), Bluetooth (registered trademark), Bluetooth (registered trademark) Low Energy (BTLE), Wireless Fidelity (Wi -Fi) (registered trademark) (for example, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, IEEE 802.11n and/or IEEE 802.11ac), voice over Internet Protocol (VoIP), Wi-MAX, protocols for email (e.g., Internet message access protocol (IMAP) ) and/or post office protocol (POP)), instant messaging (e.g. extensible messaging and presence protocol (XMPP), Session Initiation Protocol for Extensible Instant Messaging and Presence Usage Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS)), and/or Short Message Service (SMS), or as of the filing date of this document. Any other suitable communication protocol may include, but is not limited to, communication protocols that have not yet been developed.

オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118から音声データを受信し、その音声データを電気信号に変換し、その電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。オーディオ回路110はまた、マイクロフォン113により音波から変換された電気信号を受信する。オーディオ回路110は、電気信号を音声データに変換し、音声データを処理のために周辺機器インタフェース118に送信する。音声データは任意選択で、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、並びに/又はメモリ102及び/若しくはRF回路108へ送信される。一部の実施形態では、オーディオ回路110はヘッドセットジャック(例えば、図2の212)を更に含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば、片耳又は両耳用のヘッドホン)及び入力(例えば、マイクロフォン)の双方を有するヘッドセットなどの、取り外し可能なオーディオ入出力周辺機器と、の間のインタフェースを提供する。 Audio circuit 110, speaker 111, and microphone 113 provide an audio interface between the user and device 100. Audio circuit 110 receives audio data from peripheral interface 118 , converts the audio data to an electrical signal, and transmits the electrical signal to speaker 111 . Speaker 111 converts electrical signals into human audible sound waves. Audio circuit 110 also receives electrical signals converted from sound waves by microphone 113. Audio circuit 110 converts the electrical signal to audio data and sends the audio data to peripheral interface 118 for processing. Audio data is optionally obtained from and/or transmitted to memory 102 and/or RF circuitry 108 by peripheral interface 118 . In some embodiments, audio circuit 110 further includes a headset jack (eg, 212 in FIG. 2). The headset jack connects the audio circuit 110 to a removable audio input/output peripheral, such as output-only headphones or a headset that has both an output (e.g., monaural or binaural headphones) and an input (e.g., a microphone). Provides an interface between .

I/Oサブシステム106は、周辺機器インタフェース118に、タッチスクリーン112及び他の入力制御デバイス116などのデバイス100の入出力周辺機器を結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力若しくは制御デバイスのための1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、電気信号を、他の入力制御デバイス116から受信/他の入力制御デバイス116に送信する。他の入力制御デバイス116は、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイアル、スライダスイッチ、ジョイスティック、クリックホイールなどを任意選択的に含む。一部の代替的実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに連結される(又は、いずれにも連結されない)。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロフォン113の音量調節のためのアップ/ダウンボタンを任意選択的に含む。1つ以上のボタンは、プッシュボタン(例えば、図2の206)を任意選択的に含む。 I/O subsystem 106 couples input and output peripherals of device 100, such as touch screen 112 and other input control devices 116, to peripheral interface 118. I/O subsystem 106 optionally includes a display controller 156, a light sensor controller 158, an intensity sensor controller 159, a haptic feedback controller 161, and one or more input controllers 160 for other input or control devices. include. One or more input controllers 160 receive/send electrical signals from/to other input control devices 116 . Other input control devices 116 optionally include physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, and the like. In some alternative embodiments, input controller(s) 160 is optionally coupled to any of a keyboard, an infrared port, a USB port, and a pointer device, such as a mouse (or (not connected to either). The one or more buttons (eg, 208 in FIG. 2) optionally include up/down buttons for volume adjustment of speaker 111 and/or microphone 113. The one or more buttons optionally include a push button (eg, 206 in FIG. 2).

2005年12月23日に出願された、米国特許第7,657,849号である米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」(この特許は、その全体が本明細書において参照により組み込まれる)に記載されているように、任意選択的に、プッシュボタンの素早い押圧により、タッチスクリーン112のロックを解除するか、又はデバイスのロック解除にタッチスクリーン上のジェスチャを用いる処理を任意選択的に開始する。プッシュボタン(例えば、206)をより長く押圧することにより、任意選択的にデバイス100の電源をオンオフする。ボタンのうちの1つ以上の機能は、任意選択的に、ユーザカスタマイズ可能である。タッチスクリーン112は、仮想ボタン又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。 U.S. Patent Application Ser. Optionally, a quick press of a pushbutton unlocks the touch screen 112 or uses the touch screen to unlock the device, as described in US Pat. Optionally initiate a process using the above gesture. A longer press of the push button (eg, 206) optionally powers the device 100 on and off. The functionality of one or more of the buttons is optionally user customizable. Touch screen 112 is used to implement virtual or soft buttons and one or more soft keyboards.

タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、電気信号を、タッチスクリーン112から受信及び/又はタッチスクリーン112に送信する。タッチスクリーン112は、ユーザに視覚出力を表示する。視覚出力は、グラフィック、テキスト、アイコン、ビデオ及びこれらの任意の組み合わせ(総称して「グラフィック」と称する)を任意選択的に含む。一部の実施形態では、任意選択的に、視覚出力の一部又はすべてはユーザインタフェースオブジェクトに対応する。 Touch-sensitive display 112 provides an input and output interface between the device and the user. Display controller 156 receives electrical signals from and/or sends electrical signals to touch screen 112 . Touch screen 112 displays visual output to the user. Visual output optionally includes graphics, text, icons, video, and any combinations thereof (collectively referred to as "graphics"). In some embodiments, optionally some or all of the visual output corresponds to user interface objects.

タッチスクリーン112は、触覚及び/又は触知接触に基づくユーザからの入力を受け付けるタッチ感知面、センサ、若しくはセンサのセットを有している。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)、タッチスクリーン112上で接触(及び任意の接触の移動又は中断)を検出し、その検出された接触をタッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)との対話に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。 Touchscreen 112 includes a touch-sensitive surface, sensor, or set of sensors that accepts input from a user based on tactile and/or tactile contact. Touch screen 112 and display controller 156 (along with any associated modules and/or instruction sets in memory 102) detect a touch (and any movement or interruption of the touch) on touch screen 112 and record the detected touch. into an interaction with a user interface object (eg, one or more soft keys, an icon, a web page, or an image) displayed on the touch screen 112. In the exemplary embodiment, the point of contact between touch screen 112 and the user corresponds to the user's finger.

タッチスクリーン112は任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術が使用される。タッチスクリーン112及びディスプレイコントローラ156は、静電容量技術、抵抗性技術、赤外線技術、及び表面超音波技術、並びに、タッチスクリーン112との1つ以上の接触点を判定するための他の近接センサアレイ又は他の要素を含むが、これらに限定されない、現在公知の若しくは後日に開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及び任意の移動又はその中断を、任意選択的に検出する。例示的な実施形態では、California州CupertinoのApple Inc.によるiPhone(登録商標)及びiPod Touch(登録商標)において見られるような、投影型相互静電容量感知技術が使用されている。 Touch screen 112 optionally uses LCD (Liquid Crystal Display) technology, LPD (Light Emitting Polymer Display) technology, or LED (Light Emitting Diode) technology, although in other embodiments other display technologies are used. The touch screen 112 and display controller 156 may employ capacitive, resistive, infrared, and surface ultrasound technologies, as well as other proximity sensor arrays for determining one or more points of contact with the touch screen 112. Contact and any movement or interruption thereof can optionally be detected using any of a number of touch-sensing technologies now known or later developed, including but not limited to or other elements. to be detected. In an exemplary embodiment, Apple Inc. of Cupertino, California. Projected mutual capacitance sensing technology is used, such as that found in the iPhone® and iPod Touch® by Apple.

タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、任意選択的に、以下の米国特許、第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/又は第6,677,932号(Westerman)、及び/又は米国特許出願公開第2002/0015024(A1)号に記載されているマルチタッチ感知タッチパッドに類似する。これらの文献は、それぞれその全体が本明細書において参照により組み込まれている。しかし、タッチスクリーン112は、デバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは、視覚出力を提供しない。 The touch-sensitive display in some embodiments of touch screen 112 is optionally as described in the following U.S. Pat. No. 6,677,932 (Westerman) and/or similar to the multi-touch sensing touchpads described in US Patent Application Publication No. 2002/0015024 (A1). Each of these documents is incorporated herein by reference in its entirety. However, touch screen 112 displays visual output from device 100, whereas touch-sensitive touchpads do not provide visual output.

タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、以下の出願で説明されている。(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の同第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の同第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の同第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の同第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の同第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の同第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の同第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の同第11/367,749号、「Multi-Functional Hand-Held Device」。これらの出願のすべては、全体が参照により本明細書に組み込まれる。 Touch-sensitive displays in some embodiments of touch screen 112 are described in the following applications: (1) U.S. patent application Ser. 10/903,964 filed on July 30, 2004, "Gestures For Touch Sensitive Input Devices", (4) No. 11/048 filed on January 31, 2005 , No. 264, “Gestures For Touch Sensitive Input Devices,” (5) No. 11/038,590, filed on January 18, 2005, “Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices”, (6) 2005 No. 11/228,758 filed on September 16, 2005, “Virtual Input Device Placement On A Touch Screen User Interface” (7) No. 11/228,700 filed on September 16, 2005, “Virtual Input Device Placement On A Touch Screen User Interface” No. 11/228,737, filed September 16, 2005, ``Activating Virtual Keys Of A Touch-S. "clean Virtual Keyboard" and (9) 2006 No. 11/367,749, filed on March 3, ``Multi-Functional Hand-Held Device.'' All of these applications are incorporated herein by reference in their entirety.

タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。一部の実施形態では、タッチスクリーンは約160dpiのビデオ解像度を有する。ユーザは、スタイラス、指などの任意の好適な物体又は付属器を使用して、タッチスクリーン112と任意選択的に接触する。一部の実施形態では、ユーザインタフェースは、主として指に基づく接触及びジェスチャと作用するように設計され、タッチスクリーン上の指の接触面積が広いことに起因して、スタイラスを基準とした入力よりも精度が低いことがある。一部の実施形態では、デバイスは、指に基づく粗い入力を正確なポインタ/カーソル位置又はユーザの望むアクションを実行するためのコマンドに変換する。 Touch screen 112 optionally has a video resolution greater than 100 dpi. In some embodiments, the touch screen has a video resolution of approximately 160 dpi. A user optionally contacts touch screen 112 using any suitable object or appendage, such as a stylus, finger, etc. In some embodiments, the user interface is designed to work primarily with finger-based contacts and gestures, and due to the large contact area of the finger on the touch screen, may be more sensitive than stylus-based input. Accuracy may be low. In some embodiments, the device converts coarse finger-based input into precise pointer/cursor positions or commands to perform the user's desired action.

一部の実施形態では、タッチスクリーンに加えて、デバイス100は、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを任意選択的に含む。一部の実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面又はタッチスクリーンによって形成されたタッチ感知面の拡張部である。 In some embodiments, in addition to a touch screen, device 100 optionally includes a touch pad for activating or deactivating certain features. In some embodiments, a touchpad is a touch-sensitive area of a device that, unlike a touchscreen, does not display visual output. The touchpad is optionally a touch-sensitive surface separate from the touch screen 112 or an extension of the touch-sensitive surface formed by the touch screen.

デバイス100はまた、様々な構成要素に電力を供給するための電力システム162を含む。電力システム162は任意選択で、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配と関連付けられた任意の他の構成要素を含む。 Device 100 also includes a power system 162 for powering various components. Power system 162 optionally includes a power management system, one or more power sources (e.g., batteries, alternating current (AC)), a recharging system, a power outage detection circuit, a power converter or inverter, a power status indicator (e.g., a light emitting diode ( LEDs)) and any other components associated with power generation, management, and distribution within a portable device.

デバイス100はまた任意選択で、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に接続された光センサを示す。光センサ164は、電荷結合デバイス(CCD)又は相補的金属酸化物半導体(CMOS)フォトトランジスタを、任意選択的に含む。光センサ164は、1つ以上のレンズを通して投影された、環境からの光を受光し、その光を、画像を表現するデータに変換する。撮像モジュール143(カメラモジュールとも称する)と併用して、光センサ164は、静止画像又はビデオを任意選択的にキャプチャする。一部の実施形態では、タッチスクリーンディスプレイを静止画像及び/又はビデオ画像取得のためのビューファインダとして有効化するように、光センサは、デバイスの前面のタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。一部の実施形態では、任意選択的に、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見るのと同時に、そのユーザの画像をテレビ会議のために得るように、デバイスの前面に光センサが配置されている。一部の実施形態では、光センサ164の位置は、ユーザによって(例えば、デバイス筐体内のレンズ及びセンサを回転させることによって)変更することができ、それにより、テレビ会議並びに静止画像及び/又はビデオ画像の取得の双方のために、単一の光センサ164を、タッチスクリーンディスプレイと共に使用する。 Device 100 also optionally includes one or more optical sensors 164. FIG. 1A shows a light sensor connected to a light sensor controller 158 within the I/O subsystem 106. Optical sensor 164 optionally includes a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) phototransistor. Light sensor 164 receives light from the environment that is projected through one or more lenses and converts the light into data representing an image. In conjunction with imaging module 143 (also referred to as a camera module), optical sensor 164 optionally captures still images or video. In some embodiments, the light sensor is on the front of the device, opposite the touch screen display 112, so as to enable the touch screen display as a viewfinder for still and/or video image acquisition. It is located on the back of 100. Some embodiments optionally include a light on the front of the device so that the user sees other videoconference participants on the touchscreen display while simultaneously obtaining an image of the user for the videoconference. A sensor is placed. In some embodiments, the position of the optical sensor 164 can be changed by the user (e.g., by rotating the lens and sensor within the device housing), thereby allowing videoconferencing and still images and/or video A single optical sensor 164 is used with a touch screen display for both image acquisition.

デバイス100はまた、1つ以上の深度カメラセンサ175を任意選択的に含む。図1Aは、I/Oサブシステム106内のカメラコントローラ169に結合された、深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内のオブジェクト(例えば、顔)の3次元モデルを生成する。一部の実施形態では、撮像モジュール143(カメラモジュールとも呼ばれる)と共に深度カメラセンサ175を任意選択的に使用して、撮像モジュール143によってキャプチャされた画像の異なる部分の深度マップを判定する。一部の実施形態では、深度カメラセンサがデバイス100の前面に配置され、ユーザが、タッチスクリーンディスプレイ上で他のテレビ会議参加者を見ている間に、かつ、深度マップデータを用いて自撮りをキャプチャできるように、深度情報を有するユーザの画像を、テレビ会議のために任意選択的に取得することができる。一部の実施形態では、深度カメラセンサ175は、デバイスの背面、又はデバイス100の背面及び前面に配置される。一部の実施形態では、深度カメラ175の位置をユーザが(例えば、デバイス筐体内のレンズ及びセンサを回転させることによって)変更することができ、深度カメラセンサ175を、テレビ会議並びに静止画像及び/又はビデオ画像の取得の両方のために、タッチスクリーンディスプレイと共に使用することができる。 Device 100 also optionally includes one or more depth camera sensors 175. FIG. 1A shows a depth camera sensor coupled to a camera controller 169 within I/O subsystem 106. Depth camera sensor 175 receives data from the environment and generates a three-dimensional model of an object (eg, a face) in the scene from a viewpoint (eg, depth camera sensor). In some embodiments, depth camera sensor 175 is optionally used in conjunction with imaging module 143 (also referred to as a camera module) to determine depth maps of different portions of the image captured by imaging module 143. In some embodiments, a depth camera sensor is placed on the front of the device 100 to allow the user to take a selfie while viewing other video conference participants on the touch screen display and using the depth map data. An image of the user with depth information may optionally be obtained for the video conference, such that the user's image can be captured. In some embodiments, depth camera sensor 175 is located on the back of the device, or on the back and front of device 100. In some embodiments, the position of the depth camera 175 can be changed by the user (e.g., by rotating the lens and sensor within the device housing), and the depth camera sensor 175 can be used for videoconferencing and still images and/or It can be used with a touch screen display, both for or for video image acquisition.

一部の実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ、光センサ、深度カメラセンサ)からのシーン内のオブジェクトの距離に関する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、その対応する2次元ピクセルが配置される、視点のZ軸内の位置を規定する。一部の実施形態では、深度マップは、各ピクセルが値(例えば、0~255)によって定義されるピクセルから構成される。例えば、「0」値は、「3次元」シーンにおける最も離れた位置に配置されるピクセルを表し、「255」値は、「3次元」シーンにおける視点(例えば、カメラ、光センサ、深度カメラセンサ)に最も近いピクセルを表す。他の実施形態では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。一部の実施形態では、深度マップは、深度カメラの視点における関心あるオブジェクトの様々な特徴の相対的深度(例えば、ユーザの顔の目、鼻、口、耳の相対的深度)についての情報を含む。一部の実施形態では、深度マップは、z方向の関心あるオブジェクトの輪郭をデバイスが判定することを可能にする情報を含む。 In some embodiments, a depth map (e.g., a depth map image) includes information (e.g., values) about the distances of objects in a scene from a viewpoint (e.g., a camera, light sensor, depth camera sensor). In one embodiment of a depth map, each depth pixel defines the location in the Z-axis of the viewpoint where its corresponding two-dimensional pixel is located. In some embodiments, the depth map is composed of pixels, each pixel defined by a value (eg, 0-255). For example, a ``0'' value represents the furthest located pixel in a ``3D'' scene, and a ``255'' value represents a pixel located at the farthest position in a ``3D'' scene; ) represents the closest pixel. In other embodiments, the depth map represents the distance between objects in the scene and the plane of view. In some embodiments, the depth map provides information about the relative depth of various features of the object of interest at the perspective of the depth camera (e.g., the relative depth of the eyes, nose, mouth, and ears of the user's face). include. In some embodiments, the depth map includes information that allows the device to determine the contour of the object of interest in the z-direction.

デバイス100はまた、1つ以上の接触強度センサ165を任意選択的に含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された、接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に含む。接触強度センサ165は、周辺環境から接触強度情報(例えば、圧力情報又は圧力情報の代用物)を受信する。一部の実施形態において、少なくとも1つの接触強度センサが、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又は、それに近接している。一部の実施形態では、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 also optionally includes one or more contact intensity sensors 165. FIG. 1A shows a contact intensity sensor coupled to an intensity sensor controller 159 within I/O subsystem 106. Contact intensity sensor 165 may include one or more piezoresistive strain gauges, capacitive force sensors, electrical force sensors, piezo force sensors, optical force sensors, capacitive touch-sensitive surfaces, or other intensity sensors (e.g., on a touch-sensitive surface). (a sensor used to measure the force (or pressure) of the contact). Contact intensity sensor 165 receives contact intensity information (eg, pressure information or a proxy for pressure information) from the surrounding environment. In some embodiments, at least one contact intensity sensor is located at or proximate a touch-sensitive surface (eg, touch-sensitive display system 112). In some embodiments, at least one contact intensity sensor is located on the back of the device 100, opposite the touch screen display 112 located on the front of the device 100.

デバイス100はまた、1つ以上の近接センサ166を任意選択的に含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。あるいは、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に接続される。近接センサ166は、任意選択的に、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、同第11/240,788号、「Proximity Detector In Handheld Device」、同第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、同第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されるように任意選択的に実行してもよく、これらはその全体が参照により本明細書に組み込まれる。一部の実施形態において、多機能デバイスがユーザの耳の近くに配置されている場合(例えば、ユーザが電話通話を行っている場合)、近接センサは、タッチスクリーン112をオフにし無効にする。 Device 100 also optionally includes one or more proximity sensors 166. FIG. 1A shows a proximity sensor 166 coupled to peripheral interface 118. Alternatively, proximity sensor 166 is optionally connected to input controller 160 within I/O subsystem 106. Proximity sensor 166 is optionally similar to that of U.S. Patent Application No. 11/241,839, "Proximity Detector In Handheld Device"; Same No. 11/ No. 620,702, “Using Ambient Light Sensor To Augment Proximity Sensor Output”, No. 11/586,862, “Automated Response To And Sensing” 11/638,251, It may optionally be performed as described in "Methods And Systems For Automatic Configuration Of Peripherals," which are incorporated herein by reference in their entirety. In some embodiments, the proximity sensor turns off and disables the touch screen 112 when the multifunction device is placed near the user's ear (eg, when the user is making a phone call).

デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に連結された触知出力生成器を示す。触知出力生成器167は、スピーカ又は他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などの、エネルギを直線運動に変換する電気機械デバイスを、任意選択的に含む。接触強度センサ165は、触覚フィードバックモジュール133から触覚フィードバック生成命令を受信し、デバイス100のユーザが感知できる触知出力をデバイス100上で生成する。一部の実施形態において、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は横方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。一部の実施形態において、少なくとも1つの触知出力生成器センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 also optionally includes one or more tactile output generators 167. FIG. 1A shows a tactile output generator coupled to a tactile feedback controller 161 within I/O subsystem 106. Tactile output generator 167 may include one or more electroacoustic devices such as speakers or other audio components, and/or motors, solenoids, electroactive polymers, piezoelectric actuators, electrostatic actuators, or other tactile output generating configurations. Optionally includes an electromechanical device that converts energy into linear motion, such as an element (eg, a component that converts an electrical signal to a tactile output on the device). Touch intensity sensor 165 receives haptic feedback generation instructions from haptic feedback module 133 and generates tactile output on device 100 that can be sensed by a user of device 100. In some embodiments, at least one tactile output generator is located at or proximate a touch-sensitive surface (e.g., touch-sensitive display system 112), and optionally, the touch-sensitive surface A tactile output is generated by moving the tactile device vertically (eg, in/out of the surface of device 100) or laterally (eg, back and forth in the same plane as the surface of device 100). In some embodiments, at least one tactile output generator sensor is located on the back of the device 100, opposite the touch screen display 112 located on the front of the device 100.

デバイス100はまた、1つ以上の加速度計168を任意選択的に含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。あるいは、加速度計168は、I/Oサブシステム106内の入力コントローラ160に任意選択的に結合される。加速度計168は、任意選択的に、米国特許出願公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び同第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」で説明されるように機能するものであり、これらの文献の双方は、全体が参照により本明細書に組み込まれる。一部の実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、縦長表示又は横長表示でタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の位置及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。 Device 100 also optionally includes one or more accelerometers 168. FIG. 1A shows accelerometer 168 coupled to peripheral interface 118. Alternatively, accelerometer 168 is optionally coupled to input controller 160 within I/O subsystem 106. Accelerometer 168 is optionally adapted from U.S. Pat. , “Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer , both of which are incorporated herein by reference in their entirety. In some embodiments, information is displayed on a touch screen display in a portrait or landscape view based on analysis of data received from one or more accelerometers. In addition to the accelerometer(s) 168, the device 100 also includes a magnetometer and a GPS (or GLONASS or other global navigation system) for obtaining information regarding the position and orientation (e.g., longitudinal or lateral) of the device 100. system) optionally including a receiver.

一部の実施形態では、メモリ102に記憶されたソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System)(GPS)モジュール(又は命令セット)135及びアプリケーション(又は命令セット)136を含む。更に、一部の実施形態において、図1A及び図3に示すように、メモリ102(図1A)又はメモリ370(図3)は、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、以下の1つ以上を含む:現在アクティブ状態のアプリケーションがある場合、どのアプリケーションがアクティブかを示す、アクティブアプリケーション状態、どのアプリケーション、ビュー又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占領しているかを示す、表示状態、デバイスの様々なセンサ及び入力制御デバイス116から取得される情報を含む、センサ状態、並びに、デバイスの位置及び/又は姿勢に関する位置情報。 In some embodiments, the software components stored in memory 102 include an operating system 126, a communication module (or instruction set) 128, a touch/motion module (or instruction set) 130, a graphics module (or instruction set) 132 , a text input module (or instruction set) 134 , a Global Positioning System (GPS) module (or instruction set) 135 , and an application (or instruction set) 136 . Additionally, in some embodiments, as shown in FIGS. 1A and 3, memory 102 (FIG. 1A) or memory 370 (FIG. 3) stores device/global internal state 157. Device/global internal state 157 includes one or more of the following: active application state, which applications, if any, are currently active; which applications, views, or other information on touch screen display 112; display status, sensor status, including information obtained from various sensors and input control devices 116 of the device, and location information regarding the position and/or orientation of the device, indicating whether it occupies various areas of the device;

オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するための様々なソフトウェアコンポーネント及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。 Operating system 126 (e.g., Darwin, RTXC, LINUX, UNIX, OS X, iOS, WINDOWS, or Embedded operating systems (such as VxWorks®) include various software components and/or drivers to control and manage common system tasks (e.g., memory management, storage device control, power management, etc.) Facilitates communication between various hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えば、ユニバーサルシリアルバス(Universal Serial Bus)(USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えば、インターネット、無線LANなど)を通して間接的に、他のデバイスに連結するように適応している。一部の実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じか、若しくは同様のマルチピン(例えば、30ピン)コネクタ、及び/又は互換性のあるマルチピン(例えば、30ピン)コネクタである。 Communication module 128 also facilitates communication with other devices via one or more external ports 124 and includes various software components for processing data received by RF circuitry 108 and/or external ports 124. include. External ports 124 (e.g., Universal Serial Bus (USB), FIREWIRE®, etc.) can be connected to other devices, either directly or indirectly through a network (e.g., the Internet, wireless LAN, etc.). It is adapted to be connected to In some embodiments, the external port is a multi-pin (e.g., 30-pin) connector that is the same as or similar to the 30-pin connector used on the iPod® (trademark of Apple Inc.) device, and/or or a compatible multi-pin (eg, 30-pin) connector.

接触/動きモジュール130は、(ディスプレイコントローラ156と連携して)タッチスクリーン112及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を任意選択的に検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したか否かを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データにより表される接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、並びに/又は加速度(大きさ及び/又は方向における変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。一部の実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。 Contact/motion module 130 (in conjunction with display controller 156) optionally detects contact with touch screen 112 and other touch-sensitive devices (eg, a touch pad or physical click wheel). The contact/motion module 130 is configured to determine whether a contact has occurred (e.g., detecting a finger down event), the strength of the contact (e.g., the force or pressure of the contact, or an alternative to the force or pressure of the contact). determining whether there is movement of the touch and tracking movement across the touch-sensitive surface (e.g., detecting one or more finger dragging events); Includes various software components for performing various operations related to contact detection, such as determining whether contact has ceased (e.g., detecting a finger raise event or a break in contact) . Touch/motion module 130 receives touch data from a touch-sensitive surface. Determining the movement of the contact point represented by the set of contact data optionally includes determining the speed (magnitude), velocity (magnitude and direction), and/or acceleration (magnitude and/or direction) of the contact point. or a change in direction). These operations are optionally applied to single contacts (eg, single finger contacts) or multiple simultaneous contacts (eg, "multi-touch"/multiple finger contacts). In some embodiments, the touch/motion module 130 and display controller 156 detect a touch on the touchpad.

一部の実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するための(例えば、ユーザがアイコン上で「クリック」したか否かを判定するための)、1つ以上の強度閾値のセットを使用する。一部の実施形態では、強度閾値の少なくともサブセットは、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によっては判定されず、デバイス100の物理ハードウェアを変更することなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイのハードウェアを変更することなく、広範囲の予め定義された閾値のうちのいずれかに設定されてもよい。加えて、一部の実装形態では、デバイスのユーザは、強度閾値のセットのうちの1つ以上を調整するためのソフトウェア設定が提供される(例えば、個々の強度閾値を調整することによって、及び/又はシステムレベルのクリック「強度」パラメータで一度に複数の強度閾値を調整することによって)。 In some embodiments, the touch/movement module 130 includes: determining whether an action has been performed by the user (e.g., determining whether the user has "clicked" on an icon); Using a set of one or more intensity thresholds. In some embodiments, at least a subset of the intensity thresholds are determined according to software parameters (e.g., the intensity thresholds are not determined by activation thresholds of particular physical actuators and change the physical hardware of device 100. ). For example, the mouse "click" threshold for a trackpad or touchscreen display may be set to any of a wide range of predefined thresholds without changing the trackpad or touchscreen display hardware. Additionally, in some implementations, a user of the device is provided with software settings to adjust one or more of the set of intensity thresholds (e.g., by adjusting individual intensity thresholds; / or by adjusting multiple intensity thresholds at once with the system-level click "intensity" parameter).

接触/動きモジュール130は、ユーザによるジェスチャ入力を任意選択的に検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターン(例えば、検出される接触の異なる動き、タイミング、及び/又は強度)を有する。このように、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指のタップジェスチャを検出することは、(例えば、アイコンの位置での)指を下ろすイベントを検出し、続いてその指を下ろすイベントと同じ位置(又は、実質的に同じ位置)で指を上げる(リフトオフ)イベントを検出することを含む。別の実施例として、タッチ感知面上での指のスワイプジェスチャを検出することは、指を下ろすイベントを検出し、続いて、1つ以上の、指をドラッグするイベントを検出し、その後、続いて指を上げる(リフトオフ)イベントを検出することを含む。 Touch/motion module 130 optionally detects gesture input by a user. Different gestures on the touch-sensitive surface have different contact patterns (eg, different motion, timing, and/or intensity of the detected contact). In this way, gestures are optionally detected by detecting specific contact patterns. For example, detecting a finger tap gesture involves detecting a finger down event (e.g., at the location of an icon) followed by a finger tap at the same location (or substantially the same location) as the finger down event. including detecting lift-off events. As another example, detecting a finger swipe gesture on a touch-sensitive surface includes detecting a finger down event, followed by detecting one or more finger dragging events, and then detecting one or more finger dragging events. and detecting a finger lift-off event.

グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含む、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、様々な既知のソフトウェア構成要素を含む。本明細書で使用されるとき、用語「グラフィック」は、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含むがこれらに限定はされない、ユーザに対して表示することができる任意のオブジェクトを含む。 Graphics module 132 includes components for changing the visual effects (e.g., brightness, transparency, saturation, contrast, or other visual characteristics) of displayed graphics on touch screen 112 or other display. Includes various known software components for rendering and displaying graphics. As used herein, the term "graphics" refers to graphics that are visible to the user, including, but not limited to, text, web pages, icons (such as user interface objects including softkeys), digital images, videos, animations, etc. Contains any object that can be displayed against.

一部の実施形態では、グラフィックモジュール132は、使用予定のグラフィックを表すデータを記憶する。各グラフィックは任意選択で、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データと共に表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次いで、ディスプレイコントローラ156に出力する画面の画像データを生成する。 In some embodiments, graphics module 132 stores data representing graphics to be used. Each graphic is optionally assigned a corresponding code. Graphics module 132 receives, such as from an application, one or more codes specifying graphics to be displayed, optionally along with coordinate data and other graphical characteristic data, and then outputs to display controller 156. Generate screen image data.

触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、デバイス100上の1つ以上の位置で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成する様々なソフトウェア構成要素を含む。 Haptic feedback module 133 is used by tactile output generator(s) 167 to generate tactile output at one or more locations on device 100 in response to user interaction with device 100. Contains various software components that generate instructions.

テキスト入力モジュール134は任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。 Text input module 134 is optionally a component of graphics module 132 and can be used with various applications (e.g., contacts 137, email 140, IM 141, browser 147, and any other applications that require text input. ) provides a soft keyboard for entering text.

GPSモジュール135は、デバイスの位置を判定し、この情報を、様々なアプリケーションでの使用のために提供する(例えば、位置に基づく電話での使用のために電話138へ、写真/ビデオメタデータとしてカメラ143へ、並びに、天気ウィジェット、ローカルイエローページウィジェット及び地図/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションへ)。 GPS module 135 determines the location of the device and provides this information for use in various applications (e.g., as photo/video metadata to phone 138 for use in location-based telephony; to the camera 143 and to applications that provide location-based services, such as weather widgets, local yellow pages widgets, and map/navigation widgets).

アプリケーション136は、以下のモジュール(若しくは命令セット)、又はそれらのサブセット若しくはスーパーセットを任意選択的に含む。
●連絡先モジュール137(場合により、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●天気ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを統合した、ビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、及び/又は
●オンラインビデオモジュール155。
Application 136 optionally includes the following modules (or instruction sets), or a subset or superset thereof.
- Contacts module 137 (sometimes also called address book or contact list),
Telephone module 138,
Teleconferencing module 139,
- E-mail client module 140,
● Instant messaging (IM) module 141,
Training support module 142,
- camera module 143 for still and/or video images;
Image management module 144,
●Video player module,
●Music player module,
Browser module 147,
Calendar module 148,
● Weather widget 149-1, stock widget 149-2, calculator widget 149-3, alarm clock widget 149-4, dictionary widget 149-5 and other widgets acquired by the user, and user-created widgets 149-6. a widget module 149, optionally including one or more of
- widget creator module 150 for creating user-created widgets 149-6;
Search module 151,
- a video and music player module 152 that integrates a video player module and a music player module;
Memo module 153,
Map module 154, and/or ● Online video module 155.

任意選択的にメモリ102内に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。 Examples of other applications 136 optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA-enabled applications, encryption, digital These include copyright management, voice recognition, and voice reproduction.

タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、連絡先モジュール137は、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレスブック又は連絡先リストを管理するために任意選択的に用いられ、それには、アドレスブックに名前(単数又は複数)を加えること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前と関連付けること、画像を名前と関連付けること、名前を分類かつ並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始する及び/又は容易にすること、などが含まれる。 Contacts module 137, along with touch screen 112, display controller 156, contact module 130, graphics module 132, and text input module 134, includes information stored in application internal state 192 of contacts module 137 (e.g., in memory 102 or memory 370). optionally used to manage an address book or contact list, including adding name(s) to the address book, deleting name(s) from the address book; , associate phone number(s), email address(es), address(es), or other information with a name; associate images with a name; categorize and sort names; This includes providing a telephone number or email address to initiate and/or facilitate communication via telephone 138, video conferencing module 139, email 140, or IM 141, and the like.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電話モジュール138は、任意選択的に、電話番号に対応する一連の文字を入力し、連絡先モジュール137内の1つ以上の電話番号にアクセスし、入力された電話番号を修正し、対応する電話番号をダイアルし、会話を行い、そして、会話が完了した際に接続を切るか又は電話を切るために、使用する。上述のように、無線通信は、複数の通信規格、プロトコル、及び技術のうちのいずれかを任意選択的に使用する。 Telephone module 138, in conjunction with RF circuitry 108, audio circuitry 110, speakers 111, microphone 113, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, optionally , enter a sequence of characters corresponding to a telephone number, access one or more telephone numbers in the contacts module 137, modify the entered telephone number, dial the corresponding telephone number, and conduct a conversation. , and used to disconnect or hang up when the conversation is complete. As mentioned above, wireless communications optionally use any of a number of communication standards, protocols, and technologies.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連携して、テレビ会議モジュール139は、ユーザの指示に従って、ユーザと1人以上の他の参加者との間のテレビ会議を開始し、遂行し、終了するための、実行可能な命令を含む。 RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, light sensor 164, light sensor controller 158, touch/motion module 130, graphics module 132, text input module 134, contacts module 137 , and teleconferencing module 138, videoconferencing module 139 performs, in accordance with the user's instructions, for initiating, conducting, and terminating a videoconference between the user and one or more other participants. Contains possible instructions.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電子メールクライアントモジュール140は、ユーザの指示に応じて、電子メールを作成し、送信し、受信し、管理するための、実行可能な命令を含む。画像管理モジュール144と連携して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールを作成及び送信することを非常に容易にする。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, email client module 140 creates emails in response to user instructions. Contains executable instructions for sending, receiving, and managing information. In conjunction with the image management module 144, the email client module 140 greatly facilitates creating and sending emails with still or video images taken with the camera module 143.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字列を入力したり、入力済の文字を修正したり、(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、若しくはIMPSを使用して)対応するインスタントメッセージを送信したり、インスタントメッセージを受信したり、及び受信したインスタントメッセージを閲覧したりする、実行可能な命令を含む。一部の実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるような、グラフィック、写真、音声ファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書において使用するとき、「インスタントメッセージング」とは、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)の双方を指す。 In conjunction with RF circuit 108, touch screen 112, display controller 156, touch/movement module 130, graphics module 132, and text input module 134, instant messaging module 141 inputs a string of characters corresponding to an instant message, and Modify characters that have already been entered (e.g. using the Short Message Service (SMS) or Multimedia Message Service (MMS) protocols for telephone-based instant messages, or XMPP for Internet-based instant messages) , SIMPLE, or IMPS), receive instant messages, and view received instant messages. In some embodiments, instant messages sent and/or received optionally include graphics, photos, audio files, such as those supported by MMS and/or Enhanced Messaging Service (EMS). , video files, and/or other attachments. As used herein, "instant messaging" refers to telephone-based messages (e.g., messages sent using SMS or MMS) and Internet-based messages (e.g., using XMPP, SIMPLE, or IMPS). (messages sent).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154及び音楽プレーヤモジュールと連携して、トレーニングサポートモジュール142は、(例えば、時間、距離及び/又はカロリー消費目標を有する)トレーニングを作成する、トレーニングセンサ(スポーツデバイス)と通信することと、トレーニングセンサデータを受信することと、トレーニングをモニタするために使用されるセンサを較正することと、トレーニングのための音楽を選択し、再生することと、トレーニングデータを表示し、記憶し、送信すること。 In conjunction with the RF circuit 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, GPS module 135, map module 154, and music player module, the training support module 142 ( sensors used to create workouts (e.g. with time, distance and/or calorie expenditure goals), communicate with training sensors (sport devices), receive training sensor data, and monitor training; calibrate, select and play music for training, and view, store and transmit training data.

タッチスクリーン112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連携して、カメラモジュール143は、静止画像若しくは(ビデオストリームを含む)ビデオをキャプチャしてメモリ102にそれらを記憶する、静止画像若しくはビデオの特性を変更する、又はメモリ102から静止画像若しくはビデオを削除する、実行可能な命令を含む。 In conjunction with the touch screen 112, display controller 156, light sensor(s) 164, light sensor controller 158, touch/motion module 130, graphics module 132, and image management module 144, the camera module 143 captures still images or Contains executable instructions for capturing videos (including video streams) and storing them in memory 102, changing characteristics of still images or videos, or deleting still images or videos from memory 102.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134及びカメラモジュール143と連携して、画像管理モジュール144は、静止画像及び/又はビデオ画像を配置し、修正し(例えば、編集し)又は別の方法で操作し、ラベルを付け、削除し、(例えば、デジタルスライドショー又はアルバムにおいて)提示し、記憶するための、実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and camera module 143, image management module 144 positions and modifies still and/or video images. Contains executable instructions for editing (eg, editing) or otherwise manipulating, labeling, deleting, presenting (eg, in a digital slideshow or album), and storing.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及び、テキスト入力モジュール134と連携して、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページにリンクされた添付及び他のファイルを検索し、リンク付けし、受信し、表示することを含むユーザの指示に従い、インターネットを閲覧する実行可能な命令を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/movement module 130, graphics module 132, and text input module 134, browser module 147 displays web pages, or portions thereof, and Contains executable instructions for browsing the Internet according to user instructions, including searching for, linking to, receiving, and displaying linked attachments and other files.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、カレンダモジュール148は、ユーザの指示に従い、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダ項目、to doリストなど)を作成し、表示し、変更し、記憶する実行可能な命令を含む。 Calendar module 148, in conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, email client module 140, and browser module 147, provides user instructions. The present invention includes executable instructions for creating, displaying, modifying, and storing calendars and data associated with calendars (e.g., calendar items, to-do lists, etc.) in accordance with the present invention.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と併せて、ウィジェットモジュール149は、ユーザによって任意選択的にダウンロードされて使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。一部の実施形態では、ウィジェットは、HTML(Hypertext Markup Language)(ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets)(カスケーディングスタイルシート)ファイル及びJavaScriptファイルを含む。一部の実施形態では、ウィジェットは、XML(拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。 Widget module 149, in conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, is optionally downloaded and used by the user. (e.g., weather widget 149-1, stock price widget 149-2, calculator widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5), or mini-applications created by users (e.g., , user-created widget 149-6). In some embodiments, the widget includes Hypertext Markup Language (HTML) files, Cascading Style Sheets (CSS) files, and JavaScript files. In some embodiments, widgets include XML (Extensible Markup Language) files and JavaScript files (eg, Yahoo! Widgets).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、ウィジェットクリエータモジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定箇所をウィジェットに変える)ために、ユーザによって使用する。 Widget creator module 150, in conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, optionally creates widgets. (e.g., to turn a user-specified portion of a web page into a widget).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、検索モジュール151は、ユーザの指示に従い、1つ以上の検索基準(例えば、1つ以上のユーザ指定の検索語句)と一致する、メモリ102内のテキスト、音楽、音、画像、ビデオ、及び/又は他のファイルを検索するための、実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/movement module 130, graphics module 132, and text input module 134, search module 151 performs one or more search criteria (e.g., one or more includes executable instructions for searching for text, music, sound, images, video, and/or other files in memory 102 that match user-specified search terms).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びにビデオを(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示又は別の方法で再生するための実行可能な命令を含む。一部の実施形態では、デバイス100は、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を任意選択的に含む。 In conjunction with the touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuitry 110, speakers 111, RF circuitry 108 and browser module 147, the video and music player module 152 can play MP3 or AAC files, etc. executable instructions that enable a user to download and play recorded music and other sound files stored in one or more file formats, as well as videos (on touch screen 112 or via external port 124); including executable instructions for displaying, presenting, or otherwise playing (on a connected external display). In some embodiments, device 100 optionally includes the functionality of an MP3 player, such as an iPod (a trademark of Apple Inc.).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、メモモジュール153は、ユーザの指示に従って、メモ、to doリストなどを作成し、管理するための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/movement module 130, graphics module 132 and text input module 134, notes module 153 is configured to create and manage notes, to-do lists, etc. according to user instructions. contains executable instructions.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、地図モジュール154は、任意選択的に、ユーザの指示に従い、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の位置又はその近くの店舗及び他の見所のデータ、並びに他の位置ベースのデータ)を受信し、表示し、変更し、及び記憶するために、使用する。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, GPS module 135, and browser module 147, map module 154 optionally includes: Receive, display, and modify maps and map-associated data (e.g., driving directions, data on stores and other points of interest at or near a particular location, and other location-based data) according to user instructions; Used to record and remember information.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140及びブラウザモジュール147と連携して、オンラインビデオモジュール155は、ユーザがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、閲覧し、(例えば、ストリーミング及び/又はダウンロードにより)受信し、(例えば、タッチスクリーン上で又は外部ポート124を介して接続された外部のディスプレイ上で)再生し、特定のオンラインビデオへのリンクを含む電子メールを送信し、別の方法で管理することが可能となる命令を含む。一部の実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションの追加の説明は、2007年6月20日に出願された米国特許仮出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日に出願された米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」に見出すことができ、これらの出願の内容はその全体が本明細書において参照により組み込まれている。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuit 110, speaker 111, RF circuit 108, text input module 134, email client module 140 and browser module 147, online video Module 155 allows the user to use H. 264, etc., to view and receive (e.g., by streaming and/or downloading) online video in one or more file formats, such as Contains instructions that make it possible to play (on display), send emails containing links to specific online videos, and otherwise manage them. In some embodiments, instant messaging module 141 is used rather than email client module 140 to send a link to a particular online video. Additional description of online video applications can be found in U.S. Provisional Application No. 60/936,562, filed June 20, 2007, “Portable Multifunction Device, Method, and Graphical User Interface for Playing Only ne Videos”, and 2007 No. 11/968,067, filed on December 31, 2006, entitled “Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos” and the contents of these applications in their entirety is incorporated herein by reference.

上記で特定されたモジュール及びアプリケーションのそれぞれは、1つ以上の上記の機能を実行する実行可能な命令セット及び本出願に記載の方法(例えば、コンピュータにより実装される方法及び本明細書に記載の他の情報処理方法)に対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、それゆえ、様々な実施形態では、任意選択的に、これらのモジュールの様々な部分集合を組み合わせるか、又は他の方式で再編成する。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わせて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)とする。一部の実施形態では、メモリ102は、上記で特定されたモジュール及びデータ構造のサブセットを任意選択的に記憶する。更に、メモリ102は、上述していない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the modules and applications identified above includes a set of executable instructions that perform one or more of the functions described above and methods described in this application (e.g., computer-implemented methods and methods described herein). other information processing methods). These modules (e.g., instruction sets) need not be implemented as separate software programs, procedures, or modules; therefore, various embodiments optionally implement various subsets of these modules. be combined or rearranged in other ways. For example, a video player module is optionally combined with a music player module into a single module (eg, video and music player module 152 of FIG. 1A). In some embodiments, memory 102 optionally stores a subset of the modules and data structures identified above. Additionally, memory 102 optionally stores additional modules and data structures not described above.

一部の実施形態では、デバイス100は、デバイス上で予め定義された機能の組の動作がタッチスクリーン及び/又はタッチパッドを通じて排他的に実行されるデバイスである。デバイス100の動作のための主要な入力制御デバイスとしてタッチスクリーン及び/又はタッチパッドを使用することによって、デバイス100上の物理的な入力制御デバイス(プッシュボタン、ダイアルなど)の数が任意選択で削減される。 In some embodiments, device 100 is a device on which operations of a predefined set of functions are performed exclusively through a touch screen and/or touch pad. By using a touch screen and/or touchpad as the primary input control device for operation of device 100, the number of physical input control devices (push buttons, dials, etc.) on device 100 is optionally reduced. be done.

タッチスクリーン及び/又はタッチパッドを通じて排他的に実行される予め定義された機能のセットは、ユーザインタフェース間のナビゲーションを任意選択的に含む。一部の実施形態では、タッチパッドは、ユーザによってタッチされると、デバイス100上で表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。そのような実施形態では、「メニューボタン」はタッチパッドを使用して実装される。一部の他の実施形態では、メニューボタンは、タッチパッドの代わりに、物理プッシュボタン又は他の物理入力制御デバイスである。 The set of predefined functions performed exclusively through the touch screen and/or touch pad optionally includes navigation between user interfaces. In some embodiments, the touchpad, when touched by a user, navigates device 100 from any user interface displayed on device 100 to a main menu, home menu, or root menu. In such embodiments, the "menu button" is implemented using a touchpad. In some other embodiments, the menu button is a physical push button or other physical input control device instead of a touch pad.

図1Bは、一部の実施形態に従った、イベント処理のための例示的な構成要素を示すブロック図である。一部の実施形態では、メモリ102(図1A)又はメモリ370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)及び対応するアプリケーション136-1(例えば、上述のアプリケーション137~151、155、380~390のうちのいずれか)を含む。 FIG. 1B is a block diagram illustrating example components for event processing, according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or memory 370 (FIG. 3) includes event sorter 170 (e.g., within operating system 126) and corresponding applications 136-1 (e.g., applications 137-151, described above). 155, 380-390).

イベントソート部170は、イベント情報を受信し、イベント情報が配信されるアプリケーション136-1及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソート部170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。一部の実施形態では、アプリケーション136-1には、アプリケーションがアクティブ又は実行中のときに、タッチ感知ディスプレイ112上に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192が含まれる。一部の実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーション(単数又は複数)が現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。 The event sorting unit 170 receives event information and determines the application 136-1 to which the event information is distributed and the application view 191 of the application 136-1. The event sorting unit 170 includes an event monitor 171 and an event dispatcher module 174. In some embodiments, application 136-1 has application internal state 192 that indicates the current application view(s) displayed on touch-sensitive display 112 when the application is active or running. included. In some embodiments, device/global internal state 157 is used by event sorter 170 to determine which application(s) is currently active, and application internal state 192 provides event information. Used by event sorter 170 to determine the application view 191 to which the event will be distributed.

一部の実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用される再開情報、アプリケーション136-1によって表示されているか又は表示の準備がされている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを可能にするための状態待ち行列、及びユーザが行った前のアクションのリドゥ/アンドゥ待ち行列、のうちの1つ以上などの追加の情報を含む。 In some embodiments, application internal state 192 indicates resume information used when application 136-1 resumes execution, information that is being displayed or is being prepared to be displayed by application 136-1. one of user interface state information, a state queue for allowing the user to return to a previous state or view of the application 136-1, and a redo/undo queue of previous actions performed by the user. Contains additional information such as:

イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイ112上のユーザタッチ)についての情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を通じて)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。 Event monitor 171 receives event information from peripheral interface 118. Event information includes information about sub-events (eg, a user touch on touch-sensitive display 112 as part of a multi-touch gesture). Peripheral interface 118 transmits information received from I/O subsystem 106 or sensors such as proximity sensor 166, accelerometer(s) 168, and/or microphone 113 (through audio circuitry 110). The information that peripheral interface 118 receives from I/O subsystem 106 includes information from touch-sensitive display 112 or a touch-sensitive surface.

一部の実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118はイベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回るかつ/又は所定の期間よりも長い入力を受信すること)が存在するときのみ、イベント情報を送信する。 In some embodiments, event monitor 171 sends requests to peripheral interface 118 at predetermined intervals. In response, peripheral interface 118 sends event information. In other embodiments, peripheral interface 118 transmits event information only when there is a significant event (e.g., exceeding a predetermined noise threshold and/or receiving input for longer than a predetermined period of time). .

いくつかの実施形態では、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。 In some embodiments, event sorter 170 also includes a hit view determination module 172 and/or an active event recognizer determination module 173.

ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示した際に、1つ以上のビュー内のどこにおいてサブイベントが発生したかを判定するためのソフトウェア手続きを提供する。ビューは、制御部及びユーザがディスプレイ上で見ることが可能な他の要素で構成される。 Hit view determination module 172 provides software procedures for determining where within one or more views a sub-event occurs when touch-sensitive display 112 displays two or more views. A view consists of controls and other elements that a user can see on the display.

アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書においてアプリケーションビュー又はユーザインタフェースウィンドウと呼ばれる場合があるビューのセットであり、それらの中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに任意選択的に対応する。例えば、タッチが検出される最下位レベルのビューは任意選択で、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントの組は任意選択で、タッチに基づくジェスチャを開始する初期のタッチのヒットビューに少なくとも部分的に基づいて判定される。 Another aspect of a user interface associated with an application is a set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and touch-based gestures occur. The application view (of the respective application) in which the touch is detected optionally corresponds to a program level within the application's program hierarchy or view hierarchy. For example, the lowest-level view in which a touch is detected is optionally called the hit view, and the set of events that are recognized as appropriate input is optionally the initial touch that initiates a touch-based gesture. is determined based at least in part on the hit view of the hit view.

ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層において編成された複数のビューを有するとき、ヒットビュー判定モジュール172は、サブイベントを処理するべき階層内の最下位のビューとしてヒットビューを特定する。ほとんどの状況では、ヒットビューは、最初のサブイベント(例えば、イベント又は潜在的なイベントを形成するサブイベントのシーケンスにおける最初のサブイベント)が発生する最下位レベルのビューである。ヒットビューがヒットビュー判定モジュール172によって特定されると、ヒットビューは、それがヒットビューとして特定された、同じタッチ又は入力ソースに関連するすべてのサブイベントを一般的に受信する。 Hit view determination module 172 receives information related to touch-based gesture sub-events. When an application has multiple views organized in a hierarchy, the hit view determination module 172 identifies the hit view as the lowest view in the hierarchy to process the sub-event. In most situations, the hit view is the lowest level view where the first sub-event (eg, the first sub-event in a sequence of sub-events forming an event or potential event) occurs. Once a hit view is identified by the hit view determination module 172, the hit view generally receives all sub-events related to the same touch or input source for which it was identified as the hit view.

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。一部の実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含むすべてのビューはアクティブに関わっているビューであると判定し、したがって、すべてのアクティブに関わっているビューは、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントがある特定のビューに関連付けられた領域に完全に限定されたとしても、階層の上位のビューは、依然としてアクティブに関わっているビューであり続ける。 Active event recognizer determination module 173 determines which view(s) within the view hierarchy should receive a particular sequence of sub-events. In some embodiments, active event recognizer determination module 173 determines that only hit views should receive a particular sequence of sub-events. In other embodiments, the active event recognizer determination module 173 determines that all views that include the physical location of the sub-event are actively involved views, and therefore all actively involved views are: Determine that a particular sequence of sub-events should be received. In other embodiments, even if a touch sub-event is completely confined to the area associated with a particular view, the views higher up in the hierarchy remain the actively engaged views.

イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えば、イベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。一部の実施形態では、イベントディスパッチャモジュール174は、対応するイベント受信部182により取得されるイベント情報をイベント待ち行列に記憶する。 Event dispatcher module 174 dispatches event information to an event recognizer (eg, event recognizer 180). In embodiments that include an active event recognizer determination module 173, the event dispatcher module 174 delivers event information to the event recognizers determined by the active event recognizer determination module 173. In some embodiments, event dispatcher module 174 stores event information obtained by corresponding event receiver 182 in an event queue.

一部の実施形態では、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136-1が、イベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュール、又は接触/動きモジュール130などの、メモリ102に記憶された別のモジュールの一部である。 In some embodiments, operating system 126 includes event sorter 170. Alternatively, application 136-1 includes event sorter 170. In yet other embodiments, event sorter 170 is a standalone module or part of another module stored in memory 102, such as touch/motion module 130.

一部の実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインタフェースの対応するビュー内で発生するタッチイベントを処理する命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1のそれぞれのアプリケーションビュー191は、1つ以上のイベント認識部180を含む。一般的には、対応するアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット又はアプリケーション136-1がメソッド及び他の性質をそれから継承する上位レベルのオブジェクトなどの、別々のモジュールの一部である。一部の実施形態では、対応するイベントハンドラ190は、データアップデーター176、オブジェクトアップデーター177、GUIアップデーター178及び/又はイベントソータ170から受信されたイベントデータ179、のうちの1つ以上を含む。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176、オブジェクトアップデーター177、又はGUIアップデーター178を任意選択的に、利用若しくは呼び出す。あるいは、アプリケーションビュー191のうちの1つ以上は、1つ以上の対応するイベントハンドラ190を含む。また、一部の実施形態では、データアップデーター176、オブジェクトアップデーター177及びGUIアップデーター178のうちの1つ以上は、対応するアプリケーションビュー191に含まれる。 In some embodiments, application 136-1 includes multiple event handlers 190 and one or more application views 191, each including instructions for handling touch events that occur within a corresponding view of the application's user interface. include. Each application view 191 of application 136-1 includes one or more event recognizers 180. Typically, the corresponding application view 191 includes multiple event recognizers 180. In other embodiments, one or more of the event recognizers 180 are part of a separate module, such as a user interface kit or a higher level object from which the application 136-1 inherits methods and other properties. be. In some embodiments, the corresponding event handler 190 includes one or more of the following: data updater 176, object updater 177, GUI updater 178, and/or event data 179 received from event sorter 170. . Event handler 190 optionally utilizes or calls data updater 176, object updater 177, or GUI updater 178 to update application internal state 192. Alternatively, one or more of the application views 191 include one or more corresponding event handlers 190. Additionally, in some embodiments, one or more of data updater 176, object updater 177, and GUI updater 178 are included in a corresponding application view 191.

対応するイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、イベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。一部の実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択でサブイベント配信命令を含む)の少なくともサブセットも含む。 A corresponding event recognition unit 180 receives event information (eg, event data 179) from the event sorter 170 and identifies an event from the event information. The event recognition section 180 includes an event reception section 182 and an event comparison section 184. In some embodiments, event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188 (optionally including sub-event delivery instructions).

イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの動きについての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択で、サブイベントの速さ及び方向を含む。一部の実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへの、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ばれる)についての対応する情報を含む。 The event receiving unit 182 receives event information from the event sorter 170. The event information includes information about sub-events, such as touches or touch movements. Depending on the sub-event, the event information also includes additional information such as the location of the sub-event. When the sub-event involves a touch movement, the event information also optionally includes the speed and direction of the sub-event. In some embodiments, the event includes a rotation of the device from one orientation to another (e.g., from portrait to landscape or vice versa), and the event information includes the current orientation of the device ( (also referred to as device pose).

イベント比較部184は、イベント情報を予め定義されたイベント又はサブイベント定義と比較し、比較に基づいて、イベント又はサブイベントを判定し、又はイベント若しくはサブイベントの状態を判定若しくは更新する。一部の実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えば、イベント1(187-1)、イベント2(187-2)などのイベントの定義(例えば、予め定義された一連のサブイベント)を含む。一部の実施形態では、イベント187におけるサブイベントは、例えば、タッチの始め、タッチの終わり、タッチの移動、タッチの停止及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階の間の表示されたオブジェクト上の第1のタッチ(タッチの開始)、所定の段階の間の第1のリフトオフ(タッチの終了)、所定の段階の間の表示オブジェクト上の第2のタッチ(タッチの開始)、及び所定の段階の間の第2のリフトオフ(タッチの終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグ操作である。このドラッグ操作は、例えば、所定の段階の間の表示オブジェクト上でのタッチ(又は、接触)、タッチ感知ディスプレイ112を横断するタッチの移動、及びタッチのリフトオフ(タッチの終了)を含む。一部の実施形態において、イベントはまた、1つ以上の関連付けられたイベントハンドラ190に関する情報も含む。 The event comparison unit 184 compares the event information with a predefined event or sub-event definition, and based on the comparison, determines the event or sub-event, or determines or updates the state of the event or sub-event. In some embodiments, event comparator 184 includes event definition 186. The event definition 186 includes event definitions (eg, a predefined series of sub-events) such as event 1 (187-1) and event 2 (187-2). In some embodiments, sub-events in event 187 include, for example, start of touch, end of touch, move touch, stop touch, and multiple touches. In one embodiment, the definition for event 1 (187-1) is a double tap on a displayed object. A double tap is, for example, the first touch on the displayed object during a given stage (initiation of touch), the first lift-off (end of touch) during a given stage, the first touch on the displayed object during a given stage (end of touch), It includes a second touch (initiation of touch) on the displayed object, and a second lift-off (end of touch) during the predetermined phase. In another example, the definition of event 2 (187-2) is a drag operation on a displayed object. This drag operation includes, for example, a touch (or contact) on the display object during a predetermined step, a movement of the touch across the touch-sensitive display 112, and a lift-off of the touch. In some embodiments, an event also includes information about one or more associated event handlers 190.

一部の実施形態において、イベント定義187は、それぞれのユーザインタフェースオブジェクトに関するイベントの定義を含む。一部の実施形態において、イベント比較部184は、サブイベントに関連付けられたユーザインタフェースオブジェクトを判定するヒットテストを実行する。例えば、3つのユーザインタフェースオブジェクトがタッチ感知ディスプレイ112上に表示されるアプリケーションビューにおいて、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定するためのヒットテストを行う。表示されたそれぞれのオブジェクトが、対応するイベントハンドラ190と関連付けられている場合、イベント比較部は、ヒットテストの結果を使用して、どのイベントハンドラ190がアクティブ化されるべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトと関連付けられたイベントハンドラを選択する。 In some embodiments, event definitions 187 include definitions of events for each user interface object. In some embodiments, event comparator 184 performs a hit test to determine the user interface object associated with the sub-event. For example, in an application view where three user interface objects are displayed on touch-sensitive display 112, when a touch is detected on touch-sensitive display 112, event comparator 184 determines which of the three user interface objects Perform a hit test to determine whether it is associated with a touch (subevent). If each displayed object is associated with a corresponding event handler 190, the event comparator uses the results of the hit test to determine which event handler 190 should be activated. For example, the event comparator 184 selects an event handler associated with a sub-event and object that triggers a hit test.

一部の実施形態では、対応するイベント(187)についての定義はまた、一連のサブイベントがイベント認識部のイベントタイプに対応するか否かが判定される後まで、イベント情報の配信を遅延させる遅延アクションを含む。 In some embodiments, the definition for the corresponding event (187) also delays the delivery of event information until after it is determined whether the series of sub-events corresponds to the event recognizer's event type. Contains deferred actions.

対応するイベント認識部180が、一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断したとき、対応するイベント認識部180は、イベント不可能、イベント失敗又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部がもしあれば、そのイベント認識部が進行中のタッチに基づくジェスチャのサブイベントの追跡及び処理を続行する。 When the corresponding event recognition unit 180 determines that the series of sub-events does not match any of the events in the event definition 186, the corresponding event recognition unit 180 enters an event impossible, event failure, or event termination state; After that, ignore the next sub-event of the touch-based gesture. In this situation, other event recognizers, if any, remain active for the hit view and continue to track and process sub-events of the ongoing touch-based gesture.

一部の実施形態では、対応するイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ及び/又はリストを有するメタデータ183を含む。一部の実施形態では、メタデータ183は、イベント認識部が相互にどのように対話するか又は対話することが可能とされているかについて示す構成可能なプロパティ、フラグ、及び/又はリストを含む。一部の実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。 In some embodiments, the corresponding event recognizer 180 includes configurable properties, flags, and/or Contains metadata 183 having a list. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate how the event recognizers interact or are allowed to interact with each other. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate whether sub-events are distributed to various levels in the view hierarchy or program hierarchy.

一部の実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントと関連付けられたイベントハンドラ190をアクティブ化する。一部の実施形態では、それぞれのイベント認識部180は、イベントと関連付けられたイベント情報をイベントハンドラ190に配信する。イベントハンドラ190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。一部の実施形態では、イベント認識部180は、認識されたイベントと関連付けられたフラグを投入し、フラグと関連付けられたイベントハンドラ190は、フラグを捕らえ、予め定義された処理を実行する。 In some embodiments, each event recognizer 180 activates an event handler 190 associated with the event when one or more particular sub-events of the event are recognized. In some embodiments, each event recognizer 180 delivers event information associated with the event to an event handler 190. Activating the event handler 190 is separate from sending (and deferring sending) sub-events to each hit view. In some embodiments, the event recognizer 180 populates a flag associated with the recognized event, and the event handler 190 associated with the flag captures the flag and performs predefined processing.

一部の実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベントハンドラに、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベントに又はアクティブに関与しているビューと関連付けられたイベントハンドラは、イベント情報を受信し、予め定義された処理を実行する。 In some embodiments, event delivery instructions 188 include sub-event delivery instructions that deliver event information about sub-events without activating event handlers. Instead, sub-event delivery instructions deliver event information to event handlers associated with a series of sub-events or to actively participating views. Event handlers associated with views that are actively involved in a series of sub-events receive event information and perform predefined processing.

一部の実施形態では、データアップデーター176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データアップデーター176は、連絡先モジュール137で使用される電話番号を更新するか、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。一部の実施形態において、オブジェクトアップデーター177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデーター177は、新たなユーザインタフェースオブジェクトを作成するか、又はユーザインタフェースオブジェクトの位置を更新する。GUIアップデーター178は、GUIを更新する。例えば、GUIアップデーター178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送信する。 In some embodiments, data updater 176 creates and updates data used by application 136-1. For example, data updater 176 updates phone numbers used by contact module 137 or stores video files used by video player module. In some embodiments, object updater 177 creates and updates objects used by application 136-1. For example, object updater 177 creates a new user interface object or updates the position of a user interface object. The GUI updater 178 updates the GUI. For example, GUI updater 178 prepares display information and sends the display information to graphics module 132 for display on the touch-sensitive display.

一部の実施形態では、イベントハンドラ(単数又は複数)190は、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178を含むか、又はそれらへのアクセスを有する。一部の実施形態では、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, event handler(s) 190 includes or has access to data updater 176, object updater 177, and GUI updater 178. In some embodiments, data updater 176, object updater 177, and GUI updater 178 are included in a single module of each application 136-1 or application view 191. In other embodiments, they are included in more than one software module.

タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の議論はまた、入力デバイスで多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、そのすべてがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、単一若しくは複数のキーボードの押圧若しくは保持に任意選択的に連携されたマウスの移動及びマウスボタンの押圧、タッチパッド上でのタップ、ドラッグ、スクロールなどの接触移動、ペンスタイラス入力、デバイスの移動、口頭による指示検出された眼球運動、バイオメトリック入力、並びに/又はそれらのいずれかの組合せは、任意選択的に、認識されることになるイベントを定義するサブイベントに対応する入力として利用される。 The foregoing discussion regarding event handling of user touches on touch-sensitive displays also applies to other forms of user input for operating multifunction device 100 with input devices, all of which may occur on touch screens. Please understand that it does not start. For example, mouse movements and mouse button presses optionally coordinated with single or multiple keyboard presses or holds; touch movements such as tapping, dragging, and scrolling on a touchpad; pen stylus input; Movements, verbal commands detected eye movements, biometric inputs, and/or any combination thereof are optionally utilized as inputs corresponding to sub-events defining the event to be recognized. Ru.

図2は、一部の実施形態に係る、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、ユーザインタフェース(user interface)(UI)200内に1つ以上のグラフィックを、任意選択的に表示する。本実施形態、並びに後述する実施形態において、ユーザは、例えば、1本以上の指202(図には、正確な縮尺率では描かれていない)又は1つ以上のスタイラス203(図には、正確な縮尺率では描かれていない)を用いて、グラフィック上でジェスチャを行うことにより、グラフィックのうちの1つ以上を選択することができる。一部の実施形態では、ユーザが1つ以上のグラフィックとの接触を断った際に、その1つ以上のグラフィックの選択が生じる。一部の実施形態では、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上方向へ及び/又は下方向へ)、並びに/又は、デバイス100と接触した指のローリング(右から左へ、左から右へ、上方向へ及び/若しくは下方向へ)を、任意選択的に含む。一部の実現形態又は状況では、グラフィックとの不測の接触は、グラフィックを選択しない。例えば、選択に対応するジェスチャがタップであるとき、アプリケーションアイコンの上をスイープするスワイプジェスチャは任意選択で、対応するアプリケーションを選択しない。 FIG. 2 illustrates a portable multifunction device 100 with a touch screen 112, according to some embodiments. The touch screen optionally displays one or more graphics within a user interface (UI) 200. In this embodiment, as well as those described below, the user may, for example, use one or more fingers 202 (not drawn to scale) or one or more stylus 203 (not drawn to scale). (not drawn to scale), one or more of the graphics can be selected by making gestures on the graphics. In some embodiments, selection of one or more graphics occurs when the user breaks contact with the one or more graphics. In some embodiments, the gesture may include one or more taps, one or more swipes (left to right, right to left, up and/or down), and/or Optionally includes rolling of the contacted finger (right to left, left to right, upward and/or downward). In some implementations or situations, accidental contact with the graphic does not select the graphic. For example, when the gesture corresponding to selection is a tap, a swipe gesture that sweeps over an application icon optionally does not select the corresponding application.

デバイス100はまた、「ホーム」又はメニューボタン204などの、1つ以上の物理ボタンも任意選択的に含む。前述のように、メニューボタン204は、デバイス100上で任意選択的に、実行するアプリケーションのセット内の任意のアプリケーション136へのナビゲーションに任意選択的に、使用される。あるいは、一部の実施形態では、メニューボタンは、タッチスクリーン112に表示されたGUIにおけるソフトキーとして実装されている。 Device 100 also optionally includes one or more physical buttons, such as a “home” or menu button 204. As mentioned above, menu button 204 is optionally used to navigate to any application 136 in the set of applications optionally running on device 100. Alternatively, in some embodiments, the menu button is implemented as a softkey in a GUI displayed on touch screen 112.

一部の実施形態において、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスへの電源をオン/オフしてデバイスをロックするためのプッシュボタン206、音量調整ボタン(単数又は複数)208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、ボタンを押し下げて、既定の時間にわたってボタンを押し下げた状態で保持することによってデバイス上の電源をオン/オフし、ボタンを押し下げて、既定の時間が経過する前にボタンを解放することによってデバイスをロックし、及び/又は、デバイスのロックを解除する、若しくは、ロック解除処理を開始するように、任意選択的に用いられる。代替実施形態では、デバイス100はまた、マイクロフォン113を通して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力を受ける。デバイス100はまた、タッチスクリーン112上の接触の強度を検出するための1つ以上の接触強度センサ165、及び/又は、デバイス100のユーザに対する触知出力を生成するための1つ以上の触知出力生成器167も、任意選択的に含む。 In some embodiments, the device 100 includes a touch screen 112, a menu button 204, push buttons 206 for turning on/off the device and locking the device, volume control button(s) 208, It includes a personal identification module (SIM) card slot 210, a headset jack 212, and an external docking/charging port 124. The push button 206 turns on/off power on the device by pressing the button down and holding the button down for a predetermined period of time, and by pressing the button down and releasing the button before the predetermined period of time has elapsed. is optionally used to lock the device and/or unlock the device or initiate an unlocking process by doing so. In an alternative embodiment, device 100 also receives verbal input through microphone 113 to activate or deactivate some features. Device 100 also includes one or more touch intensity sensors 165 to detect the intensity of a touch on touch screen 112 and/or one or more tactile sensors 165 to generate a tactile output to a user of device 100. An output generator 167 is also optionally included.

図3は、一部の実施形態に従った、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。一部の実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク若しくは他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続するための1つ以上の通信バス320を一般的に含む。通信バス320は、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることがある)を、任意選択的に含む。デバイス300は、一般的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インタフェース330を含む。I/Oインタフェース330はまた、キーボード及び/又はマウス(又は他のポインティングデバイス)350並びにタッチパッド355、デバイス300上に触知出力を生成するための(例えば、図1Aを参照して上述された触知出力生成器(単数又は複数)167と同様の)触知出力生成器357、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ及び/又は図1Aを参照して上述された接触強度センサ(単数又は複数)165と同様の接触強度センサ)を任意選択的に含む。メモリ370は、DRAM、SRAM、DDR RAM又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、また、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを任意選択的に含む。メモリ370は、CPU(単数又は複数)310からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。一部の実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102に記憶されたプログラム、モジュール及びデータ構造、又はそれらのサブセットに類似する、プログラム、モジュール及びデータ構造を記憶する。更に、メモリ370は、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を任意選択的に記憶する。例えば、デバイス300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388及び/又はスプレッドシートモジュール390を任意選択的に記憶するが、ポータブル多機能デバイス100(図1A)のメモリ102は、これらのモジュールを任意選択的に記憶しない。 FIG. 3 is a block diagram of an exemplary multifunction device with a display and a touch-sensitive surface, according to some embodiments. Device 300 need not be portable. In some embodiments, device 300 is a laptop computer, a desktop computer, a tablet computer, a multimedia playback device, a navigation device, an educational device (such as a child's learning toy), a gaming system, or a control device (such as a home computer). controller). Device 300 generally includes one or more processing units (CPUs) 310, one or more network or other communication interfaces 360, memory 370, and one or more communication buses 320 for interconnecting these components. including. Communication bus 320 optionally includes circuitry (sometimes referred to as a chipset) that interconnects and controls communications between system components. Device 300 includes an input/output (I/O) interface 330 that includes a display 340, typically a touch screen display. I/O interface 330 also includes a keyboard and/or mouse (or other pointing device) 350 and touch pad 355 (e.g., as described above with reference to FIG. 1A) for producing tactile output on device 300. Tactile output generator(s) 357 (similar to tactile output generator(s) 167), sensors 359 (e.g., light sensors, acceleration sensors, proximity sensors, touch sensitive sensors and/or as described above with reference to FIG. 1A). contact intensity sensor(s) similar to contact intensity sensor(s) 165). Memory 370 includes high speed random access memory, such as DRAM, SRAM, DDR RAM or other random access solid state memory devices, and may also include one or more magnetic disk storage devices, optical disk storage devices, flash memory devices or other non-volatile storage devices. Optionally includes non-volatile memory, such as a non-volatile solid state storage device. Memory 370 optionally includes one or more storage devices located remotely from CPU(s) 310. In some embodiments, memory 370 stores programs, modules and data structures similar to those stored in memory 102 of portable multifunction device 100 (FIG. 1A), or a subset thereof. do. Additionally, memory 370 optionally stores additional programs, modules, and data structures that are not present in memory 102 of portable multifunction device 100. For example, the memory 370 of the device 300 optionally stores a drawing module 380, a presentation module 382, a word processing module 384, a website creation module 386, a disk authoring module 388, and/or a spreadsheet module 390; Memory 102 of functional device 100 (FIG. 1A) optionally does not store these modules.

上記で特定された図3の要素のそれぞれは任意選択的に、前述のメモリデバイスのうち1つ以上に記憶される。上記で特定されたモジュールのうちのそれぞれは、上述した機能を実行する命令セットに対応する。上記で特定されたモジュール又はプログラム(例えば、命令セット)は、任意選択的に、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、それゆえ、様々な実施形態では、これらのモジュールの様々なサブセットを組み合わせるか、又は他の方式で再編成する。一部の実施形態では、メモリ370は、上記で特定されたモジュール及びデータ構造のサブセットを任意選択的に記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the elements of FIG. 3 identified above are optionally stored in one or more of the aforementioned memory devices. Each of the modules identified above corresponds to a set of instructions that perform the functions described above. The modules or programs (e.g., instruction sets) identified above optionally need not be implemented as separate software programs, procedures, or modules, and therefore, in various embodiments, these modules combining or otherwise reorganizing various subsets of the . In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. Additionally, memory 370 optionally stores additional modules and data structures not described above.

ここで、例えばポータブル多機能デバイス100上に、任意選択的に実装されるユーザインタフェースの実施形態に着目する。 Attention is now directed to embodiments of user interfaces that are optionally implemented, for example on portable multifunction device 100.

図4Aは、一部の実施形態に係る、ポータブル多機能デバイス100上のアプリケーションのメニューに関する例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。一部の実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー及びWi-Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetooth(登録商標)インジケータ405、
●バッテリ状態インジケータ406、
●下記などの、頻繁に利用されるアプリケーション用のアイコンを含むトレー408、
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされる、ブラウザモジュール147用のアイコン420、及び
○「iPod」とラベル付けされる、iPod(登録商標)(Apple Inc.の商標)モジュール152とも称されるビデオ及び音楽プレーヤモジュール152用のアイコン422、及び
●下記などの、他のアプリケーション用のアイコン、
○「メッセージ」とラベル付けされるIMモジュール141のためのアイコン424、
○「カレンダ」とラベル付けされる、カレンダモジュール148用のアイコン426、
○「写真」とラベル付けされる、画像管理モジュール144用のアイコン428、
○「カメラ」とラベル付けされる、カメラモジュール143用のアイコン430、
○「オンラインビデオ」とラベル付けされる、オンラインビデオモジュール155用のアイコン432、
○「株価」とラベル付けされる、株価ウィジェット149-2用のアイコン434、
○「地図」とラベル付けされる、地図モジュール154用のアイコン436、
○「天気」とラベル付けされる、天気ウィジェット149-1用のアイコン438、
○「時計」とラベル付けされる、アラーム時計ウィジェット149-4用のアイコン440、
○「トレーニングサポート」とラベル付けされる、トレーニングサポートモジュール142用のアイコン442、
○「メモ」とラベル付けされる、メモモジュール153用のアイコン444、及び
○デバイス100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、「設定」とラベル付けされる、設定アプリケーション若しくはモジュール用のアイコン446。
FIG. 4A illustrates an example user interface for a menu of applications on portable multifunction device 100, according to some embodiments. A similar user interface is optionally implemented on device 300. In some embodiments, user interface 400 includes the following elements, or a subset or superset thereof.
● signal strength indicator(s) 402 for wireless communication(s) such as cellular and Wi-Fi signals;
Time 404,
●Bluetooth (registered trademark) indicator 405,
Battery status indicator 406,
- A tray 408 containing icons for frequently used applications, such as:
o Icon 416 for the telephone module 138, labeled "Phone", optionally including an indicator 414 of the number of missed calls or voice mail messages;
o an icon 418 for the email client module 140 labeled "Mail", optionally including an indicator 410 of the number of unread emails;
o An icon 420 for the browser module 147, labeled "Browser," and o A video and music, also referred to as the iPod(R) (trademark of Apple Inc.) module 152, labeled "iPod." An icon 422 for the player module 152, and icons for other applications, such as:
o Icon 424 for IM module 141 labeled "Message";
o icon 426 for calendar module 148, labeled "Calendar";
o an icon 428 for the image management module 144, labeled "Photos";
o icon 430 for camera module 143, labeled "camera";
o icon 432 for online video module 155, labeled "online video";
o Icon 434 for the stock price widget 149-2, labeled "stock price";
o Icon 436 for map module 154, labeled "Map";
o Icon 438 for the weather widget 149-1, labeled "Weather";
o icon 440 for the alarm clock widget 149-4, labeled "clock";
o icon 442 for the training support module 142, labeled "Training Support";
o an icon 444 for the notes module 153, labeled "Notes"; and o a settings application or module labeled "Settings" that provides access to settings regarding the device 100 and its various applications 136. Icon 446 for.

図4Aに示されるアイコンのラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152用のアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる。他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。一部の実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。一部の実施形態では、特定のアプリケーションアイコンのラベルは、特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。 Note that the icon labels shown in FIG. 4A are merely exemplary. For example, icon 422 for video and music player module 152 is labeled "Music" or "Music Player." Other labels are optionally used for various application icons. In some embodiments, the label for each application icon includes the name of the application corresponding to the respective application icon. In some embodiments, the label of a particular application icon is different from the name of the application that corresponds to the particular application icon.

図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)から分離するタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を備えるデバイス(例えば、図3のデバイス300)上の、例示的なユーザインタフェースを示す。デバイス300はまた、タッチ感知面451上の接触の強度を検出するための1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)及び/又はデバイス300のユーザに対して触知出力を生成するための1つ以上の触知出力生成器357を任意選択的に含む。 FIG. 4B shows an example screen on a device (e.g., device 300 of FIG. 3) comprising a touch-sensitive surface 451 (e.g., tablet or touchpad 355 of FIG. 3) separate from a display 450 (e.g., touchscreen display 112). This shows a simple user interface. Device 300 also includes one or more touch intensity sensors (e.g., one or more of sensors 359) for detecting the intensity of a touch on touch-sensitive surface 451 and/or a tactile sensor for a user of device 300. Optionally includes one or more tactile output generators 357 for generating output.

以下の実施例のうちのいくつかはタッチスクリーンディスプレイ112上での入力(タッチ感知面とディスプレイとが組み合わされている場合)を参照して説明されるが、一部の実施形態では、デバイスは、図4Bに示されるように、ディスプレイとは別個のタッチ感知面上での入力を検出する。一部の実施形態では、このタッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bの453)に対応する主軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、タッチ感知面451との接触(例えば、図4Bの460及び462)を、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bでは、460は468に対応し、462は470に対応する)にて検出する。このように、タッチ感知面がディスプレイから分離するものである場合、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されたユーザ入力(例えば、接触460及び462、並びにそれらの移動)が、多機能デバイスのディスプレイ(例えば、図4Bでの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。 Although some of the examples below are described with reference to input on a touch screen display 112 (where the touch-sensitive surface and display are combined), in some embodiments the device , detects input on a touch-sensitive surface separate from the display, as shown in FIG. 4B. In some embodiments, the touch-sensitive surface (e.g., 451 in FIG. 4B) has a major axis (e.g., 452 in FIG. 4B) that corresponds to a major axis (e.g., 453 in FIG. 4B) on the display (e.g., 450). has. According to these embodiments, the device makes contact with the touch-sensitive surface 451 (e.g., 460 and 462 in FIG. 4B) at positions corresponding to their respective positions on the display (e.g., 460 is 468 in FIG. 4B). and 462 corresponds to 470). Thus, user inputs (e.g., contacts 460 and 462 and movement thereof) detected by the device on the touch-sensitive surface (e.g., 451 in FIG. 4B) if the touch-sensitive surface is separate from the display. is used by the device to operate a user interface on the multifunction device's display (eg, 450 in FIG. 4B). It should be understood that similar methods are optionally used for other user interfaces described herein.

更に加えて、以下の実施例は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャ)を参照して説明されるが、一部の実施形態では、それらの指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスに基づく入力又はスタイラス入力)で置き換えられることを理解されたい。例えば、スワイプジェスチャは、マウスクリックと任意選択的に置き換えられ(例えば、接触の代わりに)、その後、スワイプの経路に沿って(例えば、接触の移動の代わりに)カーソルの移動が行われる。別の実施例として、タップジェスチャは任意選択で、カーソルがタップジェスチャの位置の上に位置する間のマウスクリックと置き換えられる(例えば、接触の検出、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスは任意選択で同時に使用され、又はマウス及び指の接触が任意選択で同時に使用されることを理解されたい。 Additionally, although the examples below are described primarily with reference to finger inputs (e.g., finger contacts, finger tap gestures, finger swipe gestures), some embodiments It should be understood that one or more of the inputs may be replaced with input from another input device (eg, mouse-based input or stylus input). For example, a swipe gesture is optionally replaced with a mouse click (e.g., instead of a contact), followed by cursor movement along the path of the swipe (e.g., instead of a contact movement). As another example, a tap gesture is optionally replaced with a mouse click while the cursor is positioned over the location of the tap gesture (e.g., instead of detecting a contact and subsequently stopping detecting the contact) . Similarly, it should be understood that when multiple user inputs are detected simultaneously, multiple computer mice are optionally used simultaneously, or mouse and finger contacts are optionally used simultaneously.

図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。一部の実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~図4B)に関して記載した特徴のうちの一部又はすべてを含むことができる。一部の実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以後、タッチスクリーン504とする、を有する。タッチスクリーン504の代わりに、又はそれに追加して、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及びデバイス300と同様に、一部の実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出するための1つ以上の強度センサを有する。タッチスクリーン504(又は、タッチ感知面)の1つ以上の強度センサは、タッチの強度を表現する出力データを提供することができる。デバイス500のユーザインタフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチは、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。 FIG. 5A shows an example personal electronic device 500. Device 500 includes a body 502. In some embodiments, device 500 can include some or all of the features described with respect to devices 100 and 300 (eg, FIGS. 1A-4B). In some embodiments, device 500 has a touch-sensitive display screen 504, hereinafter touchscreen 504. Instead of or in addition to touch screen 504, device 500 has a display and a touch-sensitive surface. Similar to device 100 and device 300, in some embodiments, touch screen 504 (or touch-sensitive surface) optionally includes a touch screen for detecting the intensity of contact (e.g., a touch) being applied. It has more than one intensity sensor. One or more intensity sensors on the touch screen 504 (or touch-sensitive surface) can provide output data representative of the intensity of the touch. The user interface of device 500 can respond to touches based on the intensity of the touch, meaning that different intensities of touches can invoke different user interface actions on device 500.

タッチ強度を検出して処理するための例示的な技術は、例えば、関連出願である、2013年5月8日出願の「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」と題された国際特許出願第PCT/US2013/040061号(国際公開第2013/169849号として公開)、及び2013年11月11日出願の「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」と題された同第PCT/US2013/069483号(国際公開第2014/105276号として公開)にみられ、これらの文献のそれぞれは、全体が参照により本明細書に組み込まれる。 Exemplary techniques for detecting and processing touch intensity are described, for example, in the related application "Device, Method, and Graphical User Interface for Displaying User Interface Objects Corr.," filed May 8, 2013. esponding to an Application” International Patent Application No. PCT/US2013/040061 (published as International Publication No. 2013/169849) entitled Device, Method, and Graphical User Interface for Transitioning Between Touch Input to PCT/US2013/069483 entitled ``Display Output Relationships'' (published as WO 2014/105276), each of which is incorporated herein by reference in its entirety.

一部の実施形態では、デバイス500は、1つ以上の入力機構506及び入力機構508を有する。入力機構506及び508は、含まれる場合には、物理的なものとすることができる。物理入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。一部の実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。かかるアタッチメント機構は、含まれる場合には、例えば、デバイス500を、帽子、アイウェア、イヤリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計バンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどに、取り付けることを可能にする。これらのアタッチメント機構は、ユーザによってデバイス500が着用されることを可能にし得る。 In some embodiments, device 500 has one or more input mechanism 506 and input mechanism 508. Input mechanisms 506 and 508, if included, may be physical. Examples of physical input mechanisms include push buttons and rotatable mechanisms. In some embodiments, device 500 has one or more attachment mechanisms. Such attachment mechanisms, if included, may, for example, attach device 500 to hats, eyewear, earrings, necklaces, shirts, jackets, bracelets, watch bands, chains, pants, belts, shoes, wallets, backpacks, etc. allow it to be installed. These attachment mechanisms may allow device 500 to be worn by a user.

図5Bは、例示的なパーソナル電子デバイス500を示す。一部の実施形態では、デバイス500は、図1A、図1B及び図3に関して記載した構成要素の一部又はすべてを含むことができる。デバイス500は、I/O部514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/O部514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に、強度センサ524(例えば、接触強度センサ)と、を有し得る。更に、I/O部514は、Wi-Fi、Bluetooth(登録商標)、近距離通信(NFC)、セルラー及び/又は他の無線通信技術を使用して、アプリケーション及びオペレーティングシステムのデータを受信するための通信ユニット530に接続し得る。デバイス500は、入力機構506及び/又は入力機構508を含むことができる。入力機構506は、任意選択的に、例えば、回転可能入力デバイス、又は押下可能かつ回転可能な入力デバイスである。入力機構508は、任意選択的に、一部の実施例では、ボタンである。 FIG. 5B shows an example personal electronic device 500. In some embodiments, device 500 can include some or all of the components described with respect to FIGS. 1A, 1B, and 3. Device 500 has a bus 512 operably coupling an I/O portion 514 to one or more computer processors 516 and memory 518. I/O portion 514 can be connected to display 504, which can have a touch-sensitive component 522 and, optionally, an intensity sensor 524 (eg, a touch intensity sensor). Additionally, the I/O unit 514 is configured to receive application and operating system data using Wi-Fi, Bluetooth, near field communication (NFC), cellular, and/or other wireless communication technologies. may be connected to a communication unit 530 of. Device 500 can include an input mechanism 506 and/or an input mechanism 508. Input mechanism 506 is optionally, for example, a rotatable input device or a depressable and rotatable input device. Input mechanism 508 is optionally, in some examples, a button.

入力機構508は、任意選択的に、一部の実施例では、マイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538及び/又はこれらの組み合わせなどの、様々なセンサを含むものであり、それらのすべては、I/O部514に動作可能に接続できる。 Input mechanism 508 is optionally, in some examples, a microphone. Personal electronic device 500 optionally includes various sensors, such as a GPS sensor 532, an accelerometer 534, a direction sensor 540 (e.g., a compass), a gyroscope 536, a motion sensor 538, and/or combinations thereof. , all of which can be operably connected to I/O section 514.

パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶するための1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、それらの命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、コンピュータプロセッサに、プロセス700、900、1100、1300及び1500(図7A~図7B、図9A~図9B、図11A~図11B、図13A~図13B、及び図15A~図15B)を含む、以下に説明する技術を実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置若しくはデバイスによって、又はこれらと関連して使用するためのコンピュータ実行可能命令を有形的に収容又は記憶することができる、任意の媒体とすることができる。一部の例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。一部の例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体には、磁気的記憶装置、光学的記憶装置及び/又は半導体記憶装置を挙げることができるが、これらに限定されない。そのような記憶装置の例には、磁気ディスク、CD、DVD又はBlu-ray技術に基づく光ディスク、及び、フラッシュ、ソリッドステートドライブなどの永続的ソリッドステートメモリが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の構成要素又は追加的構成要素を、複数の構成で含み得る。 Memory 518 of personal electronic device 500 may include one or more non-transitory computer-readable storage media for storing computer-executable instructions that can be executed by one or more computer processors 516. Then, for example, a computer processor is configured to perform processes 700, 900, 1100, 1300, and 1500 (FIGS. 7A-7B, 9A-9B, 11A-11B, 13A-13B, and 15A-15B). ), the techniques described below can be performed. A computer-readable storage medium can be any medium that can tangibly contain or store computer-executable instructions for use by or in connection with an instruction execution system, apparatus, or device. In some examples, the storage medium is a temporary computer-readable storage medium. In some examples, the storage medium is a non-transitory computer-readable storage medium. Non-transitory computer-readable storage media may include, but are not limited to, magnetic storage, optical storage, and/or semiconductor storage. Examples of such storage devices include magnetic disks, optical disks based on CD, DVD or Blu-ray technology, and persistent solid state memories such as flash, solid state drives. Personal electronic device 500 is not limited to the components and configuration of FIG. 5B, but may include other or additional components in multiple configurations.

本明細書において使用するとき、用語「アフォーダンス」は、デバイス100、300及び/又は500(図1A、図3及び図5A~図5B)のディスプレイ画面上に任意選択的に表示されるユーザ対話式のグラフィックユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン及びテキスト(例えば、ハイパーリンク)はそれぞれ、任意選択的に、アフォーダンスを構成する。 As used herein, the term "affordance" refers to user interaction options that are optionally displayed on the display screen of the device 100, 300 and/or 500 (FIGS. 1A, 3 and 5A-5B). refers to a graphic user interface object. For example, images (eg, icons), buttons, and text (eg, hyperlinks) each optionally constitute affordances.

本明細書において使用するとき、用語「フォーカスセレクタ」は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の位置マーカを含む一部の実現例において、タッチ感知面(例えば、図3のタッチパッド355、又は図4Bのタッチ感知面451)上で入力(例えば、押圧入力)が検出された時に、カーソルが特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の上にある時、カーソルは「フォーカスセレクタ」として機能し、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接的な対話を可能にする、タッチスクリーンディスプレイ(例えば、図1Aでのタッチ感知ディスプレイシステム112、又は図4Aでのタッチスクリーン112)を含む一部の実現例では、タッチスクリーン上で検出される接触が「フォーカスセレクタ」としての役割を果たすことにより、入力(例えば、接触による押圧入力)が、タッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の位置で検出されると、その特定のユーザインタフェース要素が、検出された入力に従って調節される。一部の実現形態では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、(例えば、タブキー又は矢印キーを使用してフォーカスを1つのボタンから別のボタンに移動させることによって)ユーザインタフェースの1つの領域からユーザインタフェースの別の領域にフォーカスが移動され、それらの実現形態では、フォーカスセレクタは、ユーザインタフェースの異なる領域の間のフォーカスの移動に従って移動する。フォーカスセレクタによってとられる具体的な形態とは関わりなく、フォーカスセレクタは、全般的に、ユーザの意図したユーザインタフェースとの対話を通信するために(例えば、ユーザが対話することを意図しているユーザインタフェースの要素をデバイスに示すことによって)、ユーザによって制御されるユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)である。例えば、押圧入力がタッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で検出されたときに、対応するボタンの上にあるフォーカスセレクタ(例えば、カーソル、接触又は選択ボックス)の位置は、(デバイスのディスプレイ上に示されている他のユーザインタフェース要素ではなく)対応するボタンをユーザがアクティブ化しようとしていることを示すものである。 As used herein, the term "focus selector" refers to an input element that indicates the current portion of a user interface with which a user is interacting. In some implementations that include a cursor or other location marker, an input (e.g., a press input) is detected on a touch-sensitive surface (e.g., touch pad 355 in FIG. 3 or touch-sensitive surface 451 in FIG. 4B). Sometimes, when the cursor is over a particular user interface element (e.g., a button, window, slider, or other user interface element), the cursor acts as a "focus selector" and the particular user interface element is detected. adjusted according to input. Some implementations include a touch screen display (e.g., touch sensitive display system 112 in FIG. 1A or touch screen 112 in FIG. 4A) that allows direct interaction with user interface elements on the touch screen display. In an example, a touch detected on a touchscreen acts as a "focus selector" such that an input (e.g., a contact press input) is directed to a specific user interface element (e.g., a button, window, slider, or other user interface element), that particular user interface element is adjusted in accordance with the detected input. In some implementations, without corresponding cursor movement or contact movement on the touchscreen display (e.g., by moving focus from one button to another using the tab or arrow keys) Focus is moved from one area of the user interface to another area of the user interface, and in those implementations, the focus selector moves according to the movement of focus between different areas of the user interface. Regardless of the specific form taken by a focus selector, a focus selector is generally used to communicate a user's intended interaction with a user interface (e.g. A user interface element (or a touch on a touch screen display) that is controlled by a user (by presenting the element of the interface to the device). For example, when a press input is detected on a touch-sensitive surface (e.g., a touchpad or touchscreen), the position of a focus selector (e.g., a cursor, touch, or selection box) over the corresponding button is indicates that the user is activating the corresponding button (rather than any other user interface element shown on the display).

本明細書及び特許請求の範囲において使用するとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく接触の特性を指す。一部の実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、予め定義された数の強度サンプル、あるいは予め定義されたイベントに対する(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度における増大を検出する前若しくは後、及び/又は接触の強度における減少を検出する前若しくは後)予め定められた時間期間の間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)に収集された強度サンプルのセットに任意選択的に基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均値(mean value)、接触の強度の平均値(average value)、接触の強度の上位10%値、接触の強度の最大値の半分の値、接触の強度の最大値の90%の値など、のうちの1つ以上に基づく。一部の実施形態では、特性強度を判定するために、(例えば、特性強度が経時的な接触の強度の平均であるとき)接触の持続期間が使用される。一部の実施形態では、動作がユーザによって実行されたか否かを判定するために、特性強度を1つ以上の強度閾値のセットと比較する。例えば、1つ以上の強度閾値のセットは、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この実施例では、第1の閾値を越えない特性強度を有する接触の結果として第1の動作が実行され、第1の強度閾値を越え、第2の強度閾値を越えない特性強度を有する接触の結果として第2の動作が実行され、第2の閾値を越える特性強度を有する接触の結果として第3の動作が実行される。一部の実施形態では、特性強度と1つ以上の閾値との間の比較が、第1の動作又は第2の動作のいずれを実行するかを判定するために使用されるのではなく、1つ以上の動作を実行するか否か(例えば、各動作を実行するのか、又は各動作の実行を見合わせるのか)を判定するために使用される。 As used herein and in the claims, the term "characteristic intensity" of a contact refers to a characteristic of the contact that is based on one or more strengths of the contact. In some embodiments, the characteristic intensity is based on multiple intensity samples. Characteristic intensities are determined by a predefined number of intensity samples or for predefined events (e.g., after detecting a touch, before detecting liftoff of a touch, before or after detecting the start of movement of a touch, for a predetermined period of time (e.g., before or after detecting an increase in the intensity of the contact, and/or before or after detecting a decrease in the intensity of the contact). .1, 0.2, 0.5, 1, 2, 5, 10 seconds). The characteristic strength of contact is optionally a maximum value of contact strength, a mean value of contact strength, an average value of contact strength, a top 10% value of contact strength, a contact based on one or more of the following: half the maximum value of the contact strength, 90% of the maximum contact strength value, etc. In some embodiments, the duration of the contact is used to determine the characteristic strength (eg, when the characteristic strength is the average of the strength of the contact over time). In some embodiments, the characteristic intensity is compared to a set of one or more intensity thresholds to determine whether the action was performed by the user. For example, the set of one or more intensity thresholds optionally includes a first intensity threshold and a second intensity threshold. In this embodiment, the first action is performed as a result of a contact having a characteristic intensity that does not exceed a first threshold, and the first action is performed as a result of a contact that has a characteristic intensity that exceeds the first intensity threshold and does not exceed a second intensity threshold. A second action is performed as a result, and a third action is performed as a result of a contact having a characteristic strength that exceeds the second threshold. In some embodiments, a comparison between a characteristic strength and one or more thresholds is used to determine whether to perform the first action or the second action; It is used to determine whether to perform one or more actions (eg, to perform each action or to refrain from performing each action).

一部の実施形態では、特性強度を判定する目的で、ジェスチャの一部が特定される。例えば、タッチ感知面は、任意選択的に、接触の強度が増加する、開始位置から遷移して終了位置まで達する連続的なスワイプ接触を受け取る。この実施例では、終了位置における接触の特性強度は、任意選択的に、連続的なスワイプ接触全体ではなく、そのスワイプ接触の一部分のみ(例えば、終了位置におけるスワイプ接触の部分のみ)に基づく。一部の実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムをそのスワイプ接触の強度に適用する。例えば、平滑化アルゴリズムは任意選択で、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。一部の状況では、それらの平滑化アルゴリズムは、特性強度を判定する目的で、スワイプ接触の強度における小幅な上昇又は低下を除去する。 In some embodiments, a portion of the gesture is identified for purposes of determining characteristic strength. For example, the touch-sensitive surface optionally receives successive swipe contacts that transition from a starting position to an ending position, with the intensity of the contact increasing. In this example, the characteristic strength of the contact at the end position is optionally based on only a portion of the swipe contact (eg, only the portion of the swipe contact at the end position) rather than the entire continuous swipe contact. Some embodiments optionally apply a smoothing algorithm to the strength of the swipe contact before determining the characteristic strength of the contact. For example, the smoothing algorithm optionally includes one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and/or an exponential smoothing algorithm. In some situations, these smoothing algorithms remove small increases or decreases in the strength of swipe contacts for the purpose of determining characteristic strength.

タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押圧強度閾値、深い押圧強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けする。一部の実施形態では、軽い押圧強度閾値は、物理マウスのボタン又はトラックパッドをクリックすることと一般的に関連付けられた操作をデバイスが実行する強度に対応する。一部の実施形態では、深い押圧強度閾値は、物理マウスのボタン又はトラックパッドをクリックすることと典型的に関連付けられた操作とは異なる操作をデバイスが実行する強度に対応する。一部の実施形態では、軽い押圧強度閾値を下回る(例えば、かつ、それを下回ると接触がもはや検出されないわずかな接触検出強度閾値を上回る)特性強度で接触が検出される場合、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従って、フォーカスセレクタを移動させる。概して、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の異なるセット間で一貫している。 The intensity of the contact on the touch-sensitive surface is optionally determined by one or more intensity thresholds, such as a touch detection intensity threshold, a light press intensity threshold, a deep press intensity threshold, and/or one or more other intensity thresholds. Characterize against. In some embodiments, the light press intensity threshold corresponds to an intensity at which the device performs an operation commonly associated with clicking a physical mouse button or trackpad. In some embodiments, the deep press intensity threshold corresponds to an intensity at which the device performs an operation that is different from an operation typically associated with clicking a physical mouse button or trackpad. In some embodiments, if a touch is detected with a characteristic intensity below a light press intensity threshold (e.g., and above a slight touch detection intensity threshold below which the touch is no longer detected), the device The focus selector is moved in accordance with the movement of the contact on the touch-sensitive surface without performing an operation associated with a press intensity threshold or a deep press intensity threshold. Generally, unless otherwise specified, these intensity thresholds are consistent across different sets of user interface diagrams.

軽い押圧強度閾値を下回る強度から、軽い押圧強度閾値と深い押圧強度閾値との間の強度への接触の特性強度の増大は、「軽い押圧」入力と呼ばれる場合がある。深い押圧強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への接触の特性強度の増大は、「深い押圧」入力と呼ばれる場合がある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれる場合がある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれる場合がある。一部の実施形態では、接触検出強度閾値はゼロである。一部の実施形態では、接触検出強度閾値はゼロより大きい。 An increase in the characteristic intensity of the contact from an intensity below the light press intensity threshold to an intensity between the light press intensity threshold and the deep press intensity threshold may be referred to as a "light press" input. An increase in the characteristic intensity of contact from an intensity below a deep press intensity threshold to an intensity above a deep press intensity threshold may be referred to as a "deep press" input. An increase in the characteristic intensity of a touch from an intensity below the touch detection intensity threshold to an intensity between the touch detection intensity threshold and the light press intensity threshold may be referred to as detecting a touch on the touch surface. A decrease in the characteristic intensity of the touch from an intensity above the touch detection intensity threshold to an intensity below the touch detection intensity threshold may be referred to as detecting lift-off of the touch from the touch surface. In some embodiments, the touch detection intensity threshold is zero. In some embodiments, the touch detection intensity threshold is greater than zero.

本明細書で説明される一部の実施形態では、1つ以上の操作は、それぞれの押圧入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(又は、複数の接触)で実行されるそれぞれの押圧入力を検出したことに応じて実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は、複数の接触)の強度における増大を検出したことに少なくとも部分的に基づいて検出される。一部の実施形態では、それぞれの動作は、押圧入力強度閾値を上回る、それぞれの接触の強度の増大(例えば、それぞれの押圧入力の「ダウンストローク」)の検出に応じて実行される。一部の実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及び後続の押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、後続の押圧入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)の検出に応じて実行される。 In some embodiments described herein, one or more operations are performed in response to detecting a gesture that includes each press input or on each contact (or contacts). each press input is performed in response to detecting a respective press input, the respective press input being based at least in part on detecting an increase in intensity of the contact (or contacts) above a press input intensity threshold. Detected. In some embodiments, the respective actions are performed in response to detecting an increase in the intensity of the respective contact (eg, a “downstroke” of the respective press input) above a press input intensity threshold. In some embodiments, the press inputs include increasing the intensity of each contact above a press input intensity threshold and decreasing the intensity of subsequent contacts below the press input intensity threshold, and each action is performed in response to detecting a decrease in the intensity of the respective contact (eg, an "upstroke" of the respective press input) below an input threshold.

一部の実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある不測の入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との予め定義された関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりもX強度単位低いか、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な比率である)。よって、一部の実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及び後続の押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、そのヒステリシス強度閾値を下回る後続のそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)の検出に応じて実行される。同様に、一部の実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、ヒステリシス強度以下の強度への後続の接触の強度の減少を検出するときのみ検出され、それぞれの動作は、その押圧入力の検出(例えば、状況に応じて、接触の強度の増大、又は接触の強度の減少)に応じて実行される。 In some embodiments, the device employs intensity hysteresis to avoid unexpected inputs, which may be referred to as "jitter," and the device employs a hysteresis intensity that has a predefined relationship with a press input intensity threshold. Define or select a threshold (e.g., the hysteresis intensity threshold is X intensity units lower than the press input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable proportion of the press input intensity threshold) ). Thus, in some embodiments, the press input includes an increase in the intensity of each contact above a press input intensity threshold and a decrease in the intensity of a subsequent contact below a hysteresis intensity threshold corresponding to the press input intensity threshold; The respective action is performed in response to detecting a decrease in the intensity of the respective subsequent contact (eg, an "upstroke" of the respective press input) below the hysteresis intensity threshold. Similarly, in some embodiments, the press input causes the device to increase the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the press input intensity threshold, and optionally to an intensity below the hysteresis intensity. is detected only when detecting a decrease in the intensity of a subsequent contact to the is executed.

説明を容易にするために、押圧入力強度閾値と関連付けられた押圧入力に応じて、又は押圧入力を含むジェスチャに応じて実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応じてトリガされる。加えて、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて動作が実行されるとして説明される実施例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。 For ease of explanation, the description of actions performed in response to a press input associated with a press input intensity threshold, or in response to a gesture that includes a press input, optionally exceeds a press input intensity threshold. an increase in the intensity of the contact, an increase in the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the press input intensity threshold, a decrease in the intensity of the contact below the press input intensity threshold, and/or corresponding to the press input intensity threshold. Triggered in response to detecting any decrease in the intensity of the contact below a hysteresis intensity threshold. Additionally, in embodiments described as having an action performed in response to detecting a decrease in the intensity of the contact below a press input intensity threshold, the operation optionally corresponds to the press input intensity threshold; and in response to detecting a decrease in the intensity of the contact below a hysteresis intensity threshold.

ここで、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上に実装されるユーザインタフェース(「UI」)及び関連するプロセスの実施形態に着目する。 Attention is now directed to embodiments of user interfaces ("UIs") and associated processes implemented on electronic devices, such as portable multifunction device 100, device 300, or device 500.

図6A~図6BQは、一部の実施形態に係る、メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図7A~図7Bにおける処理を含む、以下で説明される処理を例示するために使用される。 6A-6BQ illustrate example user interfaces for displaying visual effects in a messaging application, according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 7A-7B.

図6Aは、一部の場合ではタッチ感知ディスプレイである、ディスプレイ601を有するデバイス600を描く。一部の実施形態では、デバイス600はまた、光スペクトルの一部(例えば、可視光、赤外光、又は紫外光)を表すデータをキャプチャできるイメージセンサを、最低限に含むカメラ602を含む。一部の実施形態では、カメラ602は、複数の画像センサ及び/又は他のタイプのセンサを含む。一部の実施形態では、カメラ602は、検出された光を表すデータをキャプチャすることに加えて、深度データなどの、他のタイプのデータをキャプチャすることができる。例えば、一部の実施形態では、カメラ602はまた、スペックル、飛行時間、視差、又は焦点に基づく技術を使用して、深度データをキャプチャする。デバイス600がカメラ602を使用してキャプチャする画像データは、カメラの視野内のシーンに対する光スペクトルの一部に対応するデータを含む。加えて、一部の実施形態では、キャプチャされた画像データはまた、光データの深度データを含む。一部の他の実施形態では、キャプチャされた画像データは、光スペクトルの一部のデータに対する深度データを決定、又は生成するのに十分なデータを含む。一部の実施形態では、デバイス600は、デバイス100、300、又は500の1つ以上の特徴を含む。 FIG. 6A depicts a device 600 having a display 601, in some cases a touch-sensitive display. In some embodiments, device 600 also includes a camera 602 that minimally includes an image sensor capable of capturing data representing a portion of the light spectrum (eg, visible light, infrared light, or ultraviolet light). In some embodiments, camera 602 includes multiple image sensors and/or other types of sensors. In some embodiments, in addition to capturing data representative of detected light, camera 602 may capture other types of data, such as depth data. For example, in some embodiments, camera 602 also captures depth data using speckle, time-of-flight, parallax, or focus-based techniques. The image data that device 600 captures using camera 602 includes data that corresponds to a portion of the light spectrum for a scene within the camera's field of view. Additionally, in some embodiments, the captured image data also includes depth data of light data. In some other embodiments, the captured image data includes sufficient data to determine or generate depth data for a portion of the light spectrum. In some embodiments, device 600 includes one or more features of device 100, 300, or 500.

一部の例では、電子デバイス600は、赤外線カメラ、サーモグラフィーカメラ、又はそれらの組み合わせなどの、深度カメラを含む。一部の例では、デバイスは、IRフラッド光などの発光デバイス(例えば、光プロジェクタ)、構造化光プロジェクタ、又はそれらの組み合わせを更に含む。発光デバイスは、任意選択的に、可視光カメラ及び深度カメラ(例えば、IRカメラ)による画像のキャプチャ中に被写体を照明するために使用され、深度カメラ及び可視光カメラからの情報は、可視光カメラによってキャプチャされた被写体の異なる部分の深度マップを決定するために使用される。一部の実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ)からのシーン内のオブジェクトの距離に関する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、その対応する2次元ピクセルが位置する、視点のZ軸内の位置を規定する。一部の例では、深度マップは、各ピクセルが値(例えば、0~255)によって定義されるピクセルから構成される。例えば、「0」値は、「3次元」シーンにおける最も離れた位置に配置されたピクセルを表し、「255」値は、「3次元」シーンにおける視点(例えば、カメラ)に最も近いピクセルを表す。他の例では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。一部の実施形態では、深度マップは、深度カメラの視点における関心あるオブジェクトの様々な特徴の相対的深度(例えば、ユーザの顔の目、鼻、口、耳の相対的な深度)についての情報を含む。一部の実施形態では、深度マップは、z方向の関心あるオブジェクトの輪郭をデバイスが判定することを可能にする情報を含む。一部の実施形態では、本明細書に記載の照明エフェクトは、背面画像用の2つのカメラ(例えば、2つの可視光カメラ)からの視差情報を使用して、及び正面画像(例えば、自撮り画像)用の可視光カメラからの画像データに結合された深度カメラからの深度情報を使用して、表示される。一部の実施形態では、2つの可視光カメラを使用して深度情報を判定し、深度カメラを使用して深度情報を判定する場合には、同じユーザインタフェースが使用されて、照明エフェクトを生成する際に使用される情報を判定するために著しく異なる技術を使用する場合でさえも、ユーザーに一貫性のある体験を提供する。一部の実施形態では、適用される照明エフェクトのうちの1つを用いてカメラユーザインタフェースを表示している間に、デバイスは、ライティングエフェクトを適用し、正面カメラの視野の表示を背面カメラの視界に(又はその逆)置換するためのユーザインタフェース制御の表示を維持しながら、カメラスイッチングアフォーダンスの選択を検出し、正面カメラ(例えば、深度カメラ及び可視光カメラ)から背面カメラ(例えば、互いに離間した2つの可視光カメラ)に(又はその逆)切り替える。 In some examples, electronic device 600 includes a depth camera, such as an infrared camera, a thermal imaging camera, or a combination thereof. In some examples, the device further includes a light emitting device (eg, a light projector), such as an IR flood light, a structured light projector, or a combination thereof. The light emitting device is optionally used to illuminate the subject during image capture by the visible light camera and the depth camera (e.g., an IR camera), and information from the depth camera and the visible light camera is transmitted to the visible light camera. is used to determine the depth map of different parts of the object captured by. In some embodiments, a depth map (eg, a depth map image) includes information (eg, values) about the distances of objects in the scene from a viewpoint (eg, a camera). In one embodiment of a depth map, each depth pixel defines the location in the Z-axis of the viewpoint where its corresponding two-dimensional pixel is located. In some examples, the depth map is composed of pixels, each pixel defined by a value (eg, 0-255). For example, a "0" value represents the furthest located pixel in the "3D" scene, and a "255" value represents the pixel closest to the viewpoint (e.g., camera) in the "3D" scene. . In other examples, the depth map represents the distance between objects in the scene and the plane of view. In some embodiments, the depth map provides information about the relative depth of various features of the object of interest (e.g., the relative depth of the eyes, nose, mouth, and ears of the user's face) at the perspective of the depth camera. including. In some embodiments, the depth map includes information that allows the device to determine the contour of the object of interest in the z-direction. In some embodiments, the lighting effects described herein use parallax information from two cameras for the rear image (e.g., two visible light cameras) and for the front image (e.g., a selfie). images) are displayed using depth information from a depth camera combined with image data from a visible light camera. In some embodiments, two visible light cameras are used to determine depth information, and when the depth cameras are used to determine depth information, the same user interface is used to generate the lighting effects. Provide a consistent experience for users even when using significantly different technologies to determine the information used. In some embodiments, while displaying the camera user interface with one of the applied lighting effects, the device applies the lighting effects and changes the display of the front camera's field of view to that of the rear camera. Detects the selection of camera switching affordances while maintaining the display of user interface controls for displacing the front camera (e.g. depth camera and visible light camera) to the rear camera (e.g. spaced apart from each other) to the field of view (or vice versa). (or vice versa).

図6Aでは、デバイス600は、メッセージングアプリケーションのメッセージングユーザインタフェース603を表示している。メッセージングユーザインタフェース603は、メッセージ会話において参加者(受信者識別子606によって表される)に伝送されるメッセージ605を含むメッセージ表示領域604を含む。メッセージングユーザインタフェース603はまた、メッセージ会話の参加者に送信するための入力(例えば、テキスト入力、マルチメディア入力など)を表示するためのメッセージ作成フィールド608を含む。メッセージングユーザインタフェース603はまた、カメラアプリケーションアフォーダンス609、アプリケーションドックアフォーダンス610、キーボード表示領域612、及びテキスト提案領域614を含む。 In FIG. 6A, device 600 is displaying a messaging user interface 603 of a messaging application. Messaging user interface 603 includes a message display area 604 containing messages 605 to be transmitted to participants (represented by recipient identifiers 606) in a message conversation. Messaging user interface 603 also includes a message compose field 608 for displaying input (eg, text input, multimedia input, etc.) to send to participants in the message conversation. Messaging user interface 603 also includes a camera application affordance 609, an application dock affordance 610, a keyboard display area 612, and a text suggestion area 614.

図6Bでは、デバイス600は、カメラアプリケーションアフォーダンス609に対応する位置において入力616(例えば、ディスプレイ601上のタッチ入力)を検出する。 In FIG. 6B, device 600 detects input 616 (eg, a touch input on display 601) at a location corresponding to camera application affordance 609.

図6Cでは、入力616を検出したことに応じて、デバイス600は、カメラアプリケーションアフォーダンス609に関連付けられたカメラアプリケーションを起動し、カメラアプリケーションユーザインタフェース615を表示する。カメラアプリケーションユーザインタフェース615は、例えば、カメラ(例えば、背面カメラ又はカメラ602)の視野内に位置するオブジェクトを表すストリーミングされた画像データ(例えば、ライブカメラプレビュー、ライブカメラ記録、若しくはライブビデオ通信セッション)、又は、例えば写真若しくはビデオ録画などのメディアアイテム、などの画像データの表現を表示する、画像表示領域620を含む。図6Cに示す実施形態では、画像表示領域620は、デバイス600の背面カメラからのライブカメラプレビュー620-1'を示す。 In FIG. 6C, in response to detecting input 616, device 600 launches the camera application associated with camera application affordance 609 and displays camera application user interface 615. Camera application user interface 615 may, for example, display streamed image data (e.g., live camera previews, live camera recordings, or live video communication sessions) representing objects located within the field of view of a camera (e.g., rear camera or camera 602). or an image display area 620 that displays a representation of image data, such as, for example, a media item such as a photograph or a video recording. In the embodiment shown in FIG. 6C, image display area 620 shows a live camera preview 620-1' from the rear camera of device 600.

カメラアプリケーションユーザインタフェース615はまた、カメラ固有アフォーダンス617、及びカメラアプリケーションユーザインタフェース615を終了させるための完了アフォーダンス618を含む、画像表示領域620の上の領域を含む。カメラ固有アフォーダンスには、カメラフラッシュ機能に関連付けられたアフォーダンス617-1、カメラモード機能に関連付けられたアフォーダンス617-2、タイマー機能に関連付けられたアフォーダンス617-3、及びフィルタ機能に関連付けられたアフォーダンス617-4が含まれる。 Camera application user interface 615 also includes an area above image display area 620 that includes camera-specific affordances 617 and completion affordances 618 for terminating camera application user interface 615. Camera-specific affordances include affordance 617-1 associated with camera flash function, affordance 617-2 associated with camera mode function, affordance 617-3 associated with timer function, and affordance 617 associated with filter function. -4 is included.

カメラアプリケーションユーザインタフェース615はまた、画像表示領域620の下に配置されたカメラオプション領域625を含む。カメラオプション領域625は、カメラ(例えば、背面カメラとカメラ602)間を切り替えるためのカメラセレクタアフォーダンス627、及びカメラが画像データを記録できる異なるキャプチャモードに関連付けられたカメラオプションアフォーダンス619を含む。例えば、ビデオアフォーダンス619-1は、カメラのビデオ録画キャプチャモードをアクティブ化するための機能に関連付けられ、写真アフォーダンス619-2は、カメラの静止画像キャプチャモードをアクティブ化するための機能に関連付けられる。図6C~図6AXに関して以下に論じる実施形態では、デバイス600は、写真アフォーダンス619-2に関連付けられた操作の静止画像キャプチャモードにある。しかしながら、特に明記しない限り、これらの実施形態はまた、ビデオアフォーダンス619-1に関連付けられたビデオ録画モードに適用される。 Camera application user interface 615 also includes a camera options area 625 located below image display area 620. Camera options area 625 includes camera selector affordances 627 for switching between cameras (eg, rear camera and camera 602), and camera options affordances 619 associated with different capture modes in which the camera can record image data. For example, video affordance 619-1 is associated with the functionality for activating the camera's video recording capture mode, and photo affordance 619-2 is associated with the functionality for activating the camera's still image capture mode. In the embodiment discussed below with respect to FIGS. 6C-6AX, device 600 is in a still image capture mode of operation associated with photo affordance 619-2. However, unless otherwise specified, these embodiments also apply to the video recording mode associated with video affordance 619-1.

カメラオプション領域625は、画像表示領域620にビジュアルエフェクトを表示するためにデバイス600が有効化又は無効化されるデバイス600のモードを、有効化又は無効化するためのエフェクトアフォーダンス622を更に含む。デバイス600のこのモードは、本明細書ではしばしばエフェクトモードと呼ばれる。 Camera options area 625 further includes effect affordances 622 for enabling or disabling modes of device 600 in which device 600 is enabled or disabled to display visual effects in image display area 620. This mode of device 600 is often referred to herein as effects mode.

カメラオプション領域625はまた、画像表示領域620に表される画像データをキャプチャするために選択可能なキャプチャアフォーダンス621を含む。一部の実施形態では、デバイス600は、現在有効化されているキャプチャモード(例えば、ビデオ録画キャプチャモード又は画像キャプチャモード)に基づく方法で、画像データをキャプチャする。一部の実施形態では、デバイス600は、キャプチャアフォーダンス621上で検出されたジェスチャのタイプに応じて、画像データをキャプチャする。例えば、デバイス600がキャプチャアフォーダンス621上でタップジェスチャを検出した場合、デバイス600は、タップジェスチャが発生した時点で画像表示領域620に表された画像データの静止画像をキャプチャする。デバイス600がキャプチャアフォーダンス621上でタップアンドホールドジェスチャを検出した場合、デバイス600は、タップアンドホールドジェスチャが持続する期間中、画像表示領域620に表される画像データのビデオ録画をキャプチャする。一部の実施形態では、指がアフォーダンスから持ち上げられると、ビデオ録画が停止する。一部の実施形態では、ビデオ録画は、アフォーダンスに対応する位置において後続の入力(例えば、タップ入力)が検出されるまで続く。一部の実施形態では、キャプチャされた画像(例えば、静止画像又はビデオ録画)は、メッセージ作成フィールド608内に挿入され、続いてメッセージ会話の参加者に送信される。一部の実施形態では、キャプチャされた画像は、メッセージ作成フィールド608内にキャプチャされた画像を挿入することなく、メッセージ会話の参加者に直接送信される。 Camera options area 625 also includes selectable capture affordances 621 to capture image data represented in image display area 620. In some embodiments, device 600 captures image data in a manner based on the currently enabled capture mode (eg, video recording capture mode or image capture mode). In some embodiments, device 600 captures image data in response to the type of gesture detected on capture affordance 621. For example, if device 600 detects a tap gesture on capture affordance 621, device 600 captures a still image of the image data represented in image display area 620 at the time the tap gesture occurred. If device 600 detects a tap-and-hold gesture on capture affordance 621, device 600 captures a video recording of the image data represented in image display area 620 for the duration of the tap-and-hold gesture. In some embodiments, video recording stops when the finger is lifted from the affordance. In some embodiments, video recording continues until a subsequent input (eg, a tap input) is detected at a location corresponding to the affordance. In some embodiments, the captured image (eg, still image or video recording) is inserted into message composition field 608 and subsequently sent to the participants in the message conversation. In some embodiments, the captured image is sent directly to the participants in the message conversation without inserting the captured image within message composition field 608.

図6Dでは、デバイス600は、エフェクトアフォーダンス622上の入力623(例えば、ディスプレイ601上のタップジェスチャ)を検出する。 In FIG. 6D, device 600 detects input 623 on effect affordance 622 (eg, a tap gesture on display 601).

図6Eでは、デバイス600は、入力623を検出したことに応じて、カメラ602をアクティブ化し(例えば、背面カメラから切り替えて)、画像表示領域620を更新して、カメラ602からのライブカメラプレビュー620-1を表示し、カメラ602の視野内に位置する被写体632、及び被写体632の背後に表示された背景636の表現を示す。本明細書で論じるように、一部の実施形態では、カメラ602を使用してキャプチャされた画像データは、カメラ602の視野内のオブジェクトの深度を決定するために使用され得る深度データを含む。一部の実施形態では、デバイス600は、検出されたこれらのオブジェクトの深度に基づいてオブジェクト(例えば、画像データ内の)を解析し、この判定を使用して、本明細書で論じるビジュアルエフェクトを適用する。例えば、デバイス600は、被写体632をライブカメラプレビュー620-1の前景にあるものとして、ユーザの背後に位置するオブジェクトをライブカメラプレビュー620-1の背景にあるものとして、分類することができる。これらの背景オブジェクトは、ここでは背景636と総称する。 In FIG. 6E, device 600 activates camera 602 (e.g., switches from the rear camera) and updates image display area 620 to display a live camera preview 620 from camera 602 in response to detecting input 623. -1 to show a representation of a subject 632 located within the field of view of the camera 602 and a background 636 displayed behind the subject 632. As discussed herein, in some embodiments, image data captured using camera 602 includes depth data that can be used to determine the depth of objects within the field of view of camera 602. In some embodiments, device 600 analyzes objects (e.g., within image data) based on the detected depth of these objects and uses this determination to create the visual effects discussed herein. Apply. For example, device 600 may classify object 632 as being in the foreground of live camera preview 620-1 and objects located behind the user as being in the background of live camera preview 620-1. These background objects are collectively referred to herein as background 636.

デバイス600はまた、表示のためにビジュアルエフェクトを有効化していることを示すエフェクトアフォーダンス622を強調表示し、カメラオプションアフォーダンス619をビジュアルエフェクトオプションアフォーダンス624に置換することによってカメラオプション領域625を更新する。ビジュアルエフェクトオプションアフォーダンスは、アバターエフェクトアフォーダンス624-1及びステッカーエフェクトアフォーダンス624-2を含む。ビジュアルエフェクトオプションアフォーダンス624は、画像表示領域620に表示される画像に適用できる異なるビジュアルエフェクトに対応する。ビジュアルエフェクトオプションアフォーダンス(例えば、624-1又は624-2)のうちの1つを選択することにより、選択されたビジュアルエフェクトオプションアフォーダンスに対応するビジュアルエフェクトオプションと共に、メニューが表示される。 Device 600 also updates camera options area 625 by highlighting effects affordance 622 indicating that it is enabling visual effects for display and replacing camera options affordance 619 with visual effects options affordance 624. The visual effect option affordances include an avatar effect affordance 624-1 and a sticker effect affordance 624-2. Visual effects option affordances 624 correspond to different visual effects that can be applied to images displayed in image display area 620. By selecting one of the visual effects option affordances (eg, 624-1 or 624-2), a menu is displayed with visual effects options corresponding to the selected visual effects option affordance.

ユーザは、エフェクトアフォーダンス622を選択することによって、デバイス600のエフェクトモードを有効化又は無効化することができる。エフェクトアフォーダンス622が強調表示されると、デバイス600のエフェクトモードが有効化され、画像表示領域620にビジュアルエフェクトを表示する。ユーザが強調表示されたアフォーダンス622上をタップすると、エフェクトアフォーダンス622はもはや強調表示されず、画像表示領域620における表示のためにビジュアルエフェクトが有効化されないように、エフェクトモードが無効化される。一部の実施形態では、エフェクトモードが有効化されると、デバイス600は、画像表示領域620に示される画像を更新して、画像に適用されている1つ以上のビジュアルエフェクト(ライブ画像ストリームに適用されるビジュアルエフェクトを含む)を表示し、エフェクトモードが無効化されると、デバイス600は、画像表示領域620に示される画像からビジュアルエフェクトを除去するか、又は隠す。 A user can enable or disable an effect mode of device 600 by selecting effect affordance 622. When the effect affordance 622 is highlighted, the effect mode of the device 600 is enabled to display the visual effect in the image display area 620. When the user taps on the highlighted affordance 622, the effect affordance 622 is no longer highlighted and the effect mode is disabled such that no visual effects are enabled for display in the image display area 620. In some embodiments, when effects mode is enabled, device 600 updates the image shown in image display area 620 to include one or more visual effects applied to the image (in the live image stream). (including applied visual effects) and when the effects mode is disabled, device 600 removes or hides the visual effects from the image shown in image display area 620.

図6Fでは、デバイス600は、アバターエフェクトアフォーダンス624-1上の入力626(例えば、ディスプレイ601上のタップジェスチャ)を検出する。 In FIG. 6F, device 600 detects input 626 (eg, a tap gesture on display 601) on avatar effect affordance 624-1.

図6Gでは、入力626を検出したことに応じて、デバイス600は、アバターオプション630のスクロール可能リストと共に、アバターオプションメニュー628を表示する。アバターオプションメニュー628はまた、アバターオプション630のうちの選択された1つを示すための選択領域629を含む。図6Gに示すように、ロボットアバターオプション630-3が選択領域629に配置され、ロボットアバターオプション630-1が選択されていることを示す。図6Gに示す別のアバターオプション630は、カスタマイズされた女性アバターオプション630-1、ヌルアバターオプション630-2、ウサギアバターオプション630-4、及びエイリアンアバターオプション630-5を含む。以下で詳細に論じるように、ヌルアバターオプション630-2は、アバターが画像表示領域620内の被写体上に表示されないためのアバターオプションに対応する。一部の実施形態では、ヌルアバターオプション630-2は、アバターオプションメニュー628が表示されているときに、デフォルトで選択されるアバターオプションである。 In FIG. 6G, in response to detecting input 626, device 600 displays avatar options menu 628 along with a scrollable list of avatar options 630. Avatar options menu 628 also includes a selection area 629 for indicating a selected one of avatar options 630. As shown in FIG. 6G, robot avatar option 630-3 is placed in selection area 629, indicating that robot avatar option 630-1 is selected. Other avatar options 630 shown in FIG. 6G include a customized female avatar option 630-1, a null avatar option 630-2, a rabbit avatar option 630-4, and an alien avatar option 630-5. As discussed in more detail below, null avatar option 630-2 corresponds to an avatar option for no avatar to be displayed on the subject within image display area 620. In some embodiments, null avatar option 630-2 is the avatar option selected by default when avatar options menu 628 is displayed.

アバターオプション630は、画像表示領域620内の被写体の表現に適用される仮想アバタービジュアルエフェクトに対応する。具体的には、各アバターオプション630は、選択されると、画像表示領域内の被写体の顔の上に転置される仮想アバターに対応し、他方、画像表示領域内の画像の他の部分(背景、又はユーザの身体などのユーザの他の部分など)は表示されたままとなる。カメラ602の視野内に位置するユーザ(例えば、被写体632)は、様々な顔の特徴の動き(例えば、ウインク、舌の突き出し、笑顔など)を含む顔の姿勢(例えば、回転又は向き)を変更することによって、仮想アバターの視覚的態様を制御することができる。仮想アバターの表示及び動きを制御するための詳細は、米国特許出願第15/870,195号に提供されており、これは、すべての目的のために参照により本明細書に組み込まれる。 Avatar option 630 corresponds to a virtual avatar visual effect applied to the representation of the subject within image display area 620. Specifically, each avatar option 630 corresponds to a virtual avatar that, when selected, is transposed over the subject's face in the image display area, while other parts of the image (background) in the image display area , or other parts of the user, such as the user's body) remain visible. A user (e.g., subject 632) located within the field of view of camera 602 may change facial posture (e.g., rotation or orientation), including various facial feature movements (e.g., wink, tongue thrust, smile, etc.) By doing so, the visual aspect of the virtual avatar can be controlled. Details for controlling the display and movement of virtual avatars are provided in US patent application Ser. No. 15/870,195, which is incorporated herein by reference for all purposes.

一部の実施形態では、仮想アバターは、グラフィックに描くことができるユーザーの表現(例えば、ユーザーのグラフィック表現)である。一部の実施形態では、仮想アバターは非写実的(例えば、漫画的である)である。一部の実施形態では、仮想アバターは、1つ以上のアバター特徴(例えば、アバター顔部特徴)を有するアバター顔部を含む。一部の実施形態では、アバター特徴は、ユーザの物理的特徴の検出された動きが(例えば、深度検出カメラなどのカメラに基づいて判定されるように)、アバター特徴(例えば、特徴のグラフィック表現に影響を及ぼす)に影響を及ぼすように、ユーザの顔の1つ以上の物理的特徴に対応する(例えば、マッピングされる)。 In some embodiments, the virtual avatar is a graphically depictable representation of the user (eg, a graphical representation of the user). In some embodiments, the virtual avatar is non-photorealistic (eg, cartoonish). In some embodiments, the virtual avatar includes an avatar face having one or more avatar features (eg, avatar facial features). In some embodiments, the avatar features include a graphical representation of the avatar features (e.g., a graphical representation of the features) such that detected movement of the user's physical features (e.g., as determined based on a camera, such as a depth-sensing camera) corresponds to (e.g., is mapped to) one or more physical features of the user's face so as to affect (e.g., affect) one or more physical features of the user's face.

一部の例では、ユーザは、カメラセンサ(例えば、カメラモジュール143、光センサ164)、及び任意選択的に深度センサ(例えば、深度カメラセンサ175)を使用して、仮想アバターの特性又は特徴を操作することができる。ユーザの物理的特徴(顔の特徴など)及び位置(頭の位置、頭の回転、又は頭の傾きなど)が変化すると、電子デバイスは、その変化を検出し、仮想アバターの表示された画像を変更して、ユーザの身体的特徴及び位置の変化を反映する。一部の実施形態では、ユーザの身体的特徴及び位置に対する変化は、様々な表現、感情、コンテキスト、トーン、又は他の非言語コミュニケーションを示す。一部の実施形態では、電子デバイスは、これらの表現、感情、コンテキスト、トーン、又は他の非言語コミュニケーションを表すために、仮想アバターの表示された画像を変更する。 In some examples, the user uses a camera sensor (e.g., camera module 143, light sensor 164), and optionally a depth sensor (e.g., depth camera sensor 175) to determine the characteristics or characteristics of the virtual avatar. can be operated. When the user's physical characteristics (such as facial features) and position (such as head position, head rotation, or head tilt) change, the electronic device detects the changes and changes the displayed image of the virtual avatar. be modified to reflect changes in the user's physical characteristics and location. In some embodiments, changes to the user's physical characteristics and location indicate different expressions, emotions, context, tone, or other nonverbal communication. In some embodiments, the electronic device changes the displayed image of the virtual avatar to represent these expressions, emotions, context, tone, or other nonverbal communications.

一部の実施形態では、仮想アバターは、カスタマイズ可能なアバター(例えば、カスタマイズ可能なアバター835)である。カスタマイズ可能なアバターは、例えば、所望の外観(例えば、ユーザーのように見える)を達成するために、ユーザーが選択し、カスタマイズできる仮想アバターである。カスタマイズ可能なアバターは、一般的に、動物又は他の非人間オブジェクトの擬人化構成物などの非人間キャラクタではなく、人間キャラクタの外観を有する。加えて、アバターの特徴は、アバター編集ユーザインタフェース(例えば、図8AA~図8ABに関して以下に論じるアバター編集ユーザインタフェースなど)を使用して、必要に応じて、作成又は変更することができる。一部の実施形態では、カスタマイズ可能なアバターを、カスタマイズされた物理的外観、物理的構成物、又はモデル化された挙動を達成するように、生成及び構成することができる。 In some embodiments, the virtual avatar is a customizable avatar (eg, customizable avatar 835). A customizable avatar is, for example, a virtual avatar that a user can select and customize to achieve a desired appearance (eg, look like the user). Customizable avatars generally have the appearance of a human character rather than a non-human character, such as an anthropomorphic construct of an animal or other non-human object. Additionally, avatar characteristics can be created or modified as desired using an avatar editing user interface (eg, such as the avatar editing user interface discussed below with respect to FIGS. 8AA-8AB). In some embodiments, customizable avatars can be generated and configured to achieve customized physical appearance, physical constructs, or modeled behavior.

一部の実施形態では、仮想アバターはカスタマイズ不可能なアバターである。カスタマイズ不可能なアバターは、ユーザによって選択できる仮想アバターであるが、以下でより詳細に説明するように、それらの外観は顔追跡を介して変更することができるものの、一般的には本来構成可能ではない。代わりに、カスタマイズ不可能なアバターは予め構成されており、一般にユーザによって変更できる特徴成分を有しない。一部の実施形態では、カスタマイズ不可能なアバターは、動物又は他の非人間オブジェクトの擬人化構成物(例えば、ロボットアバター633、ウサギアバター634を参照)などの非人間キャラクタの外観を有する。カスタマイズ不可能なアバターは、ユーザが作成できず、又は、物理的外観、物理的構成物、若しくはカスタマイズ不可能なアバターのモデル化された挙動において著しい変更を達成するように変更することができない。 In some embodiments, the virtual avatar is a non-customizable avatar. Non-customizable avatars are virtual avatars that can be selected by the user, but are generally configurable in nature, although their appearance can be changed via facial tracking, as explained in more detail below. isn't it. Instead, non-customizable avatars are pre-configured and generally do not have features that can be changed by the user. In some embodiments, the non-customizable avatar has the appearance of a non-human character, such as an anthropomorphic construct of an animal or other non-human object (see, eg, robot avatar 633, rabbit avatar 634). A non-customizable avatar cannot be created by a user or modified to achieve significant changes in the physical appearance, physical composition, or modeled behavior of the non-customizable avatar.

図6Gでは、ロボットアバター630-3が選択されているので、デバイス600は、画像表示領域620に表示された被写体632(例えば、ユーザ)の顔に配置されたロボットアバター633を表示する。デバイス600は、アバターがカメラ602の視野内を移動する際に被写体の顔に固定されたままになるようにアバターを表示する。デバイス600はまた、表示された被写体の身体及び背景636を画像表示領域620に示される画像内に維持しながら、顔の姿勢又は表情の変化を含むユーザの顔の検出された変化に基づいて、アバターを継続的に変更する。 In FIG. 6G, robot avatar 630-3 is selected, so device 600 displays robot avatar 633 placed on the face of subject 632 (eg, user) displayed in image display area 620. Device 600 displays the avatar such that it remains fixed on the subject's face as it moves within the field of view of camera 602. The device 600 may also perform changes based on detected changes in the user's face, including changes in facial pose or expression, while maintaining the displayed subject's body and background 636 within the image shown in the image display area 620. Continuously change your avatar.

図6Hに示すように、デバイス600がユーザの頭部がカメラ602の視野を越えて移動したことを検出した場合、デバイス600は、例えば、選択されたアバター(例えば、ロボットアバター)の表現640を含むプロンプト638と、ユーザにカメラ602の視野内に頭部を再配置するように指示するメッセージ642とを表示する。一部の実施形態では、プロンプト638が、ぼやけた背景644(ユーザ632及び背景636をぼかすことを含む)と共に表示される。一部の実施形態では、プロンプト638を表示することは、画像表示領域620の中心位置に戻っていく選択されたアバターのアニメーションを表示すること、及びアバター特徴の物理モデルに基づいて停止するように見える、アバター及びその特徴の遅くなった動きを示すことを含む。 As shown in FIG. 6H, if the device 600 detects that the user's head has moved beyond the field of view of the camera 602, the device 600 may, for example, display a representation 640 of the selected avatar (e.g., a robot avatar). and a message 642 instructing the user to reposition the head within the field of view of the camera 602. In some embodiments, prompt 638 is displayed with a blurred background 644 (including blurring user 632 and background 636). In some embodiments, displaying prompt 638 includes displaying an animation of the selected avatar returning to a central position in image display area 620 and stopping based on a physical model of the avatar features. visible, including showing slowed movement of the avatar and its features.

いったんデバイス600がカメラ602の視野に戻るユーザの頭部を検出すると、デバイスは、図6Iに示すように、ユーザの顔において検出された変化に基づいて、選択されたアバター(例えば、ロボットアバター633)を更新し続ける。一部の実施形態では、デバイス600がカメラ602の視野に戻るユーザの顔を検出すると、デバイス600は、画像表示領域620の中心位置からユーザの顔の位置に移動するアバター633を表示し、検出されたユーザの顔の変化に基づいてアバターの変更を再開する。 Once the device 600 detects the user's head returning to the field of view of the camera 602, the device may select a selected avatar (e.g., robot avatar 633) based on the detected changes in the user's face, as shown in FIG. 6I. ) will continue to be updated. In some embodiments, when the device 600 detects the user's face returning to the field of view of the camera 602, the device 600 displays an avatar 633 that moves from the center position of the image display area 620 to the position of the user's face and detects the user's face. resume changing the avatar based on changes in the user's face.

図6I~図6Kでは、デバイス600は、アバターオプション630の表示されたリスト上の入力644(例えば、ディスプレイ601上のスクロールジェスチャ)を検出する。入力644がディスプレイ601を横切って左方向に移動すると、デバイス600は、左にスクロールして追加のアバターオプション(例えば、うんちアバターオプション及びキツネアバターオプション)を明らかにするアバターオプション630を表示する。一部の実施形態では、アバターオプションのうちの1つが選択領域629に入ると、デバイスは、その時点における入力644の終了が、選択領域629内に現在位置しているアバターオプションの選択をもたらし得ることをユーザに示すための触覚フィードバック(例えば、音声出力を伴う、又は伴わない触知出力)を生成する。例えば、図6Kでは、デバイス600は、エイリアンアバターオプション630-5が選択領域629内に位置するときに、触覚フィードバック646を生成する。 6I-6K, device 600 detects input 644 (eg, a scroll gesture on display 601) on the displayed list of avatar options 630. As input 644 moves to the left across display 601, device 600 displays avatar options 630 that scroll to the left to reveal additional avatar options (eg, a poop avatar option and a fox avatar option). In some embodiments, when one of the avatar options enters the selection area 629, the device determines that termination of the input 644 at that point may result in selection of the avatar option currently located within the selection area 629. generate tactile feedback (e.g., tactile output with or without audio output) to indicate to the user that the For example, in FIG. 6K, device 600 generates haptic feedback 646 when alien avatar option 630-5 is located within selection area 629.

図6Jでは、デバイス600は、入力644の終了を検出し、エイリアンアバターオプション630-5が選択領域629内に位置していると判定する。結果として、デバイス600は、被写体の身体及び背景636の表示を維持しながら、ロボットアバター633を、選択されたエイリアンアバターオプション630-5に対応するエイリアンアバター635に置換する。一部の実施形態では、以前に選択されたアバター(例えば、ロボットアバター633)を現在選択されているアバター(例えば、エイリアンアバター635)に置換することは、オフスクリーン(例えば、画像表示領域620の外)で移動する、以前に選択されたアバターのアニメーション、及びアバターオプションメニュー628から画像表示領域620内のユーザの顔に移動する、現在選択されているアバターのアニメーション、を表示することを含む。一部の実施形態では、現在選択されているアバターの顔追跡は、アバターがアバターオプションメニュー628からユーザーの顔に移動すると開始する。一部の実施形態では、アバターの切り替え操作が発生している間、背景をぼかしている。 In FIG. 6J, device 600 detects the end of input 644 and determines that alien avatar option 630-5 is located within selection area 629. As a result, device 600 replaces robot avatar 633 with alien avatar 635 corresponding to selected alien avatar option 630-5 while maintaining display of the subject's body and background 636. In some embodiments, replacing a previously selected avatar (e.g., robot avatar 633) with a currently selected avatar (e.g., alien avatar 635) may occur off-screen (e.g., in the image display area 620). the currently selected avatar moving from the avatar options menu 628 to the user's face within the image display area 620. In some embodiments, facial tracking of the currently selected avatar begins when the avatar is moved from the avatar options menu 628 to the user's face. In some embodiments, the background is blurred while the avatar switching operation is occurring.

図6M~図6Nでは、デバイス600は、アバターオプションメニュー628上の垂直ジェスチャ646(例えば、ディスプレイ601上の垂直スワイプ又はタッチアンドドラッグ)を検出し、これに応じて、図6Nに示すように、アバターオプションメニュー628を拡大ビュー628-1に拡大する。図6Nでは、アバターオプション630はマトリクス状に配置されており、図6Oに示すように、選択されて(例えば、ジェスチャ648はロボットアバターオプション630-3を選択する)、画像表示領域620に異なるアバターを表示することができる。 6M-6N, device 600 detects a vertical gesture 646 (e.g., a vertical swipe or touch-and-drag on display 601) on avatar options menu 628 and, in response, as shown in FIG. 6N. Expand avatar options menu 628 to expanded view 628-1. In FIG. 6N, avatar options 630 are arranged in a matrix, and when selected (e.g., gesture 648 selects robot avatar option 630-3), a different avatar is displayed in image display area 620, as shown in FIG. 6O. can be displayed.

図6Pに示すように、ジェスチャ648に応じて、デバイス600は、選択されたロボットアバターオプション630-3(選択領域629に配置される)を含むアバターオプションメニュー628、及び画像表示領域620内のユーザの頭部に表示されるロボットアバター633を示す(例えば、メニューを逆拡大することによって)。 As shown in FIG. 6P, in response to gesture 648, device 600 displays an avatar options menu 628 that includes the selected robot avatar option 630-3 (located in selection area 629), and the user in image display area 620. (e.g., by inverting the menu).

図6Qでは、デバイス600は、クローズアイコン650上の入力649(例えば、ディスプレイ601上のタップジェスチャ)を検出して、アプリケーションオプションメニュー628をクローズし、画像表示領域620上の画像ストリーム(例えば、ライブカメラプレビュー)内のユーザの顔のロボットアバター633の表示を維持しながら、カメラオプション領域625を示している図6R示すカメラユーザインタフェース615に戻る。カメラオプション領域625は、キャプチャアフォーダンス621、ビジュアルエフェクトオプションアフォーダンス624、及び強調表示エフェクトアフォーダンス622を示す。図6S及び図6Tに以下示すように、ユーザは、アバターメニューアフォーダンス624-1を選択して、アバターオプションメニュー628を再度表示することができる。 In FIG. 6Q, the device 600 detects an input 649 (e.g., a tap gesture on the display 601) on the close icon 650 to close the application options menu 628 and causes the image stream (e.g., a live Returning to the camera user interface 615 shown in FIG. 6R showing the camera options area 625 while maintaining the display of the robot avatar 633 of the user's face in the camera preview). Camera options area 625 shows capture affordances 621, visual effects option affordances 624, and highlight effect affordances 622. As shown below in FIGS. 6S and 6T, the user may select avatar menu affordance 624-1 to redisplay avatar options menu 628.

例えば、図6Sでは、デバイス600は、アバターエフェクトアフォーダンス624-1上の入力652(例えば、ディスプレイ601上のタップジェスチャ)を検出する。図6Tでは、入力652を検出したことに応じて、デバイス600は、キャプチャアフォーダンス621、エフェクトアフォーダンス622、及びビジュアルエフェクトオプションアフォーダンス624を含むカメラオプション領域625を置換するアバターオプション630を有する、アバターオプションメニュー628を表示する。アバターオプションメニュー628は、前述したように、クローズアフォーダンス650を選択することによって再びクローズして、図6Uに示すように、カメラアプリケーションユーザインタフェース615に再び戻ることができる。 For example, in FIG. 6S, device 600 detects input 652 (eg, a tap gesture on display 601) on avatar effect affordance 624-1. In FIG. 6T, in response to detecting input 652, device 600 displays avatar options menu 628 with avatar options 630 replacing camera options area 625 including capture affordance 621, effects affordance 622, and visual effects options affordance 624. Display. Avatar options menu 628 can be closed again by selecting close affordance 650, as described above, to return to camera application user interface 615, as shown in FIG. 6U.

図6Uでは、デバイス600は、ステッカーエフェクトアフォーダンス624-2上の入力654(例えば、ディスプレイ601上のタップジェスチャ)を検出する。図6Vでは、入力654を検出したことに応じて、デバイス600は、ステッカー658のスクロール可能リストを有するステッカーオプションメニュー656を表示する。ステッカーは、ユーザが選択できて、画像表示領域620内の画像に適用される、静的なグラフィカルオブジェクトである。一部の実施形態では、ステッカーは、選択されたステッカー上で開始し、ステッカーを所望の位置にドラッグし、次いでドラッグを終了(例えば、指をリフト)することによってステッカーを所望の位置に配置する、タッチアンドドラッグジェスチャによって選択することができる。一部の実施形態では、ステッカーはタップジェスチャによって選択することができ、次いで対応するステッカーが画像表示領域620上の位置に表示される。このような実施形態の一例は図6W~図6Xに示され、次いで画像表示領域620の中央に表示されるヘルメットステッカー658-1上のタップジェスチャ660を示している。 In FIG. 6U, device 600 detects input 654 (eg, a tap gesture on display 601) on sticker effect affordance 624-2. In FIG. 6V, in response to detecting input 654, device 600 displays a sticker options menu 656 having a scrollable list of stickers 658. A sticker is a static graphical object that can be selected by a user and applied to an image within image display area 620. In some embodiments, the sticker is placed in the desired position by starting on the selected sticker, dragging the sticker to the desired position, and then ending the drag (e.g., lifting a finger). , can be selected by touch and drag gestures. In some embodiments, a sticker can be selected by a tap gesture, and a corresponding sticker is then displayed at a location on the image display area 620. An example of such an embodiment is shown in FIGS. 6W-6X, which then shows a tap gesture 660 on a helmet sticker 658-1 displayed in the center of the image display area 620.

図6Y~図6Zは、ステッカーを新しい位置にドラッグすることによって、配置されたステッカー(例えば、ステッカー658-1)を画像表示領域620上に再配置できることを示す(ステッカー658-1を図6Zの新しい位置に動かしているジェスチャ662参照)。 6Y-6Z illustrate that a placed sticker (e.g., sticker 658-1) can be repositioned on image display area 620 by dragging the sticker to a new position (sticker 658-1 in FIG. 6Z). (see gesture 662 moving to new position).

図6AAは、配置されたステッカー(例えば、ステッカー658-1)が、2本指のジェスチャ664を使用して回転できることを示す。 FIG. 6AA shows that a placed sticker (eg, sticker 658-1) can be rotated using a two-finger gesture 664.

図6ABは、配置されたステッカー(例えば、ステッカー658-1)が、ピンチ又はデピンチジェスチャを使用してサイズ変更できることを示す。図6ABでは、ヘルメットステッカー658-1が、デピンチジェスチャ666に応じて拡大されている。サイズ変更され、回転され、再配置されたヘルメットステッカー658-1が、図6ACのロボットアバターの頭部上に配置されて示されている。 FIG. 6AB shows that a placed sticker (eg, sticker 658-1) can be resized using a pinch or de-pinch gesture. In FIG. 6AB, helmet sticker 658-1 has been enlarged in response to depinch gesture 666. A resized, rotated, and repositioned helmet sticker 658-1 is shown placed on the head of the robot avatar of FIG. 6AC.

図6ADでは、デバイス600は、クローズアイコン670上の入力668(例えば、ディスプレイ601上のタップジェスチャ)を検出して、ステッカーオプションメニュー656をクローズし、図6AEに示すように、キャプチャアフォーダンス621を示すカメラオプション領域625、ビジュアルエフェクトオプションアフォーダンス624、及びビジュアルエフェクトが表示可能にされていることを示す強調表示エフェクトアフォーダンス622を含む、カメラアプリケーションユーザインタフェース615に戻る。図6AEでは、デバイス600は、画像表示領域620上の画像にユーザの表現を示すが、ロボットアバター633(例えば、アバターオプションメニュー628から選択された)及びヘルメットステッカー658-1(例えば、ステッカーオプションメニュー656から選択された)を含むビジュアルエフェクトを用いて変更される。ビジュアルエフェクトの表示は動的である。例えば、デバイス600は、ユーザの顔の検出された変化に応じてロボットアバター633を連続的に変更する。一部の実施形態では、ステッカー658-1の位置決めはまた、以下に一層詳細に論じるように、動的であり、かつユーザの検出された動きに基づいて変化する。 In FIG. 6AD, device 600 detects input 668 (e.g., a tap gesture on display 601) on close icon 670 to close sticker options menu 656 and show capture affordance 621, as shown in FIG. 6AE. Returning to the camera application user interface 615, which includes a camera options area 625, a visual effects options affordance 624, and a highlight effects affordance 622 indicating that visual effects are enabled for display. In FIG. 6AE, the device 600 shows a representation of the user in an image on the image display area 620, including a robot avatar 633 (e.g., selected from the avatar options menu 628) and a helmet sticker 658-1 (e.g., selected from the sticker options menu 628). 656). The display of visual effects is dynamic. For example, device 600 continuously changes robot avatar 633 in response to detected changes in the user's face. In some embodiments, the positioning of sticker 658-1 is also dynamic and changes based on the user's detected movement, as discussed in more detail below.

ビジュアルエフェクトがデバイス600に対して有効化されている(例えば、エフェクトアフォーダンス622が強調表示されている)ときに、強調表示されたエフェクトアフォーダンス622を選択解除する(例えば、強調表示されているときにアフォーダンス622を選択して、ビジュアルエフェクトを無効化する)ことによって、適用されたビジュアルエフェクト(例えば、アバター及びステッカーなど)を画像表示領域620から除去する、又は隠すことができる。例えば、図6AFでは、デバイスは、強調表示エフェクトアフォーダンス622上の入力672(例えば、ディスプレイ601上のタップジェスチャ)を検出する。これに応答して、デバイス600は、カメラ602の視野内に被写体632及び背景636を含む画像ストリーム(例えば、ライブカメラプレビュー620-1)の表示を維持しながら、図6AGに示すように、表示されたビジュアルエフェクト(例えば、図6AFのヘルメットステッカー658-1及びロボットアバター633)を画像表示領域620から除去する。 When a visual effect is enabled for device 600 (e.g., effect affordance 622 is highlighted), deselecting a highlighted effect affordance 622 (e.g., when highlighted Applied visual effects (eg, avatars, stickers, etc.) can be removed or hidden from image display area 620 by selecting affordance 622 to disable visual effects. For example, in FIG. 6AF, the device detects input 672 (eg, a tap gesture on display 601) on highlight effect affordance 622. In response, device 600 displays the image stream (e.g., live camera preview 620-1) that includes subject 632 and background 636 within the field of view of camera 602, as shown in FIG. 6AG. 6AF (eg, helmet sticker 658-1 and robot avatar 633 in FIG. 6AF) are removed from image display area 620.

一部の実施形態では、ビジュアルエフェクトモードが(例えば強調表示エフェクトアフォーダンス622を選択解除することにより)無効化された後、除去されたビジュアルエフェクトは、例えば、所定の時間内にエフェクトアフォーダンス622を再選択することによって、復元することができる。例えば、図6AHでは、デバイスは、非強調表示エフェクトアフォーダンス622上の入力674(例えば、ディスプレイ601上のタップジェスチャ)を検出する。入力674を検出したことに応じて、デバイス600は、図6AIに示すように、被写体632の身体及び背景636を含む画像ストリーム(例えば、ライブカメラプレビュー620-1)を表示し続けながら、エフェクトアフォーダンス622を強調表示し、ヘルメットステッカー658-1及びロボットアバター633を再表示する。 In some embodiments, after the visual effects mode is disabled (e.g., by deselecting the highlight effect affordance 622), the removed visual effect reactivates the effect affordance 622 within a predetermined time. You can restore it by selecting it. For example, in FIG. 6AH, the device detects input 674 (eg, a tap gesture on display 601) on non-highlight effect affordance 622. In response to detecting input 674, device 600 displays effect affordances while continuing to display an image stream (e.g., live camera preview 620-1) that includes the body of subject 632 and background 636, as shown in FIG. 6AI. 622 is highlighted, and the helmet sticker 658-1 and robot avatar 633 are redisplayed.

図6AJでは、デバイス600は、キャプチャアフォーダンス621上の入力676(例えば、ディスプレイ601上のタップジェスチャ)を検出する。入力676を検出したことに応じて、デバイス600は、図6AJのライブカメラプレビュー620-1の画像をキャプチャし、図6AKのメディアアイテム620-2(例えば、デバイス600がキャプチャアフォーダンス621上の入力676を検出した時間におけるライブカメラプレビュー620-1の状態の静止画像)を表示する。 In FIG. 6AJ, device 600 detects input 676 on capture affordance 621 (eg, a tap gesture on display 601). In response to detecting input 676, device 600 captures an image of live camera preview 620-1 in FIG. 6AJ and media item 620-2 in FIG. A still image of the state of the live camera preview 620-1 at the time when the live camera preview 620-1 was detected is displayed.

一部の実施形態では、画像がキャプチャされる(例えば、メディアアイテムとして記憶される)と、デバイス600は、深度データをメディアアイテム内に符号化する。深度データをメディアに記憶することにより、深度ベースのエフェクト(例えば、z方向におけるオブジェクト(例えば、ユーザの顔)の位置に基づくエフェクト)を後で適用することが可能になる。一部の実施形態では、エフェクトが適用されている間に画像がキャプチャされると、他のデバイスとの互換性を改善するために、そのエフェクトが視覚(例えば、RGB)情報に直接符号化される。 In some embodiments, when an image is captured (eg, stored as a media item), device 600 encodes depth data within the media item. Storing depth data in the media allows depth-based effects (eg, effects based on the position of an object (eg, a user's face) in the z-direction) to be applied later. In some embodiments, when an image is captured while an effect is applied, the effect is encoded directly into visual (e.g., RGB) information to improve compatibility with other devices. Ru.

図6AKでは、デバイス600は、画像表示領域620にキャプチャされた画像(例えば、メディアアイテム620-2)を示すカメラアプリケーションユーザインタフェース615を表示する(例えば、メディアアイテム620-2は、画像表示領域620に示されるライブカメラプレビュー620-1を置換する)。メディアアイテム620-2は、キャプチャアフォーダンス621が選択された時点でのライブカメラプレビュー620-1の表現である。このように、メディアアイテム620-2は、被写体632の顔、及び背景636の上に表示されるヘルメットステッカー658-1及びロボットアバター633を含む。 In FIG. 6AK, device 600 displays a camera application user interface 615 that shows a captured image (e.g., media item 620-2) in image display area 620 (e.g., media item 620-2 appears in image display area 620). (replaces live camera preview 620-1 shown in ). Media item 620-2 is a representation of live camera preview 620-1 at the time capture affordance 621 was selected. Thus, media item 620-2 includes helmet sticker 658-1 and robot avatar 633 displayed over the face of subject 632 and background 636.

デバイス600はまた、カメラ固有アフォーダンス(例えば、図6AJに示すアフォーダンス617)を、再撮影アフォーダンス679、及び、受信者識別子606に置換し、受信者識別子606は、以下に論じるように、ユーザが続いてメディアアイテムを送信すべき、メディアアイテム620-2の現在選択されている受信者を示す。 Device 600 also replaces a camera-specific affordance (e.g., affordance 617 shown in FIG. 6AJ) with a retake affordance 679 and a recipient identifier 606, which the user then 620-2 indicates the currently selected recipient of media item 620-2 to whom the media item should be sent.

デバイス600は、ビジュアルエフェクトオプションアフォーダンス624を含むカメラオプション領域625を表示する。ビジュアルエフェクトオプションアフォーダンス624を選択して、それぞれのオプションメニューを表示することができ、メニューを使用して、キャプチャされたメディアアイテム620-2(並びに、後述する録画されたビデオメディアアイテム620-4)を変更することができる。 Device 600 displays camera options area 625 that includes visual effects option affordances 624. A visual effects option affordance 624 can be selected to display a respective menu of options, which can be used to select the captured media item 620-2 (as well as the recorded video media item 620-4, discussed below). can be changed.

デバイス600はまた、カメラオプション領域625を更新して、キャプチャアフォーダンス621及びカメラセレクタアフォーダンス627を、マークアップアフォーダンス677、編集アフォーダンス678、及び送信アフォーダンス680に置換する。マークアフォーダンス677は、ユーザがメディアアイテム620-2をマークアップすることを可能にする。編集アフォーダンス678により、ユーザが、画像を切り取ること、又はメディアアイテム620-2の他の特性を調整することによってなどで、メディアアイテム620-2を編集することが可能になる。図6AKに示すように、送信アフォーダンス680がキャプチャアフォーダンス621をディスプレイ上でに置換するように、キャプチャアフォーダンス621が表示された同じ位置/領域内に、送信アフォーダンス680が表示される。 Device 600 also updates camera options area 625 to replace capture affordance 621 and camera selector affordance 627 with markup affordance 677, edit affordance 678, and send affordance 680. Mark affordance 677 allows the user to mark up media item 620-2. Editing affordances 678 allow a user to edit media item 620-2, such as by cropping an image or adjusting other characteristics of media item 620-2. As shown in FIG. 6AK, the transmit affordance 680 is displayed within the same location/area where the capture affordance 621 was displayed, such that the transmit affordance 680 replaces the capture affordance 621 on the display.

送信アフォーダンス680は、受信者識別子606によって示される受信者にメディアアイテム620-2を、ユーザが直ちに送信することを可能にする。例えば、図6ALでは、デバイス600は、送信アフォーダンス680上の入力682(例えば、ディスプレイ601上のタップジェスチャ)を検出し、図6AMのメッセージングユーザインタフェース603に示すように、受信者識別子606に対応する連絡先であるJohnに、メディアアイテム620-2を直ちに送信する。一部の実施形態では、デバイス600は、メッセージングユーザインタフェース603を表示することなくメディアアイテム620-2を送信する。図6AMに示すなどの一部の実施形態では、デバイスは、メディアアイテム620-2を送信し、メディアアイテム620-2を有するメッセージングユーザインタフェース603をメッセージ表示領域604に表示して、メディアアイテム620-2がメッセージ会話の参加者(例えば、John)に送信されたこと、及びキーボード表示領域612の上方に配置されたアプリケーションドック690を表示していること、を示す。アプリケーションドック690は、異なるアプリケーションにアクセスするために選択可能なアプリケーションアフォーダンス692を含む。 Send affordance 680 allows the user to immediately send media item 620-2 to the recipient indicated by recipient identifier 606. For example, in FIG. 6AL, device 600 detects an input 682 (e.g., a tap gesture on display 601) on send affordance 680 and sends a message corresponding to recipient identifier 606, as shown in messaging user interface 603 of FIG. 6AM. Immediately send media item 620-2 to contact John. In some embodiments, device 600 sends media item 620-2 without displaying messaging user interface 603. In some embodiments, such as shown in FIG. 6AM, the device sends the media item 620-2, displays the messaging user interface 603 with the media item 620-2 in the message display area 604, and displays the media item 620-2. 2 has been sent to a participant in the message conversation (eg, John), and is displaying an application dock 690 located above the keyboard display area 612. Application dock 690 includes selectable application affordances 692 to access different applications.

一部の実施形態では、メディアアイテム620-2は、メッセージング会話の参加者に直ちには送信されない。例えば、図6ANでは、送信アフォーダンス680を選択する代わりに、ユーザは完了アフォーダンス618を選択する。完了アフォーダンス618上の入力684(例えば、ディスプレイ601上のタップジェスチャ)を検出したことに応じて、デバイス600は、図6AOに示すように、メッセージングユーザインタフェース603のメッセージ作成フィールド608に、メディアアイテム685の表現を表示する。この実施形態(図6AO~図6ARに示す)では、アプリケーションドック690を表示する代わりに、デバイス600は、メッセージを送信する前に、キーボード表示領域612と一緒にテキスト提案領域614を表示し、ユーザがテキスト(例えば、687)を作成するか、又は任意選択的に他のメッセージコンテンツ(例えば、マルチメディアコンテンツ)を追加できるようにする。送信アイコン688上の入力686(例えば、ディスプレイ601上のタップジェスチャ)を検出したことに応じて、デバイス600は、図6AQ~図6ARに示すように、メディアアイテム685の表現をメッセージ会話の参加者に送信する。 In some embodiments, media item 620-2 is not immediately sent to the participants in the messaging conversation. For example, in FIG. 6AN, instead of selecting send affordance 680, the user selects completion affordance 618. In response to detecting input 684 on completion affordance 618 (e.g., a tap gesture on display 601), device 600 adds media item 685 to message compose field 608 of messaging user interface 603, as shown in FIG. 6AO. Display the expression. In this embodiment (shown in FIGS. 6AO-6AR), instead of displaying an application dock 690, the device 600 displays a text suggestion area 614 along with a keyboard display area 612 and the user create text (eg, 687) or optionally add other message content (eg, multimedia content). In response to detecting input 686 on send icon 688 (e.g., a tap gesture on display 601), device 600 sends a representation of media item 685 to a message conversation participant, as shown in FIGS. 6AQ-6AR. Send to.

一部の実施形態では、メディアアイテム685を送信することは、メディアアイテムに符号化された深度データを有するメディアアイテムを送信することを含む。深度データと共にメディアアイテムをメディアに記憶することにより、深度ベースのエフェクト(例えば、z方向におけるオブジェクト(例えば、ユーザの顔)の位置に基づくエフェクト)を、後で適用すること(例えば、受信者が後で適用すること)が可能になる。一部の実施形態では、メディアアイテムが送信されると、他のデバイスとの互換性を向上させるために、そのエフェクトが視覚(例えばRGB)情報に直接符号化される。 In some embodiments, transmitting the media item 685 includes transmitting the media item with depth data encoded in the media item. By storing media items with depth data in the media, depth-based effects (e.g., effects based on the position of an object (e.g., the user's face) in the z-direction) can be applied later (e.g., when the recipient can be applied later). In some embodiments, when a media item is transmitted, its effects are encoded directly into visual (eg, RGB) information to improve compatibility with other devices.

一部の実施形態では、メディアアイテム685の表現を送信した後、デバイス600は、図6ARに示すように、キーボード表示領域612の上方に表示されるテキスト提案領域614を有するメッセージングユーザインタフェース603を表示する。アプリケーションドックアフォーダンス610上の入力694(例えば、ディスプレイ601上のタップジェスチャ)を受信したことに応じて、デバイス600は、図6ATに示すように、テキスト提案領域614をアプリケーションドック690に置換する。 In some embodiments, after sending the representation of the media item 685, the device 600 displays a messaging user interface 603 having a text suggestion area 614 displayed above the keyboard display area 612, as shown in FIG. 6AR. do. In response to receiving input 694 on application dock affordance 610 (eg, a tap gesture on display 601), device 600 replaces text suggestion area 614 with application dock 690, as shown in FIG. 6AT.

一部の実施形態では、ユーザがメッセージ作成フィールド608又ははキーボード領域612(メッセージのテキストを作成することに関連付けられた動作)を選択するまで、アプリケーションドック690はメッセージングユーザインタフェース603に表示されたままである。例えば、図6AUに示すように、デバイス600は、キーボード表示領域612上の入力696(例えば、デバイス601上のタップジェスチャ)を検出する。これに応じて、図6AVに示すように、デバイス600は、アプリケーションドック690を除去し、キーボード表示領域612の上方にテキスト提案領域614を表示する。一部の実施形態では、入力696が(キーボード表示領域612の代わりに)メッセージ作成フィールド上の入力である場合、デバイス600はまた、図6AVに示すように、アプリケーションドック690を除去し、テキスト提案領域614を表示する。 In some embodiments, application dock 690 remains displayed in messaging user interface 603 until the user selects message compose field 608 or keyboard area 612 (an action associated with composing the text of a message). be. For example, as shown in FIG. 6AU, device 600 detects an input 696 on keyboard display area 612 (eg, a tap gesture on device 601). In response, device 600 removes application dock 690 and displays text suggestion area 614 above keyboard display area 612, as shown in FIG. 6AV. In some embodiments, when input 696 is input on a message compose field (instead of keyboard display area 612), device 600 also removes application dock 690 and provides text suggestions, as shown in FIG. 6AV. Area 614 is displayed.

図6AWは、アプリケーションドックアフォーダンス610が選択された後(例えば、図6ASの入力694に応じて)のメッセージングユーザインタフェース603を示す。アプリケーションドック690は、キーボード選択領域612の上方に表示される(例えば、テキスト提案領域614を置換する)。アプリケーションアフォーダンス692-1上の入力698(例えば、ディスプレイ601上のタップジェスチャ)を検出したことに応じて、デバイス600は、テキスト提案領域614及びキーボード表示領域612によって以前に占有されていた位置にアプリケーション表示領域699を表示する。アプリケーション表示領域699は、アプリケーションドック690を任意選択的に含み、アプリケーションドック690は、図6AXに示すように、選択されたアプリケーションアフォーダンス(例えば、アプリケーションアフォーダンス692-1)の表示6100を含む。 FIG. 6AW shows messaging user interface 603 after application dock affordance 610 is selected (eg, in response to input 694 of FIG. 6AS). Application dock 690 is displayed above keyboard selection area 612 (eg, replacing text suggestion area 614). In response to detecting input 698 on application affordance 692-1 (e.g., a tap gesture on display 601), device 600 moves the application to the position previously occupied by text suggestion area 614 and keyboard display area 612. A display area 699 is displayed. Application display area 699 optionally includes an application dock 690 that includes a display 6100 of a selected application affordance (eg, application affordance 692-1), as shown in FIG. 6AX.

一部の実施形態では、アプリケーション表示領域699は、メッセージングユーザインタフェース603で使用するために選択できるグラフィカルオブジェクト6102を含む。一部の実施形態では、アプリケーション表示領域699に表示されるグラフィカルオブジェクトのタイプは、アプリケーション表示領域の表示を呼び出すために選択されたアプリケーションアフォーダンスに依存する。図6AXに示す実施形態では、選択されたアプリケーションアフォーダンス692-1は、アバターアプリケーションに対応する。したがって、アプリケーション表示領域699に表示されるグラフィカルオブジェクト6102-1及び6102-2は、メッセージングユーザインタフェースで使用するために選択できるアバターに対応する。アプリケーションドック610から選択されたアプリケーションアフォーダンスがステッカーアプリケーションに対応する場合、グラフィカルオブジェクト6102は、メッセージングユーザーインタフェースで使用するために選択できるステッカーに対応する。 In some embodiments, application display area 699 includes graphical objects 6102 that can be selected for use in messaging user interface 603. In some embodiments, the type of graphical object displayed in application display area 699 depends on the application affordance selected to invoke the display of the application display area. In the embodiment shown in FIG. 6AX, the selected application affordance 692-1 corresponds to an avatar application. Accordingly, graphical objects 6102-1 and 6102-2 displayed in application display area 699 correspond to avatars that can be selected for use in a messaging user interface. If the application affordance selected from application dock 610 corresponds to a sticker application, graphical object 6102 corresponds to a sticker that can be selected for use in the messaging user interface.

前述したように、図6C~図6AXに関して説明した先の実施形態は、写真アフォーダンス619-2に関連付けられた動作の静止画像キャプチャモードで動作するデバイス600に関して論じられる。しかしながら、特に明記しない限り、これらの実施形態はまた、デバイスがビデオアフォーダンス619-1に関連付けられたビデオ録画モードで動作しているときのデバイス600の動作に適用される。このようにして、ビデオアフォーダンス619-1に関連付けられたビデオ録画モードで動作しているときにデバイス600に適用される先の実施形態の多くを示す、図6AY~図6BQの下記の説明は、冗長性を避けるために必要に応じて省略されている。 As previously mentioned, the previous embodiments described with respect to FIGS. 6C-6AX are discussed with respect to device 600 operating in a still image capture mode of operation associated with photo affordance 619-2. However, unless otherwise specified, these embodiments also apply to the operation of device 600 when the device is operating in a video recording mode associated with video affordance 619-1. As such, the following description of FIGS. 6AY-6BQ illustrates many of the foregoing embodiments as applied to device 600 when operating in a video recording mode associated with video affordance 619-1. Omitted where necessary to avoid redundancy.

図6AY~図6AZは、カメラアプリケーションユーザインタフェース615のビデオアフォーダンス619-1上の入力6104を検出したことに応じて、デバイス600がビデオ録画モードに切り替わることを示す。ビデオ録画モードに切り替えると、デバイス600は、カメラ固有アフォーダンス617-2、617-3、及び617-4を除外し、タイマ6122を表示する。 6AY-6AZ illustrate device 600 switching to video recording mode in response to detecting input 6104 on video affordance 619-1 of camera application user interface 615. Upon switching to video recording mode, device 600 excludes camera-specific affordances 617-2, 617-3, and 617-4 and displays timer 6122.

図6AZ~図6BBは、エフェクトアフォーダンス622上の入力6106に応じてエフェクトモードを有効化し、次いでビデオ記録モードが有効化されている間に、カメラオプション領域625にビジュアルエフェクトオプションアフォーダンス624を表示するデバイス600を示す。 6AZ-6BB illustrate a device 600 that enables an effects mode in response to an input 6106 on an effects affordance 622 and then displays a visual effects options affordance 624 in a camera options area 625 while a video recording mode is enabled. shows.

図6BC~図6BEは、アバターエフェクトアフォーダンス624-1上の入力6108を検出したことに応じて、アバターオプションメニュー628を表示するデバイス600を示す。アバターオプションメニュー628は、ビデオモード中に被写体の顔に対応するアバターを表示するために選択できる、アバターオプション630を含む。ロボットアバターオプション630-3が選択されると、デバイス600は、被写体の身体及び背景636の表示を維持しながら、ロボットアバター633を被写体の顔に表示する。クローズアイコン650は入力6110により選択され、アバターオプションメニュー628をクローズし、強調表示されたエフェクトアフォーダンス622及び表示されたビジュアルエフェクトオプションアフォーダンス624を有するカメラオプション領域625に戻る。 6BC-6BE illustrate device 600 displaying avatar options menu 628 in response to detecting input 6108 on avatar effect affordance 624-1. Avatar options menu 628 includes an avatar option 630 that can be selected to display an avatar corresponding to the subject's face during video mode. When robot avatar option 630-3 is selected, device 600 displays robot avatar 633 on the subject's face while maintaining display of the subject's body and background 636. Close icon 650 is selected by input 6110 to close avatar options menu 628 and return to camera options area 625 with effect affordances highlighted 622 and visual effects option affordances 624 displayed.

図6BF~図6BHは、画像表示領域620に表された画像データの録画されたビデオを生成するデバイス600を示す。デバイス600は、キャプチャアフォーダンス621上の入力6112を検出し、画像表示領域620に表された画像データのキャプチャを開始する。一部の実施形態では、デバイス600は、デバイス600のビデオ録画モードが有効化されているとの判定に基づいて、画像データのビデオ記録を生成する。一部の実施形態では、デバイス600は、キャプチャアフォーダンス621上で検出された入力6112に基づいて、ビデオ録画又は任意選択で静止画像キャプチャを生成する。例えば、入力6112がタップジェスチャとして検出されると、デバイス600は、画像表示領域620に表される画像データの静止画像をキャプチャする。入力6112がタップアンドホールドジェスチャとして検出された場合、デバイス600は、一層詳細に上述したように、画像データのビデオ録画をキャプチャする。 6BF-6BH illustrate a device 600 that generates recorded video of image data represented in an image display area 620. Device 600 detects input 6112 on capture affordance 621 and begins capturing image data represented in image display area 620. In some embodiments, device 600 generates a video recording of the image data based on determining that a video recording mode of device 600 is enabled. In some embodiments, device 600 generates a video recording or optionally a still image capture based on input 6112 detected on capture affordance 621. For example, when input 6112 is detected as a tap gesture, device 600 captures a still image of the image data represented in image display area 620. If input 6112 is detected as a tap-and-hold gesture, device 600 captures a video recording of image data, as described in more detail above.

図6BGでは、キャプチャアフォーダンス621上の入力6112を検出したことに応じて、デバイス600は、被写体、背景、及びビジュアルエフェクトを含む画像表示領域620に表される画像データを記録するための処理を開始する。デバイス600はまた、カメラエフェクト領域625を除去し、画像表示領域620を拡張し、並びに停止アフォーダンス6114、及び任意選択的に、ライブカメラ記録の静止画像をキャプチャするための画像キャプチャアフォーダンス6116を表示することによって、カメラアプリケーションユーザーインタフェース615を変更する。図6BG及び図6BHでは、画像表示領域620は、上述のようになされた様々な選択に従って有効化されるビジュアルエフェクト(例えば、ロボットアバター633)の追加を伴う、カメラ602の視野内のオブジェクトのライブカメラ記録620-3を表す。ステッカー及びフルスクリーンエフェクトを含むこともできる、これらのビジュアルエフェクトは、ライブ画像データの一部として画像表示領域620に表示され、結果としてのメディアアイテムの一部を形成するために記録される。本明細書で論じるように、これらのビジュアルエフェクトは、メディアアイテムが記録された後、メディアアイテムに任意選択的に表示又は隠すことができる。 In FIG. 6BG, in response to detecting input 6112 on capture affordance 621, device 600 begins processing to record image data represented in image display area 620, including the subject, background, and visual effects. do. Device 600 also removes camera effects area 625, expands image display area 620, and displays a stop affordance 6114 and, optionally, an image capture affordance 6116 for capturing a still image of the live camera recording. This changes the camera application user interface 615. 6BG and 6BH, image display area 620 shows a live view of objects within the field of view of camera 602 with the addition of visual effects (e.g., robot avatar 633) that are enabled according to the various selections made as described above. Represents camera recording 620-3. These visual effects, which can also include stickers and full-screen effects, are displayed in the image display area 620 as part of the live image data and recorded to form part of the resulting media item. As discussed herein, these visual effects can be optionally displayed or hidden on the media item after the media item is recorded.

図6BHでは、デバイス600は、ユーザの顔の変化を検出し、ライブ画像ストリームを記録しながら、ユーザの顔の検出された変化に基づいてロボットアバター633を変更する。停止アフォーダンス6114上の入力6118を検出したことに応じて、デバイス600は、画像表示領域620に表される画像データの記録を停止し、図6BIに示す再生インタフェースを表示する。 In FIG. 6BH, the device 600 detects changes in the user's face and changes the robot avatar 633 based on the detected changes in the user's face while recording a live image stream. In response to detecting input 6118 on stop affordance 6114, device 600 stops recording the image data represented in image display area 620 and displays the playback interface shown in FIG. 6BI.

図6BIでは、デバイス600は、画像表示領域620に記録されたビデオメディアアイテム620-4を表示し、再撮影アフォーダンス679及び受信者識別子606を表示し、受信者識別子は、本明細書で論じるように、ユーザが続いてメディアアイテムを送信すべき、ビデオアイテム620-4の現在選択されている受信者を示す。 In FIG. 6BI, device 600 displays recorded video media item 620-4 in image display area 620 and displays reshoot affordance 679 and recipient identifier 606, where recipient identifier is as discussed herein. shows the currently selected recipient of video item 620-4 to which the user should subsequently send the media item.

デバイス600はまた、停止アフォーダンス6114及び画像キャプチャアフォーダンス6116を除去し、記録されたビデオメディアアイテム620-4用のビデオスクラバ6120、エフェクトアフォーダンス622、編集アフォーダンス678、マークアップアフォーダンス677、及び送信アフォーダンス680を有するカメラオプション領域625を表示する。カメラオプション領域625はまた、ビジュアルエフェクトオプションアフォーダンス624を含む。ビジュアルエフェクトオプションアフォーダンス624を選択して、キャプチャされたメディアアイテム620-4を変更するために使用できる、それぞれのオプションメニューを表示することができる。図6BJ~図6BNは、キャプチャされたビデオメディアアイテム620-4においてビジュアルエフェクトを変更する例を示す。図6BIに示すように、送信アフォーダンス680がキャプチャアフォーダンス6116をディスプレイ上でに置換するように、キャプチャアフォーダンス6116が表示された同じ位置/領域内に、送信アフォーダンス680が表示される。 Device 600 also removes stop affordance 6114 and image capture affordance 6116, and adds video scrubber 6120, effects affordance 622, edit affordance 678, markup affordance 677, and send affordance 680 for recorded video media item 620-4. Displays the camera options area 625 with the camera options area 625. Camera options area 625 also includes visual effects option affordances 624. Visual effects option affordance 624 may be selected to display a respective menu of options that can be used to modify captured media item 620-4. 6BJ-6BN illustrate an example of changing visual effects in a captured video media item 620-4. As shown in FIG. 6BI, the transmit affordance 680 is displayed within the same location/area where the capture affordance 6116 was displayed, such that the transmit affordance 680 replaces the capture affordance 6116 on the display.

図6BJ~図6BNは、アバターエフェクトアフォーダンス624-1上の入力6124を検出したことに応じて、アバターオプションメニュー628を表示するデバイス600を示す。図6BKに示すように、アバターオプションメニュー628は、選択されたロボットアバターオプション630-3を含むアバターオプション630を示す。図6BLに示すように、デバイス600は、入力6126を検出してウサギアバターオプション630-4を選択し、ビデオメディアアイテム620-4を更新して、図6BMに示すように、被写体の身体及び背景636をなおも表示しながら、被写体の頭部に配置されたウサギアバター634を示す。図6BNに示すように、クローズアイコン650上の入力6128を検出したことに応じて、デバイス600は、アバターオプションメニュー628をクローズし、図6BOのカメラオプション領域625を表示する。ビデオスクラバ6120を含むカメラオプション領域625は、図6BJのロボットアバター633の表示から、ウサギアバター634の表示に更新される。一部の実施形態では、ビデオスクラバ6120に向けられた入力(例えば、ビデオスクラバ6120の位置で開始する接触の動きを含むスワイプ入力又はドラッグ入力)に応じて、デバイスは、録画されたビデオを通じてスクラブする(例えば、ビデオのプレビューの外観を変更し、及び入力に従って、スクラバを移動させるか又はスクラバ内の再生ヘッドを移動させる)。一部の実施形態では、記録されたビデオを通じてスクラブすることは、ビデオに適用されるエフェクトが経時的にどのように影響を及ぼすか(例えば、ステッカー及び/又はアバターが、ユーザの頭部/顔が動くにつれて、どのように動き、及び/又は表現を変化させるか、若しくは1つ以上のカメラの視野内の表現を変化させるか)を示す。一部の実施形態では、ビデオスクラバ6120は、ビデオをクロッピングする(例えば、ビデオスクラバの両端の編集アフォーダンスをドラッグすることにより、ビデオスクラバの開始又は終了時間を変更する)ための選択可能なアフォーダンスを含む。例えば、図8AWのビデオスクラバ8120に向けられたユーザ入力に応じて、デバイスは、図8AW~8AZに示すように、アバター及びステッカーを用いて、しかし入力(例えば、タッチ感知ディスプレイ上の接触の動きの大きさ及び方向)の変化に基づいて決定されたレートで、ビデオを通じてスクラブし得る。上述したビデオスクラバ6120(及び後述するビデオスクラバ8120)との相互作用は、本明細書に記載する他のスクラバとの相互作用に対するのと同様の方法で、任意選択的に適用される。 6BJ-6BN illustrate device 600 displaying avatar options menu 628 in response to detecting input 6124 on avatar effect affordance 624-1. As shown in FIG. 6BK, avatar options menu 628 shows avatar options 630, including a selected robot avatar option 630-3. As shown in FIG. 6BL, device 600 detects input 6126 to select rabbit avatar option 630-4 and updates video media item 620-4 to include the subject's body and background, as shown in FIG. 6BM. While still displaying 636, a rabbit avatar 634 is shown positioned on the subject's head. As shown in FIG. 6BN, in response to detecting input 6128 on close icon 650, device 600 closes avatar options menu 628 and displays camera options area 625 of FIG. 6BO. Camera options area 625, including video scrubber 6120, is updated from displaying robot avatar 633 in FIG. 6BJ to displaying rabbit avatar 634. In some embodiments, in response to an input directed to the video scrubber 6120 (e.g., a swipe input or a drag input that includes a contact movement that starts at the location of the video scrubber 6120), the device scrubs through the recorded video. (e.g., change the appearance of the video preview and move the scrubber or move the playhead within the scrubber according to the input). In some embodiments, scrubbing through the recorded video may affect how effects applied to the video affect the user's head/face over time (e.g., if stickers and/or avatars changes its movement and/or representation, or changes its representation within the field of view of one or more cameras as it moves. In some embodiments, the video scrubber 6120 includes selectable affordances for cropping the video (e.g., changing the start or end time of the video scrubber by dragging the editing affordances at either end of the video scrubber). include. For example, in response to user input directed to the video scrubber 8120 of FIG. 8AW, the device uses avatars and stickers as shown in FIGS. may scrub through the video at a rate determined based on changes in the size and direction of the video. Interaction with video scrubber 6120 described above (and video scrubber 8120 described below) optionally applies in a similar manner to interactions with other scrubbers described herein.

図6AK~図6AOに関して上述したように、ビデオメディアアイテム620-4を、図6BP及び図6BQに示すように、送信アフォーダンス680上の入力(例えば、入力6130)を検出したことに応じて、メッセージ会話の参加者に直ちに送信することができる。ビデオメディアアイテム620-4の表現は、完了アフォーダンス618の入力に応じて、メッセージ作成フィールド608に表示することができる。 As described above with respect to FIGS. 6AK-6AO, video media item 620-4 is sent to a message in response to detecting an input (e.g., input 6130) on transmission affordance 680, as shown in FIGS. 6BP and 6BQ. It can be sent immediately to conversation participants. A representation of video media item 620-4 may be displayed in message composition field 608 in response to input of completion affordance 618.

図7A~図7Bは、一部の実施形態に係る、電子デバイスを使用してメッセージングアプリケーションにビジュアルエフェクトを表示するための方法を示すフロー図である。方法700は、カメラ、表示装置、及び1つ以上の入力デバイスを備えたデバイス(例えば、100、300、500、600)にて実行される。方法700におけるいくつか動作は、任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 7A-7B are flow diagrams illustrating a method for displaying visual effects in a messaging application using an electronic device, according to some embodiments. Method 700 is performed at a device (eg, 100, 300, 500, 600) that includes a camera, a display, and one or more input devices. Some acts in method 700 are optionally combined, the order of some acts optionally changed, and some acts optionally omitted.

以下に説明するように、方法700は、メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための直感的な仕方を提供する。この方法は、メッセージングアプリケーションにおいて送信する画像にビジュアルエフェクトを適用するためユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作コンピューティングデバイスでは、画像にビジュアルエフェクトをユーザーがより迅速かつ効率的に表示できるようにすることで、電力を節約し、バッテリ充電間の時間を増大させる。 As described below, method 700 provides an intuitive way to display visual effects in a messaging application. This method reduces the cognitive burden on users to apply visual effects to images sent in messaging applications, thereby creating a more efficient human-machine interface. On battery-operated computing devices, enabling users to display visual effects on images more quickly and efficiently saves power and increases the time between battery charges.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンス(例えば、609、カメラアプリケーションをアクティブ化するための機能に関連付けられた選択可能なアイコン)を含むメッセージングユーザインタフェース(例えば、603)を表示する(702)。 An electronic device (e.g., 600) associates a camera affordance (e.g., 609, functionality for activating a camera application) of a message conversation including at least a first participant via a display device (e.g., 601). A messaging user interface (e.g., 603) is displayed (702) including a selected selectable icon).

電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力(例えば、616、カメラアフォーダンスに対応する位置におけるタッチスクリーンディスプレイ上のタッチジェスチャ)を検出する(704)。 The electronic device (e.g., 600) receives a first input (e.g., 616, a touch gesture on the touch screen display at a location corresponding to the camera affordance) directed to the camera affordance via one or more input devices. Detect (704).

第1の入力(例えば、616)を検出したことに応じて、電子デバイス(例えば、600)は、カメラユーザインタフェース(例えば、615)を表示する(706)。カメラユーザインタフェースは、キャプチャアフォーダンス(例えば、電子デバイスのカメラを使用して画像データをキャプチャするための機能に関連付けられた選択可能なアイコン、621)を含む(708)。 In response to detecting the first input (e.g., 616), the electronic device (e.g., 600) displays (706) a camera user interface (e.g., 615). The camera user interface includes a capture affordance (eg, a selectable icon, 621, associated with a functionality for capturing image data using the electronic device's camera) (708).

一部の実施形態では、カメラユーザインタフェース(例えば、615)は、キャプチャされた画像データに表示するためにビジュアルエフェクトが有効化されるモードに関連付けられたエフェクトモードアフォーダンス(例えば、622、画像データを変更するために様々なビジュアルエフェクトが利用可能なモードをアクティブ化するための機能に関連付けられた選択可能なアイコン)を含む(710)。カメラユーザインタフェースにエフェクトモードアフォーダンスを含めることにより、ユーザが、カメラユーザインタフェースを介して特定のエフェクト(例えば、ビジュアルエフェクト)を画像に適用できることを認識することが可能になる。デバイスの追加の制御を提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ビジュアルエフェクトを、カメラの視野内の画像データの表現に付加することができる。一部の実施形態では、ビジュアルエフェクトを、キャプチャされた画像データに付加することができる。一部の実施形態では、ビジュアルエフェクトは深度データに基づく。一部の実施形態では、電子デバイスは、1つ以上の入力デバイスを介して、エフェクトモードアフォーダンスの選択(たとえば、623)を検出する。一部の実施形態では、エフェクトモードアフォーダンスの選択を検出したことに応じて、電子デバイスは、第1のカメラモード(例えば、標準カメラモード)から、第1のカメラモードとは異なる第2のカメラモード(例えば、エフェクトカメラモード、画像データを変更するために様々なビジュアルエフェクトを利用できるモード)に、電子デバイスを遷移させる。一部の実施形態では、デバイスが第2のカメラモードにある間に、第2のカメラモードが動作しているという視覚表示が表示される(例えば、エフェクトモードアフォーダンスが強調表示される)。 In some embodiments, the camera user interface (e.g., 615) includes an effect mode affordance (e.g., 622, associated with the mode in which visual effects are enabled for displaying on the captured image data). (710) associated with a function for activating a mode in which various visual effects are available for modification. Including an effect mode affordance in a camera user interface allows a user to recognize that a particular effect (eg, visual effect) can be applied to an image via the camera user interface. The usability of the device is improved by providing additional control over the device, and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, avoiding user error) In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, visual effects may be added to the representation of image data within the field of view of the camera. In some embodiments, visual effects may be added to the captured image data. In some embodiments, visual effects are based on depth data. In some embodiments, the electronic device detects the selection of the effect mode affordance (eg, 623) via one or more input devices. In some embodiments, in response to detecting the selection of the effect mode affordance, the electronic device changes the camera mode from the first camera mode (e.g., standard camera mode) to a second camera mode that is different from the first camera mode. Transitioning the electronic device to a mode (e.g., an effects camera mode, a mode in which various visual effects are available to modify image data). In some embodiments, while the device is in the second camera mode, a visual indication that the second camera mode is in operation is displayed (eg, an effects mode affordance is highlighted).

一部の実施形態では、エフェクトモードアフォーダンス(例えば、622)の選択(例えば、623)を検出することに更に応じて、電子デバイス(例えば、600)は、1つ以上のカメラモードアフォーダンスを表示することを停止する。一部の実施形態では、エフェクトモードアフォーダンスの選択を検出したことに更に応じて、電子デバイスは、複数のエフェクトオプションアフォーダンス(例えば、624、ビジュアルエフェクトを生成するための機能にそれぞれ関連付けられた選択可能なアイコン)を表示する。一部の実施形態では、エフェクトオプションアフォーダンスは、1つ以上のカメラモードアフォーダンスによって以前に占有されていた、カメラユーザインタフェース(例えば、615)内の位置に、ステッカーアフォーダンス(例えば、624-2)及び/又はアバターアフォーダンス(例えば、624-1)を含む。一部の実施形態では、エフェクトオプションアフォーダンスが表示される位置は、カメラモードアフォーダンスが以前に表示された特定の領域(例えば、カメラエフェクト領域625)内の任意の位置である。一部の実施形態では、それぞれのエフェクトオプションアフォーダンスが表示される位置は、それぞれのカメラモードアフォーダンスがその領域に表示されたのと同じ位置である。一部の実施形態では、エフェクトオプションアフォーダンスを表示することは、カメラモードアフォーダンスをエフェクトオプションアフォーダンスに置換することを含む。 In some embodiments, further responsive to detecting the selection (e.g., 623) of the effect mode affordance (e.g., 622), the electronic device (e.g., 600) displays one or more camera mode affordances. Stop doing things. In some embodiments, further responsive to detecting the selection of the effect mode affordance, the electronic device provides a plurality of selectable effect option affordances (e.g., 624, each associated with a function for producing a visual effect). icon). In some embodiments, the effect option affordance is placed in a position within the camera user interface (e.g., 615) previously occupied by one or more camera mode affordances, including a sticker affordance (e.g., 624-2) and and/or avatar affordances (eg, 624-1). In some embodiments, the location where the effect option affordance is displayed is any location within a particular area (eg, camera effects area 625) where the camera mode affordance was previously displayed. In some embodiments, the location in which each effect option affordance is displayed is the same location in which each camera mode affordance is displayed in that region. In some embodiments, displaying the effect option affordances includes replacing the camera mode affordance with the effect option affordance.

一部の実施形態では、電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、エフェクトオプションアフォーダンスの第1のもの(例えば、ステッカーアフォーダンス624-2)の選択(例えば、654)を検出する。一部の実施形態では、エフェクトオプションアフォーダンスのうちの第1のものの選択を検出したことに応じて、電子デバイスは、複数のエフェクトオプションアフォーダンス(例えば、624)を表示することを停止し、複数の選択可能なグラフィックアイコン(例えば、658、ステッカー)を表示する。エフェクトオプションアフォーダンスのうちの第1のものの選択を検出したことに応じて、複数のエフェクトオプションアフォーダンスの表示を停止し、複数の選択可能なグラフィックアイコンを表示することにより、ユーザは、エフェクトオプションアフォーダンスのうちの第1のものがグラフィックアイコン(例えば、ステッカー)オプションに関連することを迅速かつ容易に認識することができ、それによって、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ステッカーを表示することは、エフェクトオプションのアフォーダンスの上に領域(例えば、ステッカーメニュー656)を表示することを含み、この領域は、カメラユーザインタフェースに表される画像上に表示するために選択できる複数のステッカーオプションを含む。一部の実施形態では、ユーザは、ステッカー上をタップすることによってステッカー(例えば、658-1)を選択し(例えば、660)、ステッカーは画像上に自動的に表示される(例えば、画像の中心などのデフォルト位置に)。一部の実施形態では、ユーザは、ステッカーをタッチし、ステッカーをステッカーメニューから画像上にドラッグすることによって、ステッカーを選択する。一部の実施形態では、キャプチャアフォーダンスを表示している間に、エフェクトオプションアフォーダンスのうちの第1のものの選択を検出したことに更に応じて、電子デバイスは、キャプチャアフォーダンスの表示を停止する。 In some embodiments, the electronic device (e.g., 600) selects (e.g., 654) a first of the effect option affordances (e.g., sticker affordance 624-2) via one or more input devices. Detect. In some embodiments, in response to detecting the selection of the first of the effect option affordances, the electronic device stops displaying the plurality of effect option affordances (e.g., 624), and selects the plurality of effect option affordances (e.g., 624). Display selectable graphic icons (eg, 658, stickers). In response to detecting selection of the first of the effect option affordances, the user can select the effect option affordances by ceasing displaying the plurality of effect option affordances and displaying the plurality of selectable graphical icons. One can quickly and easily recognize that the first of these relates to graphic icons (e.g. stickers) options, thereby improving the usability of the device and changing the user device interface (e.g. (by assisting the user to provide appropriate input when interacting with the device and reducing user errors); Reduce device power usage and improve battery life by enabling In some embodiments, displaying the sticker includes displaying a region (e.g., sticker menu 656) over the affordance of the effect options, the region overlaying the image represented in the camera user interface. Contains multiple sticker options that you can choose to display. In some embodiments, the user selects a sticker (e.g., 658-1) by tapping on the sticker (e.g., 660) and the sticker is automatically displayed on the image (e.g., on the image). (in a default position such as center). In some embodiments, the user selects the sticker by touching the sticker and dragging the sticker from the sticker menu onto the image. In some embodiments, further responsive to detecting selection of the first of the effect option affordances while displaying the capture affordance, the electronic device stops displaying the capture affordance.

一部の実施形態では、電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、エフェクトオプションアフォーダンスのうちの第2のもの(例えば、アバターアフォーダンス624-1)の選択(例えば、626)を検出する。一部の実施形態では、エフェクトオプションアフォーダンスのうちの第2のものの選択を検出したことに応じて、電子デバイスは、複数のエフェクトオプションアフォーダンス(例えば、624)の表示を停止し、複数のアバターアフォーダンス(例えば、直線配置で表示される630)(例えば、アバターを表すアフォーダンス)を有するアバター選択領域(例えば、アバターメニュー628)を表示する。エフェクトオプションアフォーダンスのうちの第2のものの選択を検出したことに応じて、複数のエフェクトオプションアフォーダンスの表示を停止し、アバター選択領域を表示することにより、ユーザは、エフェクトオプションアフォーダンスのうちの第2がアバター選択に関連することを迅速かつ容易に認識することができ、それによって、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、アバターアフォーダンスは、カスタマイズ可能、カスタマイズ不可能、又はそれらの組み合わせであるアバターに対応する。一部の実施形態では、アバター選択領域を表示することは、エフェクトオプションアフォーダンスの上に領域(例えば、アバターメニュー628)を表示することを含み、この領域は、カメラユーザインタフェースに表される画像上に対応するアバターを表示するために選択できる複数のアバターアフォーダンスを含む。 In some embodiments, the electronic device (e.g., 600), via one or more input devices, selects (e.g., 626) is detected. In some embodiments, in response to detecting the selection of the second of the effect option affordances, the electronic device stops displaying the plurality of effect option affordances (e.g., 624) and the plurality of avatar affordances. (e.g., 630 displayed in a linear arrangement) (e.g., affordances representing the avatar) are displayed (e.g., avatar menu 628). In response to detecting the selection of the second of the effect option affordances, by stopping displaying the plurality of effect option affordances and displaying the avatar selection area, the user selects the second of the effect option affordances. can be quickly and easily recognized as relevant to avatar selection, thereby improving the usability of the device and improving the user-device interface (e.g. by providing appropriate input when operating/interacting with the device). In addition, it reduces the device's power usage by allowing the user to use the device more quickly and efficiently. , improve battery life. In some embodiments, the avatar affordances correspond to avatars that are customizable, non-customizable, or a combination thereof. In some embodiments, displaying the avatar selection region includes displaying a region (e.g., avatar menu 628) above the effect option affordances, the region above the image represented in the camera user interface. includes multiple avatar affordances that can be selected to display an avatar corresponding to the avatar.

一部の実施形態では、電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、アバター選択領域(例えば、628)上のスワイプ入力(例えば、646、垂直スワイプジェスチャ)を検出する。一部の実施形態では、アバター選択領域上のスワイプ入力を検出したことに応じて、電子デバイスは、アバター選択領域(例えば、628-1)のサイズを増大させ、マトリックス状に配置された複数のアバターアフォーダンス(例えば、630)を表示する。アバター選択領域上のスワイプ入力を検出したことに応じて、アバター選択領域のサイズを増大させ、複数のアバターアフォーダンスをマトリクス状に表示することにより、ユーザは、アバター選択領域では(同時に)見えない、1つ以上の追加選択可能なアバターを(同時に)見ることができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、アバター表示領域のサイズを増大することは、アバター表示領域の全画面表示を提示するために、アバター表示領域にマトリックス状に表示されたアバターアフォーダンスを用いて、アバター表示領域を垂直方向に拡張することを含む。 In some embodiments, the electronic device (e.g., 600) detects a swipe input (e.g., 646, vertical swipe gesture) on the avatar selection area (e.g., 628) via one or more input devices. . In some embodiments, in response to detecting a swipe input on the avatar selection area, the electronic device increases the size of the avatar selection area (e.g., 628-1) and includes a plurality of swipe inputs arranged in a matrix. Display avatar affordances (e.g., 630). By increasing the size of the avatar selection area and displaying multiple avatar affordances in a matrix in response to detecting a swipe input on the avatar selection area, the user can (simultaneously) One or more additional selectable avatars can be viewed (at the same time). Improves device usability by providing additional control options without cluttering the user interface with additional visible controls, and improves the user device interface (e.g. by providing appropriate input when operating/interacting with the device). (by assisting users to provide better performance and reducing user errors), as well as reducing device power usage by allowing users to use their devices more quickly and efficiently. and improve battery life. In some embodiments, increasing the size of the avatar display area includes using avatar affordances displayed in a matrix in the avatar display area to present a full-screen display of the avatar display area. This includes vertically extending the .

一部の実施形態では、カメラユーザインタフェース(例えば、615)は、画像データの第1の表現(例えば、ライブカメラプレビュー620-1)を更に含む。画像データの第1の表現(例えば、ライブカメラプレビュー)を提供することにより、変更を保存/確認する前に、ユーザによってなされた1つ以上の(画像への)変更についての視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、エフェクトモードアフォーダンス(例えば、624-1、624-2)の選択を検出したことに更に応じて、電子デバイス(例えば、600)は、画像データの第1の表現が、第2のカメラ(例えば、背面カメラ)から取得された画像データに対応するとの判定に従って、画像データの第1の表現の表示を停止し、画像データの第2の表現(例えば、ライブカメラプレビュー)を表示し、この画像データの第2の表現は、カメラ(例えば、正面カメラ)から取得された画像データに対応する。一部の実施形態では、正面カメラに対応する画像データの表現は、正面カメラの視野内に位置するユーザの表現を含む。 In some embodiments, the camera user interface (eg, 615) further includes a first representation of the image data (eg, live camera preview 620-1). Provide visual feedback about one or more changes (to the image) made by the user before saving/confirming the changes by providing a first representation of the image data (e.g., a live camera preview) . By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, further responsive to detecting the selection of the effect mode affordance (e.g., 624-1, 624-2), the electronic device (e.g., 600) determines that the first representation of the image data is ceasing display of the first representation of the image data and displaying the second representation of the image data (e.g., a live camera preview) in accordance with the determination that the first representation of the image data corresponds to the image data obtained from the second camera (e.g., the rear camera); , and this second representation of image data corresponds to image data obtained from a camera (eg, a front-facing camera). In some embodiments, the representation of the image data corresponding to the front-facing camera includes a representation of a user located within the field of view of the front-facing camera.

一部の実施形態では、電子デバイス(例えば、600)が第2のカメラモード(例えば、エフェクトカメラモード、画像データを変更するための様々なビジュアルエフェクトを利用できるモード)である間に、電子デバイスは、第1のカメラモード(例えば、通常モード、非エフェクトモード)への遷移要求(例えば、アクティブなビジュアルエフェクトアフォーダンスの選択)を受信する。一部の実施形態では、電子デバイスは、第1のカメラモードへの遷移要求を受信したことに応じて、電子デバイスを第2のカメラモードから第1のカメラモードに遷移させる。一部の実施形態では、電子デバイスは、第1のビジュアルエフェクトがアクティブである(例えば、キャプチャされた画像データ又はキャプチャ用の画像データのプレビューにアクティブに適用されている)ことに従って、第1のビジュアルエフェクトを非アクティブ化する(例えば、無効化する、表示された第1のビジュアルエフェクトの表示を停止する)。 In some embodiments, while the electronic device (e.g., 600) is in a second camera mode (e.g., effects camera mode, a mode that can utilize various visual effects to modify image data), the electronic device receives a request to transition (eg, select an active visual effects affordance) to a first camera mode (eg, normal mode, non-effects mode). In some embodiments, the electronic device transitions the electronic device from the second camera mode to the first camera mode in response to receiving a request to transition to the first camera mode. In some embodiments, the electronic device is configured to display the first visual effect in accordance with the first visual effect being active (e.g., being actively applied to captured image data or a preview of image data for capture). Deactivate (eg, disable, stop displaying the first displayed visual effect) the visual effect.

一部の実施形態では、第1のビジュアルエフェクトを非アクティブ化した後、電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、エフェクトモードアフォーダンス(例えば、624-1、624-2)の後続の選択を検出する。一部の実施形態では、エフェクトモードアフォーダンスの後続の選択を検出したことに応じて、電子デバイスは、第1のビジュアルエフェクトを非アクティブ化した後の所定の時間内に、エフェクトモードアフォーダンスの後続の選択が発生したとの判定に従って、第1のビジュアルエフェクトを再アクティブ化する。第1のビジュアルエフェクトを非アクティブ化した後の所定の時間内に、エフェクトモードアフォーダンスの後続の選択が発生したとの判定に従って、第1のビジュアルエフェクトを再アクティブ化することにより、ユーザは、(例えば、エフェクトを再選択/再生成する必要なく)以前のビジュアルエフェクトに迅速かつ容易に戻ることができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、画像からビジュアルエフェクトを除去するエフェクトモードアフォーダンスを選択した後、所定の時間内にエフェクトモードアフォーダンスが再び選択されると、除去されたビジュアルエフェクトが画像に復元される。 In some embodiments, after deactivating the first visual effect, the electronic device (e.g., 600) receives an effect mode affordance (e.g., 624-1, 624- 2) Detect subsequent selections. In some embodiments, in response to detecting a subsequent selection of an effect mode affordance, the electronic device selects a subsequent effect mode affordance within a predetermined time after deactivating the first visual effect. The first visual effect is reactivated in accordance with the determination that a selection has occurred. By reactivating the first visual effect in accordance with a determination that a subsequent selection of an effect mode affordance occurs within a predetermined period of time after deactivating the first visual effect, the user: ( For example, one can quickly and easily return to previous visual effects (without having to reselect/regenerate effects). Improves device usability by providing additional control options without cluttering the user interface with additional visible controls, and improves the user device interface (e.g. by providing appropriate input when operating/interacting with the device). (by assisting users to provide better performance and reducing user errors), as well as reducing device power usage by allowing users to use their devices more quickly and efficiently. and improve battery life. In some embodiments, after selecting an effect mode affordance to remove a visual effect from an image, if the effect mode affordance is selected again within a predetermined time period, the removed visual effect is restored to the image.

電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、キャプチャアフォーダンス(例えば、621)に向けられた第2の入力(例えば、676、キャプチャアフォーダンスに対応する位置におけるタッチスクリーンディスプレイ上のタッチジェスチャ)を検出する(712)。 The electronic device (e.g., 600), via one or more input devices, has a second input (e.g., 676) directed to the capture affordance (e.g., 621) on the touch screen display at a location corresponding to the capture affordance. touch gesture) is detected (712).

電子デバイス(例えば、600)は、第2の入力(714)を検出したことに応じて、カメラ(例えば602)を使用して画像データをキャプチャする(716)。一部の実施形態では、画像データをキャプチャすることは、第1のキャプチャモード基準(例えば、閾値持続時間よりも小さい)を満たす第2の入力の特性(例えば、接触の持続時間)の値に従って、第1の画像キャプチャモード(例えば、写真キャプチャモード、静止画像キャプチャモード)で画像データをキャプチャすることを含む。一部の実施形態では、画像データをキャプチャすることは、第2のキャプチャモード基準(例えば、第2の閾値持続時間よりも大きい)を満たす第2の入力の特性の値に従って、第2の画像キャプチャモード(例えば、ビデオキャプチャモード、連続キャプチャモード)で画像データをキャプチャすることを含む。一部の実施形態では、キャプチャアフォーダンス(例えば、621)は、多機能キャプチャアフォーダンスである。一部の実施形態では、キャプチャアフォーダンス上でタップが検出されると、電子デバイスは写真(例えば、静止画像)をキャプチャする。一部の実施形態では、電子デバイスは、キャプチャアフォーダンス上でプレスアンドホールドジェスチャが検出されると、ビデオ(例えば、連続画像)をキャプチャする。 The electronic device (eg, 600) captures image data (716) using the camera (eg, 602) in response to detecting the second input (714). In some embodiments, capturing the image data is performed according to a value of a characteristic (e.g., duration of contact) of the second input that satisfies the first capture mode criterion (e.g., less than a threshold duration). , including capturing image data in a first image capture mode (e.g., photo capture mode, still image capture mode). In some embodiments, capturing the image data comprises capturing the second image according to a value of a characteristic of the second input that satisfies a second capture mode criterion (e.g., greater than a second threshold duration). Including capturing image data in a capture mode (eg, video capture mode, continuous capture mode). In some embodiments, the capture affordance (eg, 621) is a multifunctional capture affordance. In some embodiments, the electronic device captures a photo (eg, a still image) when a tap is detected on the capture affordance. In some embodiments, the electronic device captures video (eg, a series of images) when a press and hold gesture is detected on the capture affordance.

第2の入力(例えば、676)を検出すること(714)に応答して、電子デバイス(例えば、600)は、キャプチャアフォーダンス(例えば、621)の表示を停止する(718)。 In response to detecting (714) the second input (eg, 676), the electronic device (eg, 600) stops displaying (718) the capture affordance (eg, 621).

一部の実施形態では、電子デバイス(例えば、600)は、カメラ(例えば、602)を使用して画像データをキャプチャした後、マークアップアフォーダンス(例えば、677)、編集アフォーダンス(例えば、678)、及び再撮影アフォーダンス(例えば、679)を表示する。一部の実施形態では、電子デバイスは、マークアップアフォーダンス、編集アフォーダンス、及び再撮影アフォーダンスを表示している間に、1つ以上の入力デバイスを介して、第4のユーザ入力を受信する。一部の実施形態では、電子デバイスは、第4のユーザ入力を検出したことに応じて、編集アフォーダンスに対応する第4のユーザ入力に従って、キャプチャされた画像データを編集するための処理を開始する。一部の実施形態では、編集のための処理は、キャプチャされた画像データを編集するための1つ以上のアフォーダンスを表示することを含む。一部の実施形態では、電子デバイスは、第4のユーザ入力を検出したことに応じて、マークアップアフォーダンスに対応する第4のユーザ入力に従って、キャプチャされた画像データをマークアップするための処理を開始する。一部の実施形態では、編集のための処理は、キャプチャされた画像データをマークアップするための1つ以上のアフォーダンスを表示することを含む。一部の実施形態では、電子デバイスは、第4のユーザ入力を検出したことに応じて、再撮影アフォーダンスに対応する第4のユーザ入力に従って、キャプチャされた画像データを再撮影するための処理を開始する。一部の実施形態では、キャプチャされた画像データを再撮影する処理を開始することは、新たな画像データをキャプチャし、キャプチャされた画像データを新しい画像データに置換することを含む。 In some embodiments, the electronic device (e.g., 600) captures image data using a camera (e.g., 602) and then includes markup affordances (e.g., 677), editing affordances (e.g., 678), and reshoot affordance (eg, 679). In some embodiments, the electronic device receives a fourth user input via one or more input devices while displaying the markup affordance, the edit affordance, and the retake affordance. In some embodiments, the electronic device, in response to detecting the fourth user input, initiates a process to edit the captured image data according to a fourth user input corresponding to the editing affordance. . In some embodiments, processing for editing includes displaying one or more affordances for editing the captured image data. In some embodiments, the electronic device, in response to detecting the fourth user input, performs processing to mark up the captured image data according to a fourth user input corresponding to the markup affordance. Start. In some embodiments, processing for editing includes displaying one or more affordances for marking up the captured image data. In some embodiments, the electronic device, in response to detecting the fourth user input, performs processing to re-capture the captured image data according to a fourth user input that corresponds to the re-capture affordance. Start. In some embodiments, initiating the process of re-imaging the captured image data includes capturing new image data and replacing the captured image data with the new image data.

第2の入力(例えば、676)を検出すること(714)に応じて、電子デバイス(例えば、600)は、キャプチャアフォーダンス(例えば、621)によって以前に占有されていたカメラユーザインタフェース(例えば、615)内の位置に、送信アフォーダンス(例えば、680、キャプチャされた画像データを会話中の参加者に送信するための、又は後続の送信前に、キャプチャされた画像データを作成領域に提示するための機能に関連付けられた選択可能なアイコン)を表示する(720)。キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示することにより、キャプチャされた画像を意図する受信者に送信する準備ができているという視覚フィードバックを提供する。ユーザインタフェースを雑然とさせることなく視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、送信アフォーダンス(例えば、680)が表示される位置は、キャプチャアフォーダンスが以前に表示された特定の領域(例えば、カメラエフェクト領域625)内の任意の位置である。一部の実施形態では、送信アフォーダンスが表示される位置は、キャプチャアフォーダンスがその領域内に表示されたのと同じ位置である。一部の実施形態では、送信アフォーダンスを表示することは、キャプチャアフォーダンスを送信アフォーダンスに置換することを含む。 In response to detecting (714) the second input (e.g., 676), the electronic device (e.g., 600) displays the camera user interface (e.g., 615) previously occupied by the capture affordance (e.g., 621). ), a transmission affordance (e.g., 680, for transmitting the captured image data to a participant in the conversation, or for presenting the captured image data in a creation area prior to subsequent transmission). A selectable icon associated with the feature is displayed (720). Displaying a transmit affordance in a location in the camera user interface previously occupied by a capture affordance provides visual feedback that the captured image is ready to be transmitted to the intended recipient. Providing visual feedback to the user without cluttering the user interface improves the usability of the device and helps the user device interface (e.g. In addition, it reduces device power usage by allowing users to use the device more quickly and efficiently, improving battery life. improve. In some embodiments, the location where the transmit affordance (e.g., 680) is displayed is any location within a particular region (e.g., camera effects region 625) where the capture affordance was previously displayed. In some embodiments, the location where the transmit affordance is displayed is the same location where the capture affordance was displayed within the region. In some embodiments, displaying the transmission affordance includes replacing the capture affordance with the transmission affordance.

一部の実施形態では、送信アフォーダンス(例えば、680)を表示している間に、電子デバイス(例えば、600)は、第1の参加者の表現(例えば、アイコン、写真、アバター、又は第1の参加者に関連付けられた他の識別子)を表示する(722)。送信アフォーダンスを表示している間に第1の参加者の表現を表示することにより、ユーザは、意図する受信者を迅速かつ容易に認識することができ、それによって、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、第1の参加者の表現は、キャプチャされた写真が第1の参加者に送信されることをユーザに示すインジケーションとして働く。一部の実施形態では、第1の参加者の表現は、カメラ(例えば、602)を使用して画像データをキャプチャする前には表示されない(724)。一部の実施形態では、カメラユーザインタフェース(例えば、615)は、画像データをキャプチャする前に表示されるカメラ固有アフォーダンス(例えば、フィルタ、照明オプション、タイマオプションなどに対応する619)を含む。一部の実施形態では、第1の参加者の表現を表示することで、表示されたカメラ固有アフォーダンスを第1の参加者の表現に置き換える。 In some embodiments, while displaying the transmission affordance (e.g., 680), the electronic device (e.g., 600) displays a representation of the first participant (e.g., an icon, photo, avatar, or other identifiers associated with the participants (722). By displaying the representation of the first participant while displaying the sending affordance, the user can quickly and easily recognize the intended recipient, thereby improving the usability of the device. , make the user device interface more efficient (e.g., by assisting the user to provide appropriate input when operating/interacting with the device, and reducing user errors); It also reduces device power usage and improves battery life by allowing faster and more efficient use. In some embodiments, the first participant's expression serves as an indication to the user that the captured photo is to be sent to the first participant. In some embodiments, the first participant's representation is not displayed (724) prior to capturing image data using the camera (eg, 602). In some embodiments, the camera user interface (e.g., 615) includes camera-specific affordances (e.g., 619 corresponding to filters, lighting options, timer options, etc.) that are displayed prior to capturing image data. In some embodiments, displaying the first participant's representation replaces the displayed camera-specific affordances with the first participant's representation.

電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力(例えば、送信アフォーダンス680に対応する位置におけるタッチスクリーンディスプレイ上のタッチジェスチャ)を検出する(726)。 The electronic device (e.g., 600) detects, via the one or more input devices, a third input directed to the transmission affordance (e.g., a touch gesture on the touch screen display at a location corresponding to the transmission affordance 680). (726).

第3の入力を検出したことに応じて、電子デバイス(例えば、600)は、(例えば、後続の送信前に、作成領域内でキャプチャされた画像データを即座に送信又は提示する)処理を開始し(728)、キャプチャされた画像データを第1の参加者に送信する。 In response to detecting the third input, the electronic device (e.g., 600) initiates processing (e.g., immediately transmitting or presenting the image data captured within the creation region prior to subsequent transmission). and transmits (728) the captured image data to the first participant.

一部の実施形態では、電子デバイス(例えば、600)は、送信アフォーダンス(例えば、680)に向けられた第3の入力を検出する前に、完了アフォーダンス(例えば、カメラユーザインタフェースをクローズしてメッセージングユーザインタフェースを表示するための機能に関連付けられた選択可能なアイコン)を表示する。一部の実施形態では、電子デバイスは、1つ以上の入力デバイスを介して、完了アフォーダンスの選択を検出する。一部の実施形態では、電子デバイスは、完了アフォーダンスの選択を検出したことに応じて、メッセージ作成領域(例えば608)を有するメッセージングユーザーインタフェース(例えば、603)を表示する。一部の実施形態では、電子デバイスは、完了アフォーダンスの選択を検出したことに応じて、キャプチャされた画像データの表現をメッセージ作成領域に表示する。一部の実施形態では、完了アフォーダンスを選択すると、カメラユーザインタフェースをクローズし、キャプチャされた画像データを送信することなく、キャプチャされた画像データをメッセージングユーザインタフェースのメッセージ作成フィールドに表示する。 In some embodiments, the electronic device (e.g., 600) closes the completion affordance (e.g., closes the camera user interface and sends the message) before detecting the third input directed to the send affordance (e.g., 680). (selectable icons associated with functions for displaying user interfaces). In some embodiments, the electronic device detects the selection of the completion affordance via one or more input devices. In some embodiments, the electronic device displays a messaging user interface (eg, 603) having a message composition area (eg, 608) in response to detecting selection of a completion affordance. In some embodiments, the electronic device displays a representation of the captured image data in the message composition area in response to detecting selection of the completion affordance. In some embodiments, selecting the completion affordance closes the camera user interface and displays the captured image data in a message composition field of the messaging user interface without transmitting the captured image data.

一部の実施形態では、電子デバイス(例えば、600)は、第3のユーザ入力を検出する前に、第1の画像キャプチャモード(例えば、写真キャプチャモード、ビデオキャプチャモード)にある。一部の実施形態では、電子デバイスは、第3のユーザ入力を検出したことに更に応じて、第1の画像キャプチャモードを維持する。一部の実施形態では、電子デバイスは、複数のモード(例えば、写真キャプチャモード、ビデオキャプチャモード)に従って画像データをキャプチャするように構成(例えば、ユーザ構成)することができる。一部の実施形態では、電子デバイスが第1のカメラモード(例えば、標準カメラモード、非エフェクトカメラモード)から第2のカメラモード(例えば、エフェクトカメラモード)に遷移する場合でさえも、画像キャプチャモードの選択は持続的である。 In some embodiments, the electronic device (eg, 600) is in a first image capture mode (eg, photo capture mode, video capture mode) before detecting the third user input. In some embodiments, the electronic device maintains the first image capture mode further responsive to detecting the third user input. In some embodiments, the electronic device can be configured (e.g., user configured) to capture image data according to multiple modes (e.g., photo capture mode, video capture mode). In some embodiments, even when the electronic device transitions from a first camera mode (e.g., standard camera mode, non-effect camera mode) to a second camera mode (e.g., effects camera mode), the image capture Mode selection is persistent.

一部の実施形態では、キャプチャされた画像データを第1の参加者に送信する処理を開始することは、(例えば、メッセージングユーザインタフェース615を表示することなく)キャプチャされた画像データを第1の参加者に送信することを含む。一部の実施形態では、カメラユーザインタフェースから送信アフォーダンス(例えば、680)を選択すると、中間ユーザインタフェースを表示することなく、又はユーザからの更なる入力を要求することなく、メッセージ会話の他の参加者にキャプチャされた画像データを直ちに送信する。 In some embodiments, initiating the process of sending the captured image data to the first participant includes sending the captured image data to the first participant (e.g., without displaying the messaging user interface 615). Including sending to participants. In some embodiments, selecting a send affordance (e.g., 680) from a camera user interface allows other participants in the message conversation to participate without displaying an intermediate user interface or requesting further input from the user. Immediately send the captured image data to the person in question.

一部の実施形態では、キャプチャされた画像データを第1の参加者に送信する処理を開始することは、メッセージングユーザインタフェース(例えば、615)を再表示することを含み、メッセージングユーザインタフェースは、キーボード領域(例えば、612)及びアプリケーションメニューアフォーダンス(例えば、610、アプリケーションメニューユーザインタフェースを表示するための機能に関連付けられた選択可能なアイコン)を更に含む。キャプチャされた画像データを第1の参加者に送信する処理を開始することの一部としてメッセージングユーザインタフェースを再表示することにより、キャプチャされた画像データがメッセージ会話を介して送信されているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、アプリケーションメニューアフォーダンスは、メッセージングユーザインタフェース内のメッセージ作成フィールドに隣接して表示される。一部の実施形態では、電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、アプリケーションメニューアフォーダンスの選択を検出する。一部の実施形態では、アプリケーションメニューアフォーダンスの選択を検出したことに応じて、電子デバイスは、キーボード領域に隣接する(例えば、その上方の)アプリケーションメニュー領域であって、複数のアプリケーションアフォーダンス(例えば、それぞれのアプリケーションアフォーダンスに関連付けられたアプリケーションを開始するための機能にそれぞれ関連付けられた選択可能なアイコン)を有する、アプリケーションメニュー領域を表示する。一部の実施形態では、アプリケーションアフォーダンスは、ステッカーアフォーダンス及びアバターアフォーダンスを含む。 In some embodiments, initiating the process of sending the captured image data to the first participant includes redisplaying a messaging user interface (e.g., 615), wherein the messaging user interface It further includes a region (e.g., 612) and an application menu affordance (e.g., 610, a selectable icon associated with a function for displaying an application menu user interface). visualizing that the captured image data is being sent via the messaging conversation by redisplaying the messaging user interface as part of initiating the process of sending the captured image data to the first participant; Provide feedback. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, application menu affordances are displayed adjacent to message composition fields in a messaging user interface. In some embodiments, the electronic device (eg, 600) detects selection of an application menu affordance via one or more input devices. In some embodiments, in response to detecting the selection of an application menu affordance, the electronic device selects an application menu area adjacent to (e.g., above) a keyboard area that has multiple application affordances (e.g., displaying an application menu area having selectable icons each associated with a function for starting an application associated with a respective application affordance; In some embodiments, application affordances include sticker affordances and avatar affordances.

一部の実施形態では、電子デバイス(例えば、600)は、メッセージングユーザインタフェース(例えば、615)上の第4の入力を検出する。一部の実施形態では、第4の入力が、キーボード領域(例えば、612)の位置、又はメッセージングユーザインタフェース内のメッセージ作成領域(例えば、608)の位置に対応するとの判定に従って、電子デバイスは、アプリケーションメニュー領域の表示を停止し、アプリケーションメニュー領域によって以前に占有されていたメッセージングユーザインタフェース内の位置に、テキスト提案領域(例えば、ユーザが便利に選択するための推奨ワードのリストを有する領域)を表示する。 In some embodiments, the electronic device (eg, 600) detects a fourth input on the messaging user interface (eg, 615). In some embodiments, in accordance with the determination that the fourth input corresponds to a position of a keyboard area (e.g., 612) or a position of a message composition area (e.g., 608) within a messaging user interface, the electronic device: Stop displaying the application menu area and replace it with a text suggestion area (e.g., an area with a list of suggested words for the user to conveniently select) in the location in the messaging user interface previously occupied by the application menu area. indicate.

一部の実施形態では、電子デバイス(例えば、600)は、アプリケーションメニュー領域内の複数のアプリケーションアフォーダンス(例えば、ステッカーアフォーダンス又はアバターアフォーダンス)のうちの1つの選択を検出する。一部の実施形態では、アプリケーションアフォーダンス(例えば、610)の選択を検出したことに応じて、電子デバイスは、キーボード領域(例えば、612)の表示を停止し、キーボード領域によって以前に占有されていたメッセージングユーザインタフェース(例えば、615)内の位置にアプリケーション表示領域を表示し、アプリケーション表示領域は、選択されたアプリケーションアフォーダンスに対応する複数のグラフィカルオブジェクト(例えば、アバター又はステッカー)を含む。一部の実施形態では、選択されたアプリケーションアフォーダンスはステッカーアフォーダンスであり、アプリケーション表示領域に表示されるグラフィカルオブジェクトはステッカーである。一部の実施形態では、選択されたアプリケーションアフォーダンスはアバターアフォーダンスであり、アプリケーション表示領域に表示されるグラフィカルオブジェクトは、アバター(例えば、カスタマイズ可能なアバター、及び/又はカスタマイズ不可能なアバター)である。 In some embodiments, the electronic device (eg, 600) detects selection of one of multiple application affordances (eg, a sticker affordance or an avatar affordance) within an application menu area. In some embodiments, in response to detecting the selection of the application affordance (e.g., 610), the electronic device stops displaying the keyboard area (e.g., 612) that was previously occupied by the keyboard area. An application display area is displayed at a location within the messaging user interface (eg, 615), the application display area including a plurality of graphical objects (eg, avatars or stickers) corresponding to the selected application affordances. In some embodiments, the selected application affordance is a sticker affordance and the graphical object displayed in the application display area is a sticker. In some embodiments, the selected application affordance is an avatar affordance and the graphical object displayed in the application display area is an avatar (eg, a customizable avatar and/or a non-customizable avatar).

なお、方法700に関して上述された処理(例えば、図7A~図7B)の詳細はまた、以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法900、1100、1300、及び1500は、方法700に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラアプリケーションユーザインタフェース、メディアユーザーインタフェース、及びライブビデオ通信セッションのためのユーザーインタフェースにおいて画像データに表示される。簡潔にするために、これらの詳細は、以下では繰り返さない。 Note that the processing details described above with respect to method 700 (eg, FIGS. 7A-7B) are also applicable in a similar manner to the methods described below. For example, methods 900, 1100, 1300, and 1500 optionally include one or more of the characteristics of the various methods described above with respect to method 700. For example, visual effects such as stickers and virtual avatars are displayed on image data in camera application user interfaces, media user interfaces, and user interfaces for live video communication sessions. For the sake of brevity, these details are not repeated below.

図8A~図8BQは、一部の実施形態に係る、カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図9A及び図9Bの処理を含めた、以下で説明される処理を示すために用いられる。 8A-8BQ illustrate example user interfaces for displaying visual effects in a camera application, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 9A and 9B.

図8Aでは、デバイス600は、ホーム画面800を示し、カメラアプリケーションアフォーダンス802上の入力801を検出する。 In FIG. 8A, device 600 shows home screen 800 and detects input 801 on camera application affordance 802. In FIG.

図8Bでは、入力801を検出したことに応じて、デバイス600は、カメラアプリケーションアフォーダンス802に関連付けられたカメラアプリケーションを起動し、カメラアプリケーションユーザインタフェース815を表示する。カメラアプリケーションユーザインタフェース815は、図6A~図6BQに示す実施形態に関して上述した、カメラアプリケーションユーザインタフェース615に類似する。 In FIG. 8B, in response to detecting input 801, device 600 launches the camera application associated with camera application affordance 802 and displays camera application user interface 815. Camera application user interface 815 is similar to camera application user interface 615 described above with respect to the embodiment shown in FIGS. 6A-6BQ.

カメラアプリケーションユーザインタフェース815は、例えば、カメラ(例えば、背面カメラ又はカメラ602)の視野内に位置するオブジェクトを表すストリーミングされた画像データ(例えば、ライブカメラプレビュー、ライブカメラ記録、若しくはライブビデオ通信セッション)、又は、例えば写真若しくはビデオ録画などのメディアアイテム、などの画像データの表現を表示する画像表示領域820を含む。図8Bに示す実施形態では、画像表示領域820は、デバイス600の背面カメラからのライブカメラプレビュー820-1'を示す。 Camera application user interface 815 can, for example, display streamed image data (e.g., live camera previews, live camera recordings, or live video communication sessions) representing objects located within the field of view of a camera (e.g., rear camera or camera 602). , or an image display area 820 that displays a representation of image data, such as a media item, such as a photograph or a video recording. In the embodiment shown in FIG. 8B, image display area 820 shows a live camera preview 820-1' from the rear camera of device 600.

カメラアプリケーションユーザインタフェース815はまた、カメラ固有アフォーダンス817を含む画像表示領域820の上の領域を含む。カメラ固有アフォーダンスには、カメラフラッシュ機能に関連付けられたアフォーダンス817-1、カメラモード機能に関連付けられたアフォーダンス817-2、タイマー機能に関連付けられたアフォーダンス817-3、及びフィルタ機能に関連付けられたアフォーダンス817-4が含まれる。 Camera application user interface 815 also includes an area above image display area 820 that includes camera-specific affordances 817. Camera-specific affordances include affordance 817-1 associated with camera flash function, affordance 817-2 associated with camera mode function, affordance 817-3 associated with timer function, and affordance 817 associated with filter function. -4 is included.

カメラアプリケーションユーザインタフェース815はまた、(画像表示領域620と同様に)画像表示領域820の下に配置されたカメラオプション領域825を(カメラオプション領域625と同様に)含む。カメラオプション領域825は、カメラ(例えば、背面カメラとカメラ602)間を切り替えるためのカメラセレクタアフォーダンス827、及びカメラが画像データを記録できる異なるキャプチャモードに関連付けられたカメラオプションアフォーダンス819を含む。例えば、ビデオアフォーダンス819-1は、カメラのビデオ録画キャプチャモードをアクティブ化するための機能に関連付けられ、写真アフォーダンス819-2は、カメラの静止画像キャプチャモードをアクティブ化するための機能に関連付けられる。図8B~図8AQに関して以下に論じる実施形態では、デバイス600は、写真アフォーダンス819-2に関連付けられた操作の静止画像キャプチャモードにある。しかしながら、特に明記しない限り、これらの実施形態はまた、ビデオアフォーダンス819-1に関連付けられたビデオ録画モードに適用される。 Camera application user interface 815 also includes a camera options area 825 (similar to camera options area 625) located below image display area 820 (similar to image display area 620). Camera options area 825 includes a camera selector affordance 827 for switching between cameras (eg, rear camera and camera 602), and camera options affordances 819 associated with different capture modes in which the camera can record image data. For example, video affordance 819-1 is associated with the functionality for activating the camera's video recording capture mode, and photo affordance 819-2 is associated with the functionality for activating the camera's still image capture mode. In the embodiment discussed below with respect to FIGS. 8B-8AQ, device 600 is in a still image capture mode of operation associated with photo affordance 819-2. However, unless otherwise specified, these embodiments also apply to the video recording mode associated with video affordance 819-1.

カメラオプション領域825は、画像表示領域820にビジュアルエフェクトを表示するためにデバイス600が有効化又は無効化されるデバイス600のモード(ビジュアルエフェクトモード、エフェクトモード)を、有効化又は無効化するためのエフェクトアフォーダンス822を更に含む。エフェクトアフォーダンス822は、エフェクトアフォーダンス622に類似しており、従って、特に明記しない限り、エフェクトアフォーダンス622と同じ機能を有する。したがって、エフェクトアフォーダンス822は、ビジュアルエフェクトの表示を可能化するために選択され、ビジュアルエフェクトの表示を無効化するために選択解除される。 The camera option area 825 is an effect for enabling or disabling a mode (visual effect mode, effect mode) of the device 600 in which the device 600 is enabled or disabled in order to display a visual effect in the image display area 820. Further includes an affordance 822. Effect affordance 822 is similar to effect affordance 622 and therefore has the same functionality as effect affordance 622, unless otherwise specified. Accordingly, effect affordances 822 are selected to enable display of visual effects and deselected to disable display of visual effects.

カメラオプション領域825はまた、上述したキャプチャアフォーダンス621と同様に機能するキャプチャアフォーダンス821を含む。キャプチャアフォーダンス821を、画像表示領域820に表される画像データをキャプチャするために選択することができる。一部の実施形態では、デバイス600は、現在有効化されているキャプチャオプション(例えば、ビデオ録画キャプチャモード又は画像キャプチャモード)に基づく方法で、画像データをキャプチャする。一部の実施形態では、デバイス600は、キャプチャアフォーダンス821上で検出されたジェスチャのタイプに応じて画像データをキャプチャする。例えば、デバイス600がキャプチャアフォーダンス821上でタップジェスチャを検出した場合、デバイス600は、タップジェスチャが発生した時点で画像表示領域820に表された画像データの静止画像をキャプチャする。デバイス600がキャプチャアフォーダンス821上でタップアンドホールドジェスチャを検出した場合、デバイス600は、タップアンドホールドジェスチャが持続する期間中、画像表示領域820に表される画像データのビデオ録画をキャプチャする。一部の実施形態では、指がアフォーダンスから持ち上げられると、ビデオ録画が停止する。一部の実施形態では、ビデオ録画は、アフォーダンスに対応する位置において後続の入力(例えば、タップ入力)が検出されるまで続く。一部の実施形態では、キャプチャされた画像(例えば、静止画像又はビデオ録画)は、例えば、メッセージングアプリケーションを使用して、他のデバイスと共有することができる。 Camera options area 825 also includes a capture affordance 821 that functions similarly to capture affordance 621 described above. Capture affordance 821 may be selected to capture image data represented in image display area 820. In some embodiments, device 600 captures image data in a manner based on currently enabled capture options (eg, video recording capture mode or image capture mode). In some embodiments, device 600 captures image data in response to the type of gesture detected on capture affordance 821. For example, if device 600 detects a tap gesture on capture affordance 821, device 600 captures a still image of the image data represented in image display area 820 at the time the tap gesture occurred. If device 600 detects a tap-and-hold gesture on capture affordance 821, device 600 captures a video recording of the image data represented in image display area 820 for the duration of the tap-and-hold gesture. In some embodiments, video recording stops when the finger is lifted from the affordance. In some embodiments, video recording continues until a subsequent input (eg, a tap input) is detected at a location corresponding to the affordance. In some embodiments, captured images (eg, still images or video recordings) can be shared with other devices using, for example, a messaging application.

図8Cでは、デバイス600は、エフェクトアフォーダンス822上の入力823を検出する。 In FIG. 8C, device 600 detects input 823 on effect affordance 822.

図8Dでは、デバイス600は、入力823を検出したことに応じて、カメラ602をアクティブ化し(例えば、背面カメラから切り替えて)、画像表示領域820を更新して、カメラ602からのライブカメラプレビュー820-1を表示し、カメラ602の視野内に位置する被写体832、及び被写体832の背後に表示された背景836の表現を示す。本明細書で論じるように、一部の実施形態では、カメラ602を使用してキャプチャされた画像データは、カメラ602の視野内のオブジェクトの深度を決定するために使用され得る深度データを含む。一部の実施形態では、デバイス600は、検出されたこれらのオブジェクトの深度に基づいてオブジェクト(例えば、画像データ内の)を解析し、この判定を使用して、本明細書で論じるビジュアルエフェクトを適用する。例えば、デバイス600は、被写体832をライブカメラプレビュー820-1の前景にあるものとして、ユーザの背後に位置するオブジェクトをライブカメラプレビュー820-1の背景にあるものとして、分類することができる。これらの背景オブジェクトは、ここでは背景836と総称する。 In FIG. 8D, device 600 activates camera 602 (e.g., switches from the rear camera) and updates image display area 820 to display a live camera preview 820 from camera 602 in response to detecting input 823. -1 to show a representation of a subject 832 located within the field of view of the camera 602 and a background 836 displayed behind the subject 832. As discussed herein, in some embodiments, image data captured using camera 602 includes depth data that can be used to determine the depth of objects within the field of view of camera 602. In some embodiments, device 600 analyzes objects (e.g., within image data) based on the detected depth of these objects and uses this determination to create the visual effects discussed herein. Apply. For example, device 600 may classify object 832 as being in the foreground of live camera preview 820-1 and objects located behind the user as being in the background of live camera preview 820-1. These background objects are collectively referred to as background 836 herein.

デバイス600はまた、表示のためにビジュアルエフェクトが有効化されていることを示すエフェクトアフォーダンス822を強調表示し、カメラオプションアフォーダンス819をビジュアルエフェクトオプションアフォーダンス824に置換することによってカメラオプション領域825を更新する。ビジュアルエフェクトオプションアフォーダンスは、アバターエフェクトアフォーダンス824-1及びステッカーエフェクトアフォーダンス824-2を含む。ビジュアルエフェクトオプションアフォーダンス824は、上述のビジュアルエフェクトオプションアフォーダンス624と同様である。ビジュアルエフェクトオプションアフォーダンス824は、画像表示領域820に表示される画像に適用できる異なるビジュアルエフェクトに対応する。ビジュアルエフェクトオプションアフォーダンス(例えば、824-1又は824-2)のうちの1つを選択することによって、選択されたビジュアルエフェクトオプションアフォーダンスに対応するビジュアルエフェクトオプションと共に、メニューが表示される。 Device 600 also updates camera options area 825 by highlighting effects affordance 822 indicating that visual effects are enabled for display and replacing camera options affordance 819 with visual effects options affordance 824. The visual effect option affordances include an avatar effect affordance 824-1 and a sticker effect affordance 824-2. Visual effects option affordances 824 are similar to visual effects option affordances 624 described above. Visual effects option affordances 824 correspond to different visual effects that can be applied to images displayed in image display area 820. By selecting one of the visual effects option affordances (eg, 824-1 or 824-2), a menu is displayed with visual effects options corresponding to the selected visual effects option affordance.

図8E~図8Fでは、デバイス600は、アバターエフェクトアフォーダンス824-1上の入力826を検出し、アバターオプションメニュー828を表示する。アバターオプションメニュー828は、アバターオプションメニュー628と同様である。アバターオプションメニュー828は、アバターオプション830のスクロール可能なリスト、及びアバターオプション830のうちの選択された1つを示すための選択領域829を含む。表示されるアバターオプションは、カスタマイズ可能な女性アバター830-1、ヌルアバターオプション830-2、ロボットアバターオプション830-3、ウサギアバターオプション830-4、及び第2のカスタマイズ可能な女性アバター830-5、を含む。図8Fに示すように、ヌルアバターオプション830-2が、デフォルトアバターオプション830として選択される。これにより、画像表示領域820に表示される被写体832の表現は、被写体の顔にアバターが表示されないで示される。アバターオプション830は、アバターオプション830-3若しくは830-4のように予め構成することができ、又はアバターオプション830-1若しくは830-5などのカスタマイズ可能なアバターとすることができる。 In FIGS. 8E-8F, device 600 detects input 826 on avatar effect affordance 824-1 and displays avatar options menu 828. Avatar options menu 828 is similar to avatar options menu 628. Avatar options menu 828 includes a scrollable list of avatar options 830 and a selection area 829 for indicating a selected one of avatar options 830. The avatar options displayed are customizable female avatar 830-1, null avatar option 830-2, robot avatar option 830-3, rabbit avatar option 830-4, and second customizable female avatar 830-5. including. As shown in FIG. 8F, null avatar option 830-2 is selected as default avatar option 830. As a result, the expression of the subject 832 displayed in the image display area 820 is shown without an avatar being displayed on the subject's face. Avatar options 830 can be preconfigured, such as avatar options 830-3 or 830-4, or can be customizable avatars, such as avatar options 830-1 or 830-5.

アバターオプション830は、アバターオプション630と同様の機能を有する。このように、アバターオプション830は、画像表示領域820内の被写体の表現に適用される仮想アバタービジュアルエフェクトに対応する。具体的には、各アバターオプション830は、選択されると、画像表示領域内の被写体の顔に転置される仮想アバターに対応し、他方、画像表示領域内の画像の他の部分(背景、又はユーザの身体などのユーザの他の部分など)は表示されたままとなる。カメラ602の視野内に位置するユーザ(例えば、被写体832)は、上述したように、顔の姿勢(例えば、回転又は向き)を変更することによって、仮想アバターの視覚的態様を制御することができる。 Avatar option 830 has similar functionality to avatar option 630. As such, avatar option 830 corresponds to a virtual avatar visual effect that is applied to the representation of the subject within image display area 820. Specifically, each avatar option 830 corresponds to a virtual avatar that, when selected, is transposed to the subject's face within the image display area, while other portions of the image within the image display area (such as the background or other parts of the user, such as the user's body) remain visible. A user (e.g., subject 832) located within the field of view of camera 602 can control the visual aspects of the virtual avatar by changing facial pose (e.g., rotation or orientation), as described above. .

アバターオプション830は、アバターオプションメニュー828上のジェスチャによってスクロールすることができる。例えば、図8Hに示すように、ロボットアバターオプション830-3を選択すると、次いで、画像表示領域820内の被写体の顔にロボットアバター833として表示される、水平ジェスチャ844aを図8Gに示す。水平ジェスチャ844bを介して継続的にスクロールすることにより、追加のアバターオプション830を表示されたアバターオプションメニュー828上にスクロールする。一部の実施形態では、ユーザがアバターオプション830をスクロールすると、画像表示領域820は、アバターの背後に表される画像データに適用されるぼかしエフェクト803を含むアバター(例えば、図8Jのロボットアバター833)を示す。 Avatar options 830 can be scrolled by gestures on avatar options menu 828. For example, if the robot avatar option 830-3 is selected, as shown in FIG. 8H, then a horizontal gesture 844a is shown in FIG. 8G that is displayed as the robot avatar 833 on the subject's face within the image display area 820. Continued scrolling via horizontal gesture 844b scrolls additional avatar options 830 onto displayed avatar options menu 828. In some embodiments, as the user scrolls through the avatar options 830, the image display area 820 displays the avatar (e.g., the robot avatar 833 in FIG. 8J) that includes a blur effect 803 applied to the image data represented behind the avatar. ) is shown.

図8Kでは、デバイス600は、選択される直前(例えば、ジェスチャ844bがまだ終了していない)に、選択領域829内に配置されたカスタマイズ可能な女性アバターオプション830-5、及びカスタマイズ可能な女性アバターオプション830-5の下方に表示された編集アフォーダンス804を表示する。デバイス600は、ぼかしエフェクト803を有するロボットアバター833を表示し続ける。一部の実施形態では、カスタマイズ可能なアバターオプションが選択領域829に配置されると、デバイス600は、選択領域829に編集アフォーダンス804を表示する。編集アフォーダンス804を、図8AAに関して以下に論じるものような、アバター編集ユーザインタフェースを表示するために選択することができる。 In FIG. 8K, device 600 displays customizable female avatar option 830-5 positioned within selection area 829 and customizable female avatar option 830-5 just before being selected (e.g., gesture 844b has not yet been completed). Edit affordance 804 displayed below option 830-5. Device 600 continues to display robot avatar 833 with blur effect 803. In some embodiments, device 600 displays editing affordances 804 in selection area 829 when customizable avatar options are placed in selection area 829. Editing affordance 804 may be selected to display an avatar editing user interface, such as that discussed below with respect to FIG. 8AA.

図8Lは、アバターオプション830-5が選択された後である(例えば、ジェスチャ844bが終了した)。デバイス600は、(ぼかしエフェクト803を継続しながら)画像表示領域820からロボットアバター833を除去し、選択領域829内のアバターオプション830-5から現れて、画像表示領域820(例えば、画像表示領域820の中央の位置、又は被写体の顔に対応する位置)に移動する、カスタマイズ可能な女性アバター835のアニメーションを表示し、アバター835は、被写体の顔への検出された変化に基づいて変更される。一部の実施形態では、アニメーションは、静的外観(例えば、表示されたアバターオプションと一致するステッカーと同様)から始まり、次いで、ユーザの顔への変化を検出するデバイス600に基づいてアバター(例えば、835)が修正される、動的状態(図8Lに示す)に遷移していく、アバター(例えば、835)を含む。一部の実施形態では、アバターの静的から動的への遷移は、アバターが選択領域から移動する前に発生する。一部の実施形態では、アバターの静的から動的への遷移は、アバターが選択領域829から画像表示領域820に移動するときに発生する。 FIG. 8L is after avatar option 830-5 is selected (eg, gesture 844b is finished). Device 600 removes robot avatar 833 from image display area 820 (while continuing blur effect 803), emerges from avatar option 830-5 within selection area 829, and removes robot avatar 833 from image display area 820 (e.g., image display area 820). or a position corresponding to the subject's face), the avatar 835 is modified based on the detected changes to the subject's face. In some embodiments, the animation begins with a static appearance (e.g., similar to a sticker that matches the displayed avatar options) and then is based on the avatar (e.g., , 835) is modified, the avatar (e.g., 835) transitions into a dynamic state (shown in FIG. 8L). In some embodiments, the avatar's transition from static to dynamic occurs before the avatar moves from the selection area. In some embodiments, the avatar's transition from static to dynamic occurs when the avatar moves from selection area 829 to image display area 820.

図8M及び図8Nに示すように、アバター835が被写体の顔に適用されると、デバイス600は、カメラ602の視野内の顔の位置への変化を含む、被写体の顔の検出された変化に基づいてアバター835を変更する。 As shown in FIGS. 8M and 8N, when the avatar 835 is applied to the subject's face, the device 600 detects any detected changes in the subject's face, including changes to the position of the face within the field of view of the camera 602. The avatar 835 is changed based on the information.

一部の実施形態では、デバイス600がカメラ602の視野内に被写体の顔をもはや検出しなくなると、デバイス600は、背景にぼかしエフェクト803(ぼかしエフェクト644と同様)を再度適用し、カメラ602の視野に顔を戻すようにユーザに指示するプロンプト838を表示する。図8Pに示す実施形態では、デバイス600は、選択されたアバター(例えば、カスタマイズ可能な女性アバター)の表現840を含むプロンプト838、及びカメラ602の視野内で頭部を再配置するようにユーザーに指示するメッセージ842を表示する。一部の実施形態では、プロンプト838を表示することは、画像表示領域820の中心位置に戻っていく選択されたアバター(例えば、835)のアニメーションを表示すること、及びアバター特徴の物理モデルに基づいて停止するように見える、アバター及びその特徴の遅くなった動きを示すことを含む。 In some embodiments, when the device 600 no longer detects the subject's face within the field of view of the camera 602, the device 600 reapplies the blur effect 803 (similar to the blur effect 644) to the background and A prompt 838 is displayed instructing the user to bring the face back into view. In the embodiment shown in FIG. 8P, the device 600 displays a prompt 838 that includes a representation 840 of a selected avatar (e.g., a customizable female avatar) and prompts the user to reposition the head within the field of view of the camera 602. A message 842 giving instructions is displayed. In some embodiments, displaying the prompt 838 includes displaying an animation of the selected avatar (e.g., 835) returning to the central position of the image display area 820 and based on a physical model of the avatar characteristics. This includes showing slowed movement of the avatar and its features, which appear to stop.

一部の実施形態では、デバイス600がカメラ602の視野に戻るユーザの顔を検出すると、デバイス600は、画像表示領域820の中心位置からユーザの顔の位置に移動するアバター835を表示し、検出されたユーザの顔の変化に基づいてアバターの変更を再開する。 In some embodiments, when the device 600 detects the user's face returning to the field of view of the camera 602, the device 600 displays an avatar 835 that moves from the center position of the image display area 820 to the position of the user's face and detects the user's face. resume changing the avatar based on changes in the user's face.

一部の実施形態では、アバターオプションメニュー828を垂直ジェスチャ(例えば、805)で拡大して、図8Q~8Tに示すアバターオプションメニューの拡大バージョンを表示することができる。アバターオプションメニューの拡大バージョンは、異なるタイプのアバター(例えば、カスタマイズ可能及びカスタマイズ不可能)を含む、一層多数のアバターオプション830を表示する。拡大されたアバター表示メニューにおいて、新規アバターオプション(例えば、ロボットアバターオプション830-3)を選択することができる。次いで、デバイス600は、図8Uに示すように、アバターオプションメニューの拡大バージョンが元の(例えば、凝縮された)状態に戻ったときに、対応するアバター(例えば、ロボットアバター833)をユーザの顔に表示する。 In some embodiments, avatar options menu 828 may be expanded with a vertical gesture (eg, 805) to display an expanded version of the avatar options menu shown in FIGS. 8Q-8T. The expanded version of the avatar options menu displays more avatar options 830, including different types of avatars (eg, customizable and non-customizable). In the expanded avatar display menu, a new avatar option (eg, robot avatar option 830-3) can be selected. Device 600 then displays the corresponding avatar (e.g., robot avatar 833) with the user's face when the enlarged version of the avatar options menu returns to its original (e.g., condensed) state, as shown in FIG. 8U. to be displayed.

一部の実施形態では、デバイス600は、画像表示領域820上のスワイプジェスチャを検出したことに応じて、ユーザの頭部上に異なるアバターを表示する。例えば、図8Vでは、デバイス600は、画像表示領域820を横切って右方向に移動するスワイプジェスチャ806を検出する。スワイプジェスチャ806を検出したことに応じて、デバイス600は、アバターオプションメニュー828内のアバターオプション830をスクロールする。一部の実施形態では、スクロールの大きさはスワイプジェスチャの大きさによって決定される。これにより、ユーザはスワイプジェスチャの大きさに基づいて複数のアバターをスクロールすることができる。加えて、スクロールの方向、及び画像表示領域820上のアバターの対応する動きは、スワイプジェスチャ806の方向に基づいて決定される。したがって、アバターオプションのスクロール、及び遷移するアバターの対応する動きは、スワイプが左方向にある場合には、左方向にあり得て、又はスワイプが右方向にある場合には、右方向にあり得る(図8V及び図8Wに示すように)。 In some embodiments, device 600 displays a different avatar on the user's head in response to detecting a swipe gesture on image display area 820. For example, in FIG. 8V, device 600 detects a swipe gesture 806 moving to the right across image display area 820. In response to detecting swipe gesture 806, device 600 scrolls through avatar options 830 within avatar options menu 828. In some embodiments, the scroll size is determined by the swipe gesture size. This allows the user to scroll through multiple avatars based on the size of the swipe gesture. Additionally, the direction of scrolling and the corresponding movement of the avatar on the image display area 820 is determined based on the direction of the swipe gesture 806. Thus, the scrolling of avatar options and the corresponding movement of the transitioning avatar can be to the left if the swipe is to the left, or to the right if the swipe is to the right. (As shown in Figures 8V and 8W).

アバターオプション830をスクロールし始めると、現在選択されているアバターオプション(例えば、図8Vのロボットアバターオプション830-3)は選択領域829を離れ、スクロールが継続すると、新規アバターオプション(例えば、図8Wのアバターオプション830-1)は選択領域829に入る。アバターオプションをスクロールすると、デバイス600はまた、次のアバター(例えば、カスタマイズ可能なアバター831)が左から画像表示領域820に入って、ユーザーの顔に移動している間に、ユーザの顔から離れて画像表示領域820の右側に出ていく、現在選択されているアバター(例えば、ロボットアバター833)のアニメーションを、画像表示領域820に表示する。一部の実施形態では、デバイス600は、アバターが画像表示領域820を横切ってスクロールされている間に、画像表示領域820にぼかしエフェクト803を適用する。 As you begin to scroll through avatar options 830, the currently selected avatar option (e.g., robot avatar option 830-3 in FIG. 8V) leaves selection area 829, and as you continue scrolling, a new avatar option (e.g., robot avatar option 830-3 in FIG. 8W) leaves selection area 829. Avatar option 830-1) falls into selection area 829. As you scroll through the avatar options, the device 600 also moves away from the user's face while the next avatar (e.g., customizable avatar 831) enters the image display area 820 from the left and moves toward the user's face. An animation of the currently selected avatar (eg, robot avatar 833) moving out to the right side of the image display area 820 is displayed in the image display area 820. In some embodiments, device 600 applies blur effect 803 to image display area 820 while the avatar is scrolled across image display area 820.

図8V及び図8Wに示す実施形態では、ヌルアバターオプション830-2は選択されず、現在選択されているアバターから画像表示領域820に現れる新規アバターへの遷移をより良く示す。しかしながら、ヌルアバターオプション830-2は、画像表示領域820上のスワイプジェスチャにより選択できることを理解されたい。このような場合には、背景がぼやけている間に現在選択されているアバターを画面外に移動させた後、次いでぼかしエフェクトを除去してアバターなしのユーザーの顔を表示する。 In the embodiment shown in FIGS. 8V and 8W, null avatar option 830-2 is not selected to better illustrate the transition from the currently selected avatar to the new avatar that appears in image display area 820. However, it should be appreciated that the null avatar option 830-2 can be selected by a swipe gesture on the image display area 820. In such a case, the currently selected avatar is moved off-screen while the background is blurred, and then the blur effect is removed to display the user's face without the avatar.

図8X及び図8Yは、異なるカスタマイズ可能なアバターオプション(例えば、カスタマイズ可能なアバターオプション830-5)及び対応する表示されたカスタマイズ可能なアバター835の選択を示す。カスタマイズ可能なアバターオプション830-5が選択領域829に表示されると、編集アフォーダンス804が表示される。編集アフォーダンス804は、図8AAに示すアバター編集ユーザインタフェース808を表示するために(例えば、入力807を介して)選択できる。アバター編集ユーザインタフェース808は、選択された編集アフォーダンス804に関連付けられたカスタマイズ可能なアバターオプション(例えば、830-5)に対応するアバター(例えば、カスタマイズ可能なアバター835)を編集するためのインタフェースを提供する。 8X and 8Y illustrate different customizable avatar options (eg, customizable avatar option 830-5) and corresponding displayed customizable avatar 835 selections. When customizable avatar options 830-5 are displayed in selection area 829, editing affordances 804 are displayed. Editing affordance 804 can be selected (eg, via input 807) to display avatar editing user interface 808 shown in FIG. 8AA. Avatar editing user interface 808 provides an interface for editing the avatar (e.g., customizable avatar 835) that corresponds to the customizable avatar option (e.g., 830-5) associated with the selected editing affordance 804. do.

一部の実施形態では、適用されるビジュアルエフェクトは、適用されたカスタムアバター835の下方の被写体の首部に示される影851、又は眼鏡の光反射などの照明エフェクトを含むことができる。デバイス600がアバター835を変更してユーザのリアルタイム動作を反映すると、デバイス600はまた、モデル化された光源とアバター835との相対位置に基づいて、反射陰影の表示位置を移動させることを含む、アバター835上及び被写体上に投影された照明エフェクトを変更する。 In some embodiments, the applied visual effects may include lighting effects, such as a shadow 851 shown on the subject's neck below the applied custom avatar 835, or light reflections on glasses. When the device 600 changes the avatar 835 to reflect the user's real-time behavior, the device 600 also includes moving the display position of the reflective shadow based on the relative position of the modeled light source and the avatar 835. Change the lighting effects projected on the avatar 835 and onto the subject.

図8AAに示すように、アバター編集ユーザインタフェース808は、カスタマイズ可能なアバター835の表現、並びに現在選択されているアバター特徴オプション及びアバター835を変更するために選択できる利用可能な機能オプションを表す様々なアバター特徴オプション810(例えば、顔色オプション810-1及び顔形状オプション810-2)を含む。アバター特徴オプションは、特定のアバター特徴、具体的には強調表示されたアバター頭部アフォーダンス809-1によって示されるアバター頭部特徴などの、現在選択されているアバター特徴の態様に対する値に対応する。アバター編集ユーザインタフェース808は、アバター835に表される、選択された顔色オプション810-1a及び選択された顔形状オプション810-2aを示す。表示されるアバター特徴オプションは、異なるアバター特徴を選択することによって変更できる。例えば、図8ABでは、デバイス600は、アバター髪部アフォーダンス809-2が選択されると、アバター編集ユーザインタフェース808を更新して、異なるアバター髪部特徴オプション(例えば、髪部テクスチャオプション811-1及び髪部色オプション811-2)を表示する。 As shown in FIG. 8AA, avatar editing user interface 808 displays various customizable representations of avatar 835 as well as currently selected avatar feature options and available functional options that can be selected to modify avatar 835. Includes avatar feature options 810 (eg, complexion option 810-1 and facial shape option 810-2). The avatar feature option corresponds to a value for a currently selected avatar feature aspect, such as a particular avatar feature, specifically the avatar head feature indicated by highlighted avatar head affordance 809-1. Avatar editing user interface 808 shows a selected complexion option 810-1a and a selected facial shape option 810-2a represented by avatar 835. The avatar feature options displayed can be changed by selecting different avatar features. For example, in FIG. 8AB, when avatar hair affordance 809-2 is selected, device 600 updates avatar editing user interface 808 to include different avatar hair feature options (e.g., hair texture option 811-1 and Hair color option 811-2) is displayed.

デバイス600は、異なるアバター特徴オプションが選択されると、アバター835を変更する。例えば、図8ABでは、デバイス600は、ストレート髪部テクスチャオプション811-2aの選択を検出し、選択されたストレート髪部テクスチャオプションを有するようにアバター835を更新する。一部の実施形態では、デバイス600は、ユーザの顔の検出された変化に応じて、アバター編集ユーザインタフェース808に示されるアバター835の表現を変更する。 Device 600 changes avatar 835 when a different avatar feature option is selected. For example, in FIG. 8AB, device 600 detects selection of straight hair texture option 811-2a and updates avatar 835 to have the selected straight hair texture option. In some embodiments, device 600 changes the representation of avatar 835 shown in avatar editing user interface 808 in response to the detected change in the user's face.

完了アフォーダンス812の選択を検出したことに応じて、デバイス600は、アバター編集ユーザインタフェース808を出て、カメラアプリケーションユーザインタフェース815に戻り、アバター編集ユーザーインタフェースで選択された髪部テクスチャオプションに基づいて、選択されたアバターオプション830-5及び対応するアバター835を示す。 In response to detecting the selection of completion affordance 812, device 600 exits avatar editing user interface 808 and returns to camera application user interface 815, and based on the hair texture option selected in the avatar editing user interface, A selected avatar option 830-5 and corresponding avatar 835 are shown.

図8AD~図8AFは、新たにカスタマイズされたアバターを作成して、アバターオプションメニュー828に追加することができる実施形態を示す。新規アバターアフォーダンス813の選択を検出したことに応じて、デバイス600は、図8AEに示すように、選択されたアバター特徴オプションを含まないデフォルトアバターの表現を有するアバター編集ユーザインタフェース808を表示する。デバイス600は、アバター特徴オプションのユーザ選択に基づいてデフォルトアバターを変更し、アバターオプションメニュー828から選択可能な新規アバターとしてアバターを保存することができる。それゆえ、図8AFでは、デバイス600は、取消アフォーダンスの選択を検出し、図8AGに示すように、変更されたアバターをアバターオプションメニュー828に保存することをやめる。 8AD-8AF illustrate an embodiment in which a new customized avatar can be created and added to the avatar options menu 828. In response to detecting the selection of a new avatar affordance 813, the device 600 displays an avatar editing user interface 808 having a representation of a default avatar that does not include the selected avatar feature option, as shown in FIG. 8AE. Device 600 may change the default avatar based on user selection of avatar feature options and save the avatar as a new avatar selectable from avatar options menu 828. Therefore, in FIG. 8AF, device 600 detects selection of the cancel affordance and ceases to save the modified avatar in avatar options menu 828, as shown in FIG. 8AG.

図8AGのキャンセルアイコン850の選択を検出したことに応じて、デバイス600は、アバターオプションメニュー828をクローズし、図8AHに示すようにカメラオプション領域825を表示する。 In response to detecting selection of cancel icon 850 in FIG. 8AG, device 600 closes avatar options menu 828 and displays camera options area 825 as shown in FIG. 8AH.

ステッカーエフェクトアフォーダンス824-2の選択を検出したことに応じて、デバイス600は、図8AIのステッカー858のスクロール可能なリストを有するステッカーオプションメニュー856を表示する。ステッカーオプションメニュー856及びステッカー858は、上述のステッカーオプションメニュー656及びステッカー658と同様のものである。ステッカーは、ユーザが選択できて、画像表示領域820内の画像に適用される、静的なグラフィカルオブジェクトである。一部の実施形態では、ステッカーはタップジェスチャによって選択することができ、次いで、対応するステッカーは画像表示領域820上の位置に表示される。一部の実施形態では、ステッカーは、選択されたステッカー上で開始し、ステッカーを所望の位置にドラッグし、次いでドラッグを終了(例えば、指をリフト)することによってステッカーを所望の位置に配置する、タッチアンドドラッグジェスチャによって選択することができる。このような実施形態の一例が図8AI~図8AKに示されており、ヘルメットステッカー858-1が選択され(例えば、入力853)、カスタムアバター835の上方の(例えば、離れた)位置にドラッグされている。図8AKでは、デバイス600は、被写体832が、図8AJに示す位置から横方向に移動するのを検出する。これに応じて、デバイス600は、被写体の表現の横方向の動き(例えば、方向及び大きさ)に基づいて横方向に動くヘルメットステッカー858-1及びアバター835の両方を表示する。 In response to detecting the selection of sticker effect affordance 824-2, device 600 displays sticker options menu 856 having a scrollable list of stickers 858 of FIG. 8AI. Sticker options menu 856 and stickers 858 are similar to sticker options menu 656 and stickers 658 described above. A sticker is a static graphical object that can be selected by a user and applied to an image within image display area 820. In some embodiments, a sticker can be selected by a tap gesture, and the corresponding sticker is then displayed at a location on the image display area 820. In some embodiments, the sticker is placed in the desired position by starting on the selected sticker, dragging the sticker to the desired position, and then ending the drag (e.g., lifting a finger). , can be selected by touch and drag gestures. An example of such an embodiment is shown in FIGS. 8AI-8AK, where helmet sticker 858-1 is selected (e.g., input 853) and dragged to a position above (e.g., away from) custom avatar 835. ing. In FIG. 8AK, device 600 detects subject 832 moving laterally from the position shown in FIG. 8AJ. In response, device 600 displays both helmet sticker 858-1 and avatar 835 that move laterally based on the lateral movement (eg, direction and size) of the subject's representation.

図8AKでは、デバイス600は、クローズアフォーダンス855上の入力854を検出する。これに応じて、デバイス600は、ステッカーオプションメニュー856をクローズして、図8ALのカメラオプション領域825を表示する。図8ALでは、デバイス600は、被写体832が、頭を傾けて画面の中心にシフトして戻ることを示す。被写体832のこの動きを検出したことに応じて、デバイス600は、図8ALのカスタマイズ可能なアバター835の上方にヘルメットステッカー858-1を表示し、被写体の頭部の画面中心への動きに基づいて(図8AKに示す位置から)横方向にシフトさせる。デバイス600は、ヘルメットステッカー858-1を、アバター835に対して相対的な間隔を維持しながら表示する。しかしながら、図8ALに示すように、ヘルメットステッカー858-1は、被写体の頭部の回転(例えば、傾斜)に応じて回転しない(例えば、傾かない)が、アバター835は回転する(例えば、傾く)。 In FIG. 8AK, device 600 detects input 854 on close affordance 855. In response, device 600 closes sticker options menu 856 and displays camera options area 825 of FIG. 8AL. In FIG. 8AL, device 600 shows subject 832 tilting its head and shifting back to the center of the screen. In response to detecting this movement of the subject 832, the device 600 displays a helmet sticker 858-1 above the customizable avatar 835 in FIG. Shift laterally (from the position shown in Figure 8AK). Device 600 displays helmet sticker 858-1 while maintaining relative spacing to avatar 835. However, as shown in FIG. 8AL, helmet sticker 858-1 does not rotate (e.g., does not tilt) in response to rotation (e.g., tilts) of the subject's head, whereas avatar 835 rotates (e.g., tilts). .

図8ALでは、デバイス600は、ビジュアルエフェクト(例えば、カスタマイズされたアバター835及びヘルメットステッカー858-1)を含む、画像表示領域820に表示されたライブカメラプレビュー820-1の画像、並びに、被写体832及び背景836を含む他の画像データを、デバイス600にキャプチャさせるキャプチャアフォーダンス821の選択を検出する。 In FIG. 8AL, device 600 displays an image of live camera preview 820-1 displayed in image display area 820, including visual effects (e.g., customized avatar 835 and helmet sticker 858-1), as well as images of subjects 832 and Detecting selection of capture affordance 821 that causes device 600 to capture other image data, including background 836 .

図8AMでは、デバイス600は、画像表示領域820にキャプチャされた画像(例えば、メディアアイテム820-2)を示すカメラアプリケーションユーザインタフェース815を表示する(例えば、メディアアイテム820-2は、画像表示領域820に示されるライブカメラプレビュー820-1を置換する)。メディアアイテム820-2は、キャプチャアフォーダンス821が選択された時点での、ライブカメラプレビュー820-1の表現である。このように、メディアアイテム820-2は、被写体832の顔及び背景836の上に表示されるヘルメットステッカー858-1及びアバター835を含む。 8AM, device 600 displays a camera application user interface 815 showing a captured image (e.g., media item 820-2) in image display area 820 (e.g., media item 820-2 is displayed in image display area 820). (replaces live camera preview 820-1 shown in ). Media item 820-2 is a representation of live camera preview 820-1 at the time capture affordance 821 is selected. Thus, media item 820-2 includes a helmet sticker 858-1 and avatar 835 that are displayed over the face of subject 832 and background 836.

デバイス600はまた、カメラ固有アフォーダンス(例えば、図8ALに示すアフォーダンス817)を再撮影アフォーダンス879に置換し、キャプチャされたメディアアイテム820-2を保存するためのアフォーダンス818を保存する。 Device 600 also replaces camera-specific affordances (eg, affordance 817 shown in FIG. 8AL) with retake affordance 879 and preserves affordance 818 for saving captured media item 820-2.

デバイス600はまた、カメラオプション領域825を更新して、キャプチャアフォーダンス821及びカメラセレクタアフォーダンス827を、マークアップアフォーダンス877、編集アフォーダンス878、及び共有アフォーダンス880に置換する。マークアップアフォーダンス877は、ユーザがメディアアイテム820-2をマークアップすることを可能にする。編集アフォーダンス878により、ユーザが、画像を切り取ること、又はメディアアイテム820-2の他の特性を調整することによってなどで、メディアアイテム820-2を編集することが可能になる。共有アフォーダンス880は、ユーザが、例えばメッセージングアプリケーション又は電子メールアプリケーションなどの別のデバイスに、メディアアイテム820-2を送信することを可能にする。 Device 600 also updates camera options area 825 to replace capture affordance 821 and camera selector affordance 827 with markup affordance 877, edit affordance 878, and share affordance 880. Markup affordance 877 allows the user to mark up media item 820-2. Editing affordances 878 allow a user to edit media item 820-2, such as by cropping an image or adjusting other characteristics of media item 820-2. Sharing affordance 880 allows a user to send media item 820-2 to another device, such as a messaging or email application.

デバイス600は、ビジュアルエフェクトオプションアフォーダンス824を含むカメラオプション領域825を表示する。ビジュアルエフェクトオプションアフォーダンス824を選択して、それぞれのオプションメニューを表示することができ、オプションメニューを使用して、キャプチャされたメディアアイテム820-2(並びに、後述する記録されたビデオメディアアイテム820-4)を変更することができる。例えば、図8AN~図8APは、ステッカーをメディアアイテム820-2に追加するデバイス600を示す。図8AOのステッカーオプションメニュー856をデバイス600に表示させる、ステッカーエフェクトアフォーダンス824-2が、図8ANで選択され、図8APに示すメディアアイテム820-2内の被写体832上に配置された、ウサギステッカー858-2の選択も示す。ステッカーオプションメニュー856は、図8APではクローズされており、図8AQではカメラオプション領域825を表示している。 Device 600 displays camera options area 825 that includes visual effects option affordances 824. Visual effects option affordances 824 can be selected to display respective option menus that can be used to select captured media item 820-2 (as well as recorded video media item 820-4, discussed below). ) can be changed. For example, FIGS. 8AN-8AP illustrate device 600 adding a sticker to media item 820-2. The sticker effect affordance 824-2 that causes the sticker options menu 856 of FIG. 8AO to be displayed on the device 600 is selected in FIG. 8AN and placed on the rabbit sticker 858 in the media item 820-2 shown in FIG. 8AP on the subject 832. -2 selection is also shown. Sticker options menu 856 is closed in FIG. 8AP and displays camera options area 825 in FIG. 8AQ.

図8AQでは、デバイス600はまた、他のビジュアルエフェクト(例えば、アバター835及びヘルメットステッカー858-1)と一緒に、被写体832上に配置されたウサギステッカー858-2を含むメディアアイテム820-2を表示する。 In FIG. 8AQ, the device 600 also displays a media item 820-2 that includes a rabbit sticker 858-2 placed on the subject 832, along with other visual effects (e.g., an avatar 835 and a helmet sticker 858-1). do.

ステッカーは、メディアアイテム820-2(静止画)について上述したのと同様の方法で、ビデオフォーマット内の記録されたメディアアイテムに追加することができる。例えば、図8ARは、ビデオメディアアイテム820-4が記録されたビデオである実施形態を示す。メディアアイテム820-4は、メディアアイテム620-4について上述したのと同様の方法で作成することができる。 Stickers can be added to recorded media items in video format in a manner similar to that described above for media item 820-2 (still image). For example, FIG. 8AR depicts an embodiment in which video media item 820-4 is a recorded video. Media item 820-4 may be created in a manner similar to that described above for media item 620-4.

図8ARでは、デバイス600は、記録されたビデオメディアアイテム820-4を画像表示領域820に表示する。デバイス600はまた、記録されたビデオメディアアイテム820-4用のビデオスクラバ8120、エフェクトアフォーダンス822、編集アフォーダンス878、マークアップアフォーダンス877、及び共有アフォーダンス880を有するカメラオプション領域825を表示する。カメラオプション領域825はまた、ビジュアルエフェクトオプションアフォーダンス824を含む。ビジュアルエフェクトオプションアフォーダンス824を選択して、キャプチャされたメディアアイテム820-4を変更するために使用できる、それぞれのオプションメニューを表示することができる。例えば、図8AR~図8AVは、デバイス600がステッカー858-2及び858-3をメディアアイテム820-4に追加することを示す。 In FIG. 8AR, device 600 displays recorded video media item 820-4 in image display area 820. Device 600 also displays a camera options area 825 having a video scrubber 8120, effects affordances 822, editing affordances 878, markup affordances 877, and sharing affordances 880 for recorded video media items 820-4. Camera options area 825 also includes visual effects option affordances 824. Visual effects option affordances 824 may be selected to display a respective menu of options that can be used to modify captured media item 820-4. For example, FIGS. 8AR-8AV show device 600 adding stickers 858-2 and 858-3 to media item 820-4.

一部の実施形態では、表示されるステッカーは、ビデオメディアアイテム(又はライブビデオストリーム)において異なってモデル化された挙動を有することができる。例えば、一部のステッカーは、ディスプレイ(例えば、601)に適用されている外観を有し、画像データ内のオブジェクトが移動する際に静的に保たれる。このようなステッカーの例が、図8AX~図8BCのハートステッカー858-3によって表示されている。一部の実施形態では、デバイス600が、メディアアイテム、ライブカメラプレビュー、又はカメラ602の視野内の被写体の表現のすべて又は一部(例えば、頭部又は顔)の存在を検出しない場合、ステッカーが、メディアアイテム(例えば、820-4)又はライブカメラプレビュー(例えば、820-1)に配置されると、ステッカーはこの静的な挙動を有する。例えば、被写体の顔が完全に画面から外れていて(例えば、カメラ602の視野内で検出されていない)、ステッカーが画像表示領域820上に配置されている場合、いったん顔がカメラ602の視野内で検出され、前に配置されたステッカーと共に画像表示領域820上に表示されると、ステッカーは静止していて、被写体の顔のいかなる動きも追跡しない。 In some embodiments, displayed stickers may have differently modeled behavior in a video media item (or live video stream). For example, some stickers have an appearance that is applied to the display (eg, 601) and remains static as objects in the image data move. An example of such a sticker is displayed by heart sticker 858-3 in FIGS. 8AX-8BC. In some embodiments, the sticker is , the sticker has this static behavior when placed on a media item (eg, 820-4) or a live camera preview (eg, 820-1). For example, if the subject's face is completely off-screen (e.g., not detected within the field of view of the camera 602) and a sticker is placed on the image display area 820, once the face is within the field of view of the camera 602. When detected and displayed on the image display area 820 with a previously placed sticker, the sticker is stationary and does not track any movement of the subject's face.

他のステッカーは、ディスプレイに適用されていて、画像内のオブジェクト(例えば、アバター又は被写体の表現を含む、カメラの視野内のアイテム)に追従して動いている外観を有する。一部の実施形態では、ステッカーは、ステッカーが追従するオブジェクトから離れた位置に配置される。このようなステッカーの例が、図8AK及び8AX~図8BCのヘルメットステッカー858-1によって表示されている。ヘルメットステッカー858-1は、被写体832の横方向の動きに追従するが、被写体の回転運動には追従しない。このようなステッカーの別の例が、図8BE~8BQのヒトデステッカー858-5によって表示されている。被写体の顔から離れて配置されると、ヒトデステッカー858-5は、顔に対する相対的な位置を維持しながら被写体の顔の動きに追従する(例えば、ヒトデのステッカー858-5は、被写体の顔の前方、後方、及び左右の動きには追従するが、被写体の顔の回転運動には追従しない)。 Other stickers have been applied to the display and have the appearance of moving to follow objects in the image (eg, items in the camera's field of view, including an avatar or a representation of the subject). In some embodiments, the sticker is placed at a distance from the object it follows. An example of such a sticker is shown by helmet sticker 858-1 in FIGS. 8AK and 8AX-8BC. The helmet sticker 858-1 follows the lateral movement of the subject 832, but does not follow the rotational movement of the subject. Another example of such a sticker is displayed by starfish sticker 858-5 in FIGS. 8BE-8BQ. When placed away from the subject's face, the starfish sticker 858-5 follows the movement of the subject's face while maintaining its relative position to the face (e.g., the starfish sticker 858-5 moves away from the subject's face). (It follows the forward, backward, and left/right movements of the subject, but it does not follow the rotational movement of the subject's face.)

しかし、他のステッカーは、カメラ602の視野内のオブジェクトに適用されている外観を有し、視野内のオブジェクトに追従するように(例えば、ステッカーが画像内のオブジェクトに合わせた深度の外観を有しながら)移動する。このようなステッカーの例が、図8AX~図8BCのウサギステッカー858-2によって表示されている。ウサギステッカー858-2は、被写体(具体的には、被写体の肩)の横方向及び回転運動と共に動く。このようなステッカーの別の例が、図8BG~図8BMの眼鏡ステッカー858-4によって表示されている。図8BG~図8BMの被写体の顔に配置されると、眼鏡ステッカー858-4は、被写体の顔の横方向の動き(例えば、左右、上/下)、被写体の顔の前後の動き、及び被写体の顔の回転運動に追従する。眼鏡ステッカー858-4は、被写体の顔に物理的に貼り付けられている(例えば、接着されている)外観を有する。 However, other stickers may have an appearance that is applied to an object within the field of view of camera 602, such that the sticker follows the object within the field of view (e.g., the sticker has a depth appearance that is tailored to the object in the image). move). An example of such a sticker is displayed by rabbit sticker 858-2 in FIGS. 8AX-8BC. The rabbit sticker 858-2 moves with the lateral and rotational movements of the subject (specifically, the subject's shoulder). Another example of such a sticker is displayed by glasses sticker 858-4 in FIGS. 8BG-8BM. When placed on the subject's face in FIGS. 8BG-8BM, the glasses sticker 858-4 can detect lateral movement of the subject's face (e.g., left/right, up/down), back and forth movement of the subject's face, and Follows the rotational movement of the face. Glasses sticker 858-4 has the appearance of being physically attached (eg, glued) to the subject's face.

一部の実施形態では、ステッカーの挙動は、メディアアイテム内のオブジェクト(又はライブカメラプレビュー又はカメラの視野)に対するその位置に基づいて変化する。一部の実施形態では、ステッカーの挙動は、オブジェクトに対するステッカーの位置の変化を検出したことに応じて変化する。そのようなステッカーの例を図8BE~図8BQに示し、以下に一層詳細に説明する。 In some embodiments, the sticker's behavior changes based on its position relative to the object (or live camera preview or camera field of view) within the media item. In some embodiments, the behavior of the sticker changes in response to detecting a change in the position of the sticker relative to the object. Examples of such stickers are shown in FIGS. 8BE-8BQ and described in more detail below.

図8AW~図8BCは、アバター835、ヘルメットステッカー858-1、ウサギステッカー858-2、及びハートステッカー858-3を含む、メディアアイテム820-4のビデオ再生及び編集を示す。再生中にメディアアイテム820-4が進行すると、ハートステッカー858-3は、ディスプレイ601に貼り付けられていて動かない外観を有しながら、静止したままである。ヘルメットステッカー858-1は、ディスプレイに貼り付けられている外観を有するが、アバター835の位置の変化に応じて移動する(例えば、変形する)。ウサギステッカー858-2は、メディアアイテム820-4内の被写体832の肩に貼り付けられている外観を有する。肩が動くと、ウサギステッカー858-2は、向き及び表示サイズを含む位置を変更して、メディアアイテム820-4の再生中に被写体の肩に追従している外観を与える。 8AW-8BC illustrate video playback and editing of media item 820-4, including avatar 835, helmet sticker 858-1, rabbit sticker 858-2, and heart sticker 858-3. As media item 820-4 progresses during playback, heart sticker 858-3 remains stationary, with the appearance of being affixed to display 601 and not moving. Helmet sticker 858-1 has the appearance of being pasted on a display, but moves (eg, deforms) in response to changes in the position of avatar 835. Rabbit sticker 858-2 has the appearance of being affixed to the shoulder of subject 832 in media item 820-4. As the shoulder moves, bunny sticker 858-2 changes position, including orientation and display size, to give the appearance of following the subject's shoulder during playback of media item 820-4.

一部の実施形態では、3次元で(例えば、深度センサからの深度情報を介して)追跡されている、それぞれのオブジェクト(例えば、デバイスのユーザの顔、手、又は他の身体の部分)を含む、1つ以上のカメラの視野の表現の位置に適用されるステッカー又は他の仮想オブジェクトは、1つ以上のカメラの視野内で、それぞれのオブジェクトが横方向に(例えば、左右に、及び/又は上下に)移動すると、横方向に(例えば、左右に、及び/又は上下に)移動することに加えて、1つ以上のカメラからのそれぞれのオブジェクトの距離、及び/又は1つ以上のカメラに対するそれぞれのオブジェクトの向きが変化すると、仮想オブジェクトのサイズ及び/又は向きが変化するように、それぞれのオブジェクトに付着している。例えば、図8AS~図8ATに示すように、ウサギステッカー858-2が被写体の肩の表現上に配置されている。図8AX~図8AYでは、肩がカメラの上方及びカメラに向かって動くにつれて、ウサギステッカー858-2は、肩と共に横方向(上方)に動き、肩がカメラに向かって動くにつれて拡大する。一部の実施形態では、3次元で(例えば、深度センサからの深度情報を介して)追跡されている、それぞれのオブジェクト(例えば、デバイスのユーザの顔、手、又は他の身体の部分)から離れている(例えば、遠隔の)、1つ以上のカメラの視野の表現の位置に適用されるステッカー又は他の仮想オブジェクトは、1つ以上のカメラからのそれぞれのオブジェクトの距離、及び/又は1つ以上のカメラに対するそれぞれのオブジェクトの向きが変化しても、仮想オブジェクトのサイズ及び/又は向きが変化しないように、オブジェクトに付着することなく、1つ以上のカメラの視界内で、それぞれのオブジェクトが横方向に(例えば、左右に、及び/又は上下に)移動すると、横方向に(例えば、左右に、及び/又は上下に)移動する。例えば、図8AX及び図8AYに示すように、ヘルメットステッカー858-1は、被写体の表現から離れた位置に配置される。図8AX及び図8AYでは、被写体の表現が横向きにカメラに近づいて動くにつれて、ヘルメットステッカー858-1は、ユーザの表現の動きに基づいて横方向に移動するが、向き又はサイズは変化しない。 In some embodiments, each object (e.g., the face, hand, or other body part of a user of the device) that is being tracked in three dimensions (e.g., via depth information from a depth sensor) A sticker or other virtual object applied to a position in the representation of the field of view of one or more cameras, including, the position of the respective object laterally (e.g., left to right, and/or In addition to moving laterally (e.g., side to side and/or up and down), the respective object's distance from one or more cameras and/or one or more cameras The virtual object is attached to the respective object such that the size and/or orientation of the virtual object changes as the orientation of the respective object changes. For example, as shown in FIGS. 8AS-8AT, a rabbit sticker 858-2 is placed on a representation of the subject's shoulder. 8AX-8AY, as the shoulder moves above and toward the camera, the rabbit sticker 858-2 moves laterally (upward) with the shoulder and expands as the shoulder moves toward the camera. In some embodiments, from each object (e.g., the face, hand, or other body part of the user of the device) that is tracked in three dimensions (e.g., via depth information from a depth sensor) A sticker or other virtual object applied to the location of a representation of the field of view of one or more cameras that is remote (e.g., remote) may vary depending on the distance of the respective object from the one or more cameras and/or the distance of the one or more cameras. Each object within the field of view of one or more cameras, without attaching to the object, such that the size and/or orientation of the virtual object does not change even if the orientation of each object with respect to one or more cameras changes. moves laterally (e.g., side to side and/or up and down). For example, as shown in FIGS. 8AX and 8AY, helmet sticker 858-1 is placed away from the representation of the subject. In FIGS. 8AX and 8AY, as the subject representation moves sideways toward the camera, the helmet sticker 858-1 moves laterally based on the movement of the user's representation, but does not change orientation or size.

図8AYでは、デバイス600は、スクラバ8120上の入力882(例えば、スワイプ又はドラッグジェスチャ)を検出し、入力に基づいてメディアアイテム820-4をスクラブする。図8AZに示すように、入力882に応じて、デバイス600は、メディアアイテム820-4を通じて反転して、図8AXで以前に表示されたメディアアイテム820-4の部分を表示する。デバイス600は、編集アフォーダンス878上の入力884を検出する。 In FIG. 8AY, device 600 detects input 882 (eg, a swipe or drag gesture) on scrubber 8120 and scrubs media item 820-4 based on the input. As shown in FIG. 8AZ, in response to input 882, device 600 flips through media item 820-4 to display the portion of media item 820-4 that was previously displayed in FIG. 8AX. Device 600 detects input 884 on edit affordance 878.

図8BAでは、デバイス600は、編集モードに入り(メディアアイテム820-4を編集するために)、ビデオスクラバ8120の端部に(入力883を介して)アフォーダンス885をドラッグすることによってビデオをクロッピングするために選択可能なアフォーダンス885を表示して、ビデオスクラバの終了時間を変更する。 In FIG. 8BA, device 600 enters edit mode (to edit media item 820-4) and crops the video by dragging affordance 885 (via input 883) to the end of video scrubber 8120. Display selectable affordances 885 to change the end time of the video scrubber.

図8BBに示すように、ビデオスクラバ8120は、入力883に応じてトリミングされる。デバイス600は、完了アフォーダンス887上の入力886を検出し、編集モードを終了させる。 As shown in FIG. 8BB, video scrubber 8120 is trimmed in response to input 883. Device 600 detects input 886 on completion affordance 887 and exits edit mode.

図8BCでは、ビデオスクラバ8120は、トリミングされて示されている(例えば、図8AZの編集モードに入る前よりも長さが短い)。デバイス600は、エフェクトアフォーダンス822上の入力888を検出し、エフェクトモードを終了させる。 In FIG. 8BC, video scrubber 8120 is shown cropped (eg, shorter in length than before entering edit mode in FIG. 8AZ). Device 600 detects input 888 on effects affordance 822 and exits effects mode.

図8BDに表すように、メディアアイテム820-4に表示されるビジュアルエフェクトビジュアルエフェクトは、エフェクトアフォーダンス822を選択解除する入力888を検出したことに応じて表示から隠される。 As depicted in FIG. 8BD, the visual effect displayed on media item 820-4 is hidden from display in response to detecting input 888 that deselects effect affordance 822.

一部の実施形態では、ステッカーは、ステッカーの配置の条件(例えば、他のオブジェクトに対するステッカーの位置、ステッカーが配置されたときのオブジェクトの存在(又は不存在)など)に基づいて決定される挙動を有することができる。例えば、一部の実施形態では、ステッカーは、オブジェクト又は領域から離れて配置される場合には第1のタイプの挙動を、オブジェクト又は領域上に配置される場合には第2のタイプの挙動を有することができる。一部の実施形態では、ステッカーが配置されるときにオブジェクトが存在しない場合には、ステッカーは、第3のタイプの挙動を有することができる。一部の実施形態では、ステッカーの挙動は、(例えば、オブジェクトに対する)ステッカーの配置の変化に基づいて変化し得る。 In some embodiments, the sticker has a behavior that is determined based on the conditions of the sticker's placement (e.g., the location of the sticker relative to other objects, the presence (or absence) of the object when the sticker is placed, etc.). can have. For example, in some embodiments, a sticker exhibits a first type of behavior when placed away from an object or area and a second type of behavior when placed on an object or area. can have In some embodiments, a sticker can have a third type of behavior if no object is present when the sticker is placed. In some embodiments, the behavior of the sticker may change based on changes in the placement of the sticker (eg, relative to the object).

例えば、図8BE~図8BQは、ライブカメラプレビュー820-1に表示される様々なステッカーの挙動を示す例示的な実施形態を示し、被写体の顔に対するステッカーの配置の変化に基づいてステッカーの挙動を変更する。図8BE~図8BQに示す実施形態では、ステッカーの挙動は、被写体の顔に対するステッカーの位置に基づいて決定される。 For example, FIGS. 8BE-8BQ illustrate example embodiments illustrating the behavior of various stickers displayed in a live camera preview 820-1, which determines the behavior of the sticker based on changes in the placement of the sticker relative to the subject's face. change. In the embodiment shown in FIGS. 8BE-8BQ, the behavior of the sticker is determined based on the position of the sticker relative to the subject's face.

図8BEでは、デバイス600は、図8Dに示すものと同様の外観であるが、画像表示領域820に表示されたステッカー858を有する、カメラアプリケーションユーザインタフェース815を表示する。画像表示領域820は、カメラ602の視野内に位置する被写体832の表現、及び被写体832の背後に表示された背景836を示している、カメラ602からのライブカメラプレビュー820-1を示す。眼鏡ステッカー858-4、ヒトデステッカー858-5、及び野球ステッカー858-6は、被写体832の顔から離れて(例えば、上にではなく)、それぞれ配置されて表示される。図8BE~図8BQに示すステッカーは、本明細書で論じる様々な実施形態に従って、画像表示領域内に配置され、移動させることができる。 In FIG. 8BE, device 600 displays a camera application user interface 815 that looks similar to that shown in FIG. 8D, but with a sticker 858 displayed in image display area 820. Image display area 820 shows a live camera preview 820-1 from camera 602 showing a representation of subject 832 located within the field of view of camera 602 and a background 836 displayed behind subject 832. Glasses sticker 858-4, starfish sticker 858-5, and baseball sticker 858-6 are each displayed positioned away from (eg, not on top of) subject 832's face. The stickers shown in FIGS. 8BE-8BQ can be placed and moved within the image display area according to various embodiments discussed herein.

ステッカー858が被写体の顔から離れて(例えば、その上ではなく)配置される場合、ステッカー858は第1の種類の挙動を有する。例えば、ステッカーは、横方向(例えば、横から横、及び上/下)、前方(例えば、カメラ602に向かう)、及び後方(例えば、カメラ602から離れる)の被写体の顔の動きには追従するが、被写体の顔の回転運動には追従しない(例えば、被写体の顔のピッチ及びヨーに追従しない)。 When sticker 858 is placed away from (eg, not on) the subject's face, sticker 858 has a first type of behavior. For example, the sticker may follow the subject's facial movements laterally (e.g., side to side and up/down), forward (e.g., toward camera 602), and backward (e.g., away from camera 602). However, it does not follow the rotational movement of the subject's face (for example, it does not follow the pitch and yaw of the subject's face).

図8BFでは、デバイス600は、眼鏡ステッカー858-4上の入力889(例えば、ディスプレイ601上のタッチアンドドラッグジェスチャ)を検出する。入力889を検出したことに応じて、デバイス600は、図8BG及び図8BHに示すように、入力と共に移動する眼鏡ステッカー858-4を(例えば、入力889の動きの向き及び大きさで)表示する。 In FIG. 8BF, device 600 detects input 889 (eg, a touch and drag gesture on display 601) on glasses sticker 858-4. In response to detecting the input 889, the device 600 displays a glasses sticker 858-4 that moves with the input (e.g., in the direction and magnitude of the movement of the input 889), as shown in FIGS. 8BG and 8BH. .

一部の実施形態では、デバイス600は、ステッカーが追従しているオブジェクトに対応する位置にステッカーが移動したときにインジケーションを提供する。例えば、図8BGでは、デバイス600は、眼鏡ステッカー858-4が、被写体の顔から離れた位置から被写体の顔の位置に移動していることを示す。デバイス600は、眼鏡ステッカー858-4が被写体の顔に移動すると、被写体の顔の周りにブラケット890を表示し、任意選択的に、触覚フィードバック892(例えば、音声出力を伴う、又は伴わない触知出力)を生成する。一部の実施形態では、ブラケット890は、眼鏡ステッカー858-4が被写体の顔に表示されることになるように(眼鏡ステッカー858-4の変更された挙動がもたらされるように)、眼鏡ステッカー858-4を配置できる領域の視覚的表示を提供する。このように、ユーザがステッカーを被写体の顔に配置されることになる配置領域(例えば、ブラケットの内側)にステッカーをドラッグしている間に、ブラケット890(及び触覚フィードバック892)をユーザーに示すことができる。一部の実施形態では、触覚フィードバック892は、眼鏡ステッカー858-4が、被写体の顔の外側の領域(例えば、ステッカーが第1のタイプの挙動を有する領域)から、被写体の顔の領域(例えば、ステッカーが第2のタイプの挙動を有する領域)に移動したことを示す。 In some embodiments, device 600 provides an indication when the sticker moves to a position corresponding to the object it is following. For example, in FIG. 8BG, device 600 shows glasses sticker 858-4 moving from a position away from the subject's face to a position on the subject's face. The device 600 displays a bracket 890 around the subject's face when the glasses sticker 858-4 moves to the subject's face, and optionally displays haptic feedback 892 (e.g., tactile feedback with or without audio output). output). In some embodiments, the bracket 890 connects the glasses sticker 858 such that the glasses sticker 858-4 is displayed on the subject's face (resulting in an altered behavior of the glasses sticker 858-4). - Provides a visual indication of the area in which the 4 can be placed. In this way, the bracket 890 (and haptic feedback 892) may be shown to the user while the user is dragging the sticker to the placement area (e.g., inside the bracket) where the sticker is to be placed on the subject's face. Can be done. In some embodiments, the haptic feedback 892 indicates that the glasses sticker 858-4 is moving from an area outside the subject's face (e.g., an area where the sticker has the first type of behavior) to an area of the subject's face (e.g., an area where the sticker has the first type of behavior). , indicating that the sticker has moved to an area with the second type of behavior).

一部の実施形態では、ステッカーが追従しているオブジェクトに対応する位置にステッカー(又は他のビジュアルエフェクト)の位置が移動することをデバイス600が検出すると、デバイス600は、オブジェクトの位置に基づいてステッカーの外観を変更し、ステッカーの挙動を変更する(一部の実施形態では、ステッカーの挙動は、入力889の終了を検出した後に変更される)。デバイス600はまた、ステッカーが追従しているオブジェクトに対応する位置からオブジェクトから離れた位置にステッカーが移動すると、ステッカーの外観及び挙動を逆の方法で変更する。 In some embodiments, when the device 600 detects that the position of the sticker (or other visual effect) moves to a position that corresponds to the object that the sticker is following, the device 600 may Change the appearance of the sticker and change the behavior of the sticker (in some embodiments, the behavior of the sticker is changed after detecting the end of input 889). The device 600 also changes the appearance and behavior of the sticker in an inverse manner as the sticker moves from a position corresponding to the object it is following to a position away from the object.

図8BHでは、デバイス600が被写体の顔の眼鏡ステッカー858-4の位置を検出すると(例えば、ブラケット890内に位置する)、デバイス600は、被写体の顔の位置(例えば、サイズ及び向き)に基づいてステッカーを変更する。例えば、眼鏡ステッカー858-4は、サイズが(例えば、被写体の顔のサイズに比例して適合するように)増大し、図8BGの静的位置から図8BHの被写体の顔の位置と一致するように回転する。一部の実施形態では、ステッカーは、被写体の鼻に対応する平面上に配置され、顔が動くとその位置の座標を変換する。一部の実施形態では、顔メッシュ(例えば、深度マスク)を使用して鼻の点を決定する。一部の実施形態では、ステッカーは、平面上に配置されるが、被写体の顔の形状には適合しない。 In FIG. 8BH, when the device 600 detects the position of the glasses sticker 858-4 on the subject's face (e.g., located within the bracket 890), the device 600 detects the position of the glasses sticker 858-4 on the subject's face based on the position (e.g., size and orientation) of the subject's face. to change the sticker. For example, glasses sticker 858-4 increases in size (e.g., to fit proportionally to the size of the subject's face) from a static position in Figure 8BG to match the position of the subject's face in Figure 8BH. Rotate to . In some embodiments, the sticker is placed on a plane that corresponds to the subject's nose and transforms the coordinates of its position as the face moves. In some embodiments, a facial mesh (eg, a depth mask) is used to determine the nose points. In some embodiments, the sticker is placed on a flat surface but does not conform to the shape of the subject's face.

デバイス600はまた、ステッカーの挙動を第2の種類の挙動(例えば、第1の種類の挙動とは異なる挙動)に変更する。図8BHに示すように、挙動の第2のタイプは、横方向の動き及び前後方向の動きに加えて、ステッカーが被写体の顔の回転運動に追従して(例えば、顔のピッチ及びヨーに追従して)、顔のその3D位置を維持する挙動を含むことができる。他のステッカーの挙動は変化しない。このように、野球ステッカー858-6及びヒトデステッカー858-5は、被写体の顔には配置されれないので、挙動の第1のタイプを有し続けている。代わりに、ヒトデステッカー858-5及び野球ステッカー858-6は、顔からの相対的間隔を維持し続ける。 Device 600 also changes the behavior of the sticker to a second type of behavior (eg, a different behavior than the first type of behavior). The second type of behavior, as shown in Figure 8BH, is that in addition to lateral and longitudinal movements, the sticker follows the rotational movement of the subject's face (e.g., it follows the pitch and yaw of the face). ) and maintain its 3D position of the face. The behavior of other stickers remains unchanged. Thus, baseball sticker 858-6 and starfish sticker 858-5 continue to have the first type of behavior because they are not placed on the subject's face. Instead, starfish sticker 858-5 and baseball sticker 858-6 continue to maintain their relative spacing from the face.

一部の実施形態では、ブラケット890は入力889と共に持続し、入力889は被写体の顔に(例えば、ブラケット内に)配置される。このように、デバイス600が入力889の終了を検出すると、デバイス600は、図8BIに示すように、ブラケット890の表示を停止する。 In some embodiments, bracket 890 persists with input 889, and input 889 is placed on the subject's face (eg, within the bracket). Thus, when device 600 detects the end of input 889, device 600 stops displaying bracket 890, as shown in FIG. 8BI.

図8BI及び図8BJは、被写体の顔と共に眼鏡ステッカー858-4を回転しているデバイス600を示しているが、ヒトデステッカー858-5及び野球ステッカー858-6は静止したままである(眼鏡ステッカー858-4とは異なり、それらは被写体の顔の回転運動に追従しない)。 8BI and 8BJ show the device 600 rotating glasses sticker 858-4 with the subject's face, while starfish sticker 858-5 and baseball sticker 858-6 remain stationary (glasses sticker 858 -4, they do not follow the rotational movement of the subject's face).

図8BKでは、被写体はカメラ602に近づくように動く。眼鏡ステッカー858-4は、被写体の顔の前方への動きと共に動き、被写体の顔との回転位置を維持する。同様に、野球ステッカー858-6及びヒトデステッカー858-5は、被写体の顔に対する相対的間隔を維持しながら、被写体の顔の前方への動きと共に動く。野球ステッカー858-6及びヒトデステッカー858-5は、被写体の顔と共に回転しない。 In FIG. 8BK, the subject moves closer to the camera 602. The glasses sticker 858-4 moves with the forward movement of the subject's face and maintains a rotational position with the subject's face. Similarly, baseball sticker 858-6 and starfish sticker 858-5 move with the forward movement of the subject's face while maintaining their relative spacing to the subject's face. Baseball sticker 858-6 and starfish sticker 858-5 do not rotate with the subject's face.

図8BKでは、デバイス600は、キャプチャアフォーダンス821上で入力893を検出し、これに応じて、ライブカメラプレビュー820-1の画像をキャプチャする。 In FIG. 8BK, device 600 detects input 893 on capture affordance 821 and, in response, captures an image of live camera preview 820-1.

図8BLでは、デバイス600は、画像表示領域820にキャプチャされた画像(例えば、メディアアイテム820-5)を示すカメラアプリケーションユーザインタフェース815を表示する(例えば、メディアアイテム820-5は、画像表示領域820に示されるライブカメラプレビュー820-1を置換する)。メディアアイテム820-5は、キャプチャアフォーダンス821が選択された時点でのライブカメラプレビュー820-1の表現である。図8BLに示す実施形態は、図8AMに示したものと同様であるが、(メディアアイテム820-2の代わりに)メディアアイテム820-5を有し、メディアアイテム820-5は、被写体832の顔及び背景836に対して表示される、眼鏡ステッカー858-4、ヒトデステッカー858-5、及び野球ステッカー858-6を含む。 In FIG. 8BL, device 600 displays a camera application user interface 815 that shows a captured image (e.g., media item 820-5) in image display area 820 (e.g., media item 820-5 appears in image display area 820). (replaces live camera preview 820-1 shown in ). Media item 820-5 is a representation of live camera preview 820-1 at the time capture affordance 821 was selected. The embodiment shown in FIG. 8BL is similar to that shown in FIG. 8AM, but with media item 820-5 (instead of media item 820-2), where media item 820-5 includes the face of subject 832. and a glasses sticker 858-4, a starfish sticker 858-5, and a baseball sticker 858-6 displayed against a background 836.

本明細書で論じるように、ビジュアルエフェクトの表示は、異なる実施形態にわたって同様である。例えば、他に明記しない限り、ビジュアルエフェクトは、カメラアプリケーション、メッセージングアプリケーション、アバター編集アプリケーション、ライブビデオメッセージングアプリケーション、又は本明細書で論じる任意の他のアプリケーションにおける同様の方法で、表示及び操作することができる。加えて、画像データの異なるタイプにわたって、同様の方法でビジュアルエフェクトを表示及び操作することができる。例えば、特に明記しない限り、ビジュアルエフェクトは、ライブカメラプレビュー、メディアアイテム、ストリーミングされた画像データ、又は本明細書で論じられる任意の他の画像データにおける同様の方法で、表示及び操作することができる。例えば、図8BL~図8BQは、ライブカメラプレビュー820-1について上述したのと同様の方法で、メディアアイテム820-5にステッカーを表示することを示す。具体的には、図8BL~図8BQは、ライブ画像プレビュー820-1に関して上述したのと同様の方法で、メディアアイテム(例えば、820-5)内のステッカーを再配置し、それに応じてそれらのそれぞれの挙動を変更できることを表す。 As discussed herein, the display of visual effects is similar across different embodiments. For example, unless otherwise specified, visual effects may be displayed and manipulated in a similar manner in a camera application, messaging application, avatar editing application, live video messaging application, or any other application discussed herein. can. Additionally, visual effects can be displayed and manipulated in a similar manner across different types of image data. For example, unless otherwise specified, visual effects may be displayed and manipulated in a similar manner in live camera previews, media items, streamed image data, or any other image data discussed herein. . For example, FIGS. 8BL-8BQ illustrate displaying a sticker on media item 820-5 in a manner similar to that described above for live camera preview 820-1. Specifically, FIGS. 8BL-8BQ rearrange stickers within a media item (e.g., 820-5) and change their accordingly in a manner similar to that described above with respect to live image preview 820-1. Indicates that each behavior can be changed.

図8BMでは、デバイス600は、眼鏡のステッカー858-4上の入力894を検出し、ブラケット890を表示する。図8BNでは、入力894は、眼鏡ステッカー858-4を被写体の顔から動かして外す。眼鏡ステッカーを顔から動かして外すと、デバイス600は、触覚フィードバック892を生成し、ブラケット890の表示を停止し、眼鏡ステッカー858-4をその元の形状(例えば、眼鏡ステッカーが図8BEの被写体の顔から離れて配置されたときからわずかに傾斜した形状)に変更して戻す。デバイス600はまた、眼鏡ステッカー858-4の挙動を、第1のタイプの挙動(ステッカーが追跡しているオブジェクトから離れた配置されたステッカーに関連付けられた挙動)に変更して戻し、変更された挙動に基づいてステッカーの外観を変更する。このように、眼鏡ステッカー858-4は、(図8BE~図8BGの眼鏡ステッカー858-4のサイズと比較して)図8BN~8BQのより大きいサイズを有して表示され、ヒトデステッカー858-5及び野球ステッカー858-6のサイズ変化と同様に、図8BJ~8BKの被写体の顔の前方への動きに基づいて、眼鏡ステッカー858-4のメディアアイテム820-5内の被写体の顔の位置に対する相対的間隔を維持する。 In FIG. 8BM, device 600 detects input 894 on glasses sticker 858-4 and displays bracket 890. In FIG. 8BN, input 894 moves glasses sticker 858-4 off the subject's face. When the glasses sticker is moved off the face, the device 600 generates haptic feedback 892, stops displaying the bracket 890, and restores the glasses sticker 858-4 to its original shape (e.g., when the glasses sticker is on the subject of FIG. 8BE). Change back to a slightly slanted shape (from when it was placed away from the face). The device 600 also changes the behavior of the glasses sticker 858-4 back to the first type of behavior (behavior associated with a sticker placed away from the object the sticker is tracking), and Change the appearance of stickers based on behavior. As such, glasses sticker 858-4 is displayed having a larger size in FIGS. 8BN-8BQ (compared to the size of glasses sticker 858-4 in FIGS. 8BE-8BG), and starfish sticker 858-5 and baseball sticker 858-6 relative to the position of the subject's face in media item 820-5 based on the forward movement of the subject's face in FIGS. 8BJ-8BK. Maintain proper spacing.

図8BO~図8BQは、メディアアイテム820-5内の被写体の顔に異なるステッカーを配置すること、及び異なるステッカーが、被写体の顔に動かされたことに応じて、ステッカーの異なる挙動に基づいて変更されることを表す。例えば、図8BOでは、デバイス600は、野球ステッカー858-6上の入力895を検出する。野球ステッカー858-6が図8BPの被写体の顔にドラッグされると、デバイス600は、ブラケット890を表示し、触覚フィードバック892(例えば、触知出力)を生成し、被写体の顔の角度に基づいて野球ステッカー858-6を再配置する。言い換えれば、野球ステッカー858-6の挙動は、眼鏡ステッカー858-4が被写体の顔に配置されたときの被写体の顔の回転運動に追従する方法と同様に、被写体の顔の回転運動に追従するように変化する。 8BO-8BQ are modified based on the placement of different stickers on the subject's face in media item 820-5 and the different behavior of the stickers in response to the different stickers being moved onto the subject's face. It means to be done. For example, in FIG. 8BO, device 600 detects input 895 on baseball sticker 858-6. When baseball sticker 858-6 is dragged onto the subject's face in FIG. 8BP, device 600 displays bracket 890 and generates haptic feedback 892 (e.g., tactile output) based on the angle of the subject's face. Rearrange baseball sticker 858-6. In other words, the behavior of the baseball sticker 858-6 follows the rotational movement of the subject's face, similar to the way the glasses sticker 858-4 follows the rotational movement of the subject's face when placed on the subject's face. It changes like this.

図8BQでは、入力895が終了し、デバイス600はブラケット890の表示を停止する。 In FIG. 8BQ, input 895 ends and device 600 stops displaying bracket 890.

図9A~図9Bは、一部の実施形態に係る、電子デバイスを使用してカメラアプリケーションにビジュアルエフェクトを表示するための方法を示すフロー図である。方法900は、カメラと表示装置とを備えたデバイス(例えば、100、300、500、600)にて実行される。方法900におけるいくつかの動作は、任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 9A-9B are flow diagrams illustrating a method for displaying visual effects in a camera application using an electronic device, according to some embodiments. Method 900 is performed on a device (eg, 100, 300, 500, 600) that includes a camera and a display. Some acts in method 900 are optionally combined, the order of some acts is optionally changed, and some acts are optionally omitted.

以下に説明するように、方法900は、カメラアプリケーションにビジュアルエフェクトを表示するための直感的な仕方を提供する。かかる方法は、カメラアプリケーションにおいて閲覧される画像にビジュアルエフェクトを適用するためのユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作コンピューティングデバイスでは、画像にビジュアルエフェクトをユーザーがより迅速かつ効率的に表示できるようにすることで、電力を節約し、バッテリ充電間の時間を増大させる。 As described below, method 900 provides an intuitive way to display visual effects in a camera application. Such methods reduce the cognitive burden on users to apply visual effects to images viewed in camera applications, thereby creating a more efficient human-machine interface. On battery-operated computing devices, enabling users to display visual effects on images more quickly and efficiently saves power and increases the time between battery charges.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、カメラユーザインタフェース(例えば、815)を表示する(902)。カメラユーザインタフェースは、カメラ(例えば、602)を介してキャプチャされた画像データの表現(例えば、835)を含む、カメラ表示領域(例えば、820)を含む(904)。 An electronic device (eg, 600) displays (902) a camera user interface (eg, 815) via a display (eg, 601). The camera user interface includes a camera display area (eg, 820) that includes a representation (eg, 835) of image data captured via the camera (eg, 602) (904).

一部の実施形態では、画像データは、深度データ(キャプチャされた画像又はビデオの深度アスペクト(例えば、RGBデータから独立した深度データ)を含む画像データ)を含む(906)。一部の実施形態では、画像データは、少なくとも2つの成分、すなわち、キャプチャされた画像の視覚特性を符号化するRGB成分、及びキャプチャされた画像内の要素の相対的な空間的関係についての情報を符号化する深度データ(例えば、深度データは、ユーザが前景にあることを符号化し、ユーザの背後に位置する木などの背景要素は、背景にある)を含む。一部の実施形態では、深度データは深度マップである。一部の実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ)からのシーン内のオブジェクトの距離に関する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、その対応する2次元ピクセルが位置する、視点のZ軸内の位置を規定する。一部の例では、深度マップは、各ピクセルが値(例えば、0~255)によって定義されるピクセルから構成される。例えば、「0」値は、「3次元」シーンにおける最も離れた位置に配置されたピクセルを表し、「255」値は、「3次元」シーンにおける視点(例えば、カメラ)に最も近いピクセルを表す。他の例では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。一部の実施形態では、深度マップは、深度カメラの視点における関心あるオブジェクトの様々な特徴の相対的深度(例えば、ユーザの顔の目、鼻、口、耳の相対的な深度)についての情報を含む。一部の実施形態では、深度マップは、z方向の関心あるオブジェクトの輪郭をデバイスが判定することを可能にする情報を含む。 In some embodiments, the image data includes depth data (image data that includes a depth aspect of the captured image or video (eg, depth data independent of RGB data)) (906). In some embodiments, the image data includes at least two components: an RGB component that encodes visual characteristics of the captured image, and information about the relative spatial relationships of elements within the captured image. (e.g., the depth data encodes that the user is in the foreground, and background elements, such as trees located behind the user, are in the background). In some embodiments, the depth data is a depth map. In some embodiments, a depth map (eg, a depth map image) includes information (eg, values) about the distances of objects in the scene from a viewpoint (eg, a camera). In one embodiment of a depth map, each depth pixel defines the location in the Z-axis of the viewpoint where its corresponding two-dimensional pixel is located. In some examples, the depth map is composed of pixels, each pixel defined by a value (eg, 0-255). For example, a "0" value represents the furthest located pixel in the "3D" scene, and a "255" value represents the pixel closest to the viewpoint (e.g., camera) in the "3D" scene. . In other examples, the depth map represents the distance between objects in the scene and the plane of view. In some embodiments, the depth map provides information about the relative depth of various features of the object of interest (e.g., the relative depth of the eyes, nose, mouth, and ears of the user's face) at the perspective of the depth camera. including. In some embodiments, the depth map includes information that allows the device to determine the contour of the object of interest in the z-direction.

一部の実施形態では、深度データは、カメラ表示領域(例えば、820)内の被写体の表現を含む、第1の深度成分(例えば、カメラ表示領域内の被写体の空間位置を符号化する深度データの第1の部分、前景又は特定のオブジェクトなどの、深度マップの離散部分を形成する複数の深度ピクセル)を有する。一部の実施形態では、深度データは、第1の深度成分とは別個の、第2の深度成分(例えば、カメラ表示領域内の背景の空間位置を符号化する深度データの第2の部分、背景などの、深度マップの離散部分を形成する複数の深度ピクセル)を有し、第2の深度アスペクトは、カメラ表示領域における背景の表現を含む。一部の実施形態では、第1の深度アスペクト及び第2の深度アスペクトは、カメラ表示領域内の被写体とカメラ表示領域内の背景との間の空間的関係を判定するために使用される。この空間的関係は、被写体を背景から識別するために使用することができる。この識別は、例えば、異なるビジュアルエフェクト(例えば、深度成分を有するビジュアルエフェクト)を被写体及び背景に適用するために利用することができる。一部の実施形態では、第1の深度成分に対応しない画像データのすべての領域(例えば、深度カメラの範囲外である画像データの領域)は、深度マップからセグメント化される(例えば、除外される)。 In some embodiments, the depth data includes a first depth component (e.g., depth data encoding the spatial position of the object within the camera viewing area) that includes a representation of the object within the camera viewing area (e.g., 820). (a first part of the depth map, such as the foreground or a particular object) forming a discrete part of the depth map. In some embodiments, the depth data includes a second depth component that is separate from the first depth component (e.g., a second portion of the depth data that encodes the spatial location of the background within the camera viewing area; the second depth aspect includes a representation of the background in the camera viewing area. In some embodiments, the first depth aspect and the second depth aspect are used to determine a spatial relationship between a subject within the camera viewing area and a background within the camera viewing area. This spatial relationship can be used to distinguish the subject from the background. This identification can be used, for example, to apply different visual effects (eg, visual effects with a depth component) to the subject and the background. In some embodiments, all regions of the image data that do not correspond to the first depth component (e.g., regions of the image data that are outside the range of the depth camera) are segmented (e.g., excluded) from the depth map. ).

一部の実施形態では、カメラ(例えば、602)を介してキャプチャされた画像データの表現(例えば、835)は、ライブカメラプレビュー(例えば、カメラの視野にあるものを表す画像データのストリーム)である。 In some embodiments, the representation (e.g., 835) of the image data captured through the camera (e.g., 602) is a live camera preview (e.g., a stream of image data representing what is in the camera's field of view). be.

一部の実施形態では、第1のカメラ表示モードがアクティブである間に、電子デバイス(例えば、600)は、カメラ表示領域(例えば、820)上のスワイプジェスチャを検出する。一部の実施形態では、カメラ表示領域上のスワイプジェスチャを検出したことに応じて、例えば、電子デバイス(例えば、600)は、カメラ表示領域内の選択されたアバターオプションの表示された表現の外観を、第1の外観(例えば、現在選択されているアバターオプションに基づく外観)から、第2の外観(例えば、異なるアバターオプション(例えば、ヌルアバターオプション、又は異なるタイプ(例えば、カスタマイズ可能な、カスタマイズ不可能な)のアバターを含む、異なるアバターに対応するアバターオプション)基づく外観)に変更し、第2の外観は、複数のアバターオプションのうちの異なる1つ(例えば、アバター選択領域に含まれる異なるアバターオプション)に対応する。カメラ表示領域上のスワイプジェスチャを検出したことに応じて、選択されたアバターオプションの表示された表現の外観を変更することによって、選択されたアバターの表現を変更するための迅速かつ容易な方法をユーザに提供する。追加表示されたコントロールによりユーザインタフェース(UI)を雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, while the first camera display mode is active, the electronic device (eg, 600) detects a swipe gesture on the camera display area (eg, 820). In some embodiments, in response to detecting a swipe gesture on the camera display area, the electronic device (e.g., 600) controls the appearance of the displayed representation of the selected avatar option within the camera display area. from a first appearance (e.g., an appearance based on the currently selected avatar option) to a second appearance (e.g., a different avatar option (e.g., a null avatar option), or a different type (e.g., a customizable, customizable avatar options corresponding to different avatars), and the second appearance is based on a different one of the plurality of avatar options (e.g., a different avatar included in the avatar selection area). Avatar options). A quick and easy way to change the expression of a selected avatar by changing the appearance of the displayed expression of the selected avatar option in response to a detected swipe gesture on the camera display area Provide to users. Improves device usability by providing additional control options without cluttering the user interface (UI) with additional visible controls, making the user device interface (e.g. (by assisting the user in providing appropriate input and reducing user errors); in addition, by allowing the user to use the device more quickly and efficiently. reduce power usage and improve battery life.

一部の実施形態では、複数のアバターオプションのうちの異なる一つがヌルアバターオプションである場合、デバイス(例えば、600)は、アバターの表現を被写体の表現上に表示することを停止する(例えば、デバイスは、ユーザの頭部の画像データを仮想アバターに置換することをやめる)。一部の実施形態では、複数のアバターオプションのうちの異なる1つが、異なるアバターキャラクタ(カスタマイズ可能又はカスタマイズ不可能なアバターキャラクタを含む)のアバターオプションである場合、デバイスは、選択されたアバターキャラクタを異なるアバターキャラクタに置換する(例えば、デバイスは、アバターの表現を異なるアバターの表現に置換する)。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、画面の中心に移動する異なるアバターキャラクターのアニメーションを表示することを含む。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、ユーザの頭部に移動する異なるアバターキャラクターのアニメーションを表示することを含む。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、選択されたアバターが置換されている間に背景をぼかすことを含む。選択されたアバターキャラクターが異なるアバターキャラクターに置換されると/されている間に、アニメーションを表示する(例えば、異なるアバターキャラクタが画面の中央に移動し、異なるアバターキャラクタがユーザの頭部に移動して背景をぼかす)ことにより、アバターキャラクターが変更されているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、現在選択されているアバターオプションは第1のタイプのアバター(例えば、カスタマイズ可能なアバター)に対応し、異なるアバターオプションは第2のタイプのアバター(例えばカスタマイズ不可能なアバター)に対応する。 In some embodiments, if a different one of the plurality of avatar options is a null avatar option, the device (e.g., 600) stops displaying the representation of the avatar over the representation of the subject (e.g., The device ceases to replace the image data of the user's head with the virtual avatar). In some embodiments, if a different one of the plurality of avatar options is an avatar option for a different avatar character (including customizable or non-customizable avatar characters), the device Replace with a different avatar character (eg, the device replaces the representation of the avatar with a different representation of the avatar). In some embodiments, replacing the selected avatar character with a different avatar character includes displaying an animation of the different avatar character moving to the center of the screen. In some embodiments, replacing the selected avatar character with a different avatar character includes displaying an animation of the different avatar character moving on the user's head. In some embodiments, replacing the selected avatar character with a different avatar character includes blurring the background while the selected avatar is being replaced. Display an animation while the selected avatar character is/is being replaced by a different avatar character (e.g., a different avatar character moves to the center of the screen, a different avatar character moves to the user's head, etc.) (by blurring the background) to provide visual feedback that the avatar character is being changed. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the currently selected avatar option corresponds to a first type of avatar (e.g., a customizable avatar) and the different avatar option corresponds to a second type of avatar (e.g., a non-customizable avatar). ) corresponds to

一部の実施形態では、カメラ表示領域(例えば、820)内の選択されたアバターオプションの表示された表現の外観を、第1の外観から第2の外観に変更することは、選択されたアバターオプションの表現の、第1の外観を有する第1のバージョンを移動してディスプレイから外すことを含む。一部の実施形態では、カメラ表示領域内の選択されたアバターオプションの表示された表現の外観を、第1の外観から第2の外観に変更することは、選択されたアバターオプションの表現の、第2の外観を有する第2のバージョンをディスプレイの中心に実質的に移動することを含む。選択されたアバターオプションの表現の第1のバージョンを移動してディスプレイから外し、選択されたアバターオプションの表現の第2のバージョンをディスプレイの中心に実質的に移動させることにより、第1のバージョンが第2のバージョンに置換されているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, changing the appearance of the displayed representation of the selected avatar option in the camera display area (e.g., 820) from a first appearance to a second appearance includes including moving a first version of the optional representation having a first appearance off the display. In some embodiments, changing the appearance of the displayed representation of the selected avatar option in the camera display area from a first appearance to a second appearance includes: including substantially moving a second version having a second appearance to the center of the display. the first version by moving the first version of the representation of the selected avatar option out of the display and substantially moving the second version of the representation of the selected avatar option to the center of the display. Provide visual feedback that it has been replaced with the second version. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、選択されたアバターオプションの表示された表現の外観を、第1の外観から第2の外観に変更することは、選択されたアバターの表現の、第1の外観を有する第1のバージョンを移動してディスプレイから外すことを含む。一部の実施形態では、選択されたアバターオプションの表示された表現の外観を、第1の外観から第2の外観に変更することは、選択されたアバターオプションの表現の、第2の外観を有する第2のバージョンを、カメラ表示領域(例えば、820)内に表示された被写体の表現の実質的に位置に移動させることを含む。選択されたアバターオプションの表現の第1のバージョンを移動してディスプレイから外し、選択されたアバターオプションの表現の第2のバージョンをカメラ表示領域に表示された被写体の表現の位置に実質的な移動させることにより、第1のバージョンが第2のバージョンに置換されているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, changing the appearance of the displayed representation of the selected avatar option from a first appearance to a second appearance includes having the first appearance of the representation of the selected avatar. including moving the first version off display. In some embodiments, changing the appearance of the displayed representation of the selected avatar option from a first appearance to a second appearance includes changing the appearance of the displayed representation of the selected avatar option from a first appearance to a second appearance. the second version of the subject to substantially position the representation of the subject displayed within the camera viewing area (e.g., 820). moving a first version of the representation of the selected avatar option out of display and substantially moving a second version of the representation of the selected avatar option into the position of the representation of the subject displayed in the camera viewing area; provides visual feedback that the first version is being replaced by the second version. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、選択されたアバターオプションの表示された表現の外観を、第1の外観から第2の外観に変更することは、カメラ表示領域(例えば、820)に表示された背景の視覚的外観を変更する(例えば、背景をぼかす、背景の彩度を減じる)ことを含む。 In some embodiments, changing the appearance of the displayed representation of the selected avatar option from a first appearance to a second appearance may include changing the appearance of the displayed representation of the selected avatar option from a first appearance to a second appearance of the background displayed in the camera display area (e.g., 820). Including changing the visual appearance (e.g., blurring the background, desaturating the background).

カメラユーザインタフェース(908)はまた、第1のカメラ表示モード(例えば、ユーザの頭部の画像データを仮想アバターに置き換えるモード)に関連付けられた第1のアフォーダンス(例えば、仮想アバターに対応するアフォーダンス)を含む。 The camera user interface (908) also includes a first affordance (e.g., an affordance corresponding to a virtual avatar) associated with a first camera display mode (e.g., a mode that replaces image data of a user's head with a virtual avatar). including.

一部の実施形態では、カメラユーザインタフェース(例えば、815)は、ステッカー表示モード(例えば、ステッカーを画像データに適用することが可能なモード)に関連付けられたステッカーアフォーダンス(例えば、824-2、ステッカーの表示を有効化するための機能に対応するアフォーダンス)を更に含む。一部の実施形態では、カメラ表示領域(例えば、820)に画像データ(及び、任意選択的に、選択されたアバターオプションの表現)を表示している間に、電子デバイス(例えば、600)は、ステッカーアフォーダンスに向けられたジェスチャ(例えば、図8AH)を検出する。一部の実施形態では、ステッカーアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイスはステッカー表示モードをアクティブ化し、ステッカー表示モードをアクティブ化することは、複数のステッカーオプション(例えば、858のステッカー)を含むステッカー選択領域(例えば856)を表示することと、ステッカー選択領域内の複数のステッカーオプション(例えば、858-2のステッカー)のうちの1つの選択を検出することと、選択を検出したことに応じて、選択されたステッカーオプションの表現(例えば、858-2)をカメラ表示領域内の画像データ上に表示することと、を含む。一部の実施形態では、画像データ上に表示される選択されたステッカーオプションは、表示画面(例えば、601)上に配置された外観(例えば、デバイスの画面上に物理的ステッカーを配置するユーザの外観と同様な)を有し、移動したり、又は画像データに表されたオブジェクトと対話したりすることはない。一部の実施形態では、画像データ上に表示される選択されたステッカーオプションは、表示画面上に配置された外観(例えば、デバイスの画面上に物理的ステッカーを配置するユーザの外観と同様な)を有するが、画像データに表示されるオブジェクトの移動に基づいて移動する。例えば、ステッカーはディスプレイ上に配置されているように見え、画像データ(例えば、人物)に表されたオブジェクトと対話するが、ステッカーの動きは、x及びy軸に沿った動きに制限される。換言すれば、ステッカーは、デバイスの画面に適用されるように見えるが、画像データに表されたオブジェクトによって画面上を移動することができる(例えば、画像データ内の人物がステッカーに触れる、又は画面を横切ってステッカーをドラッグするように見える)。一部の実施形態では、画像データ上に表示される選択されたステッカーオプションは、画像データの一部を形成する対話型オブジェクトとして画像データ内に挿入される外観を有する。画像データの一部を形成する対話型オブジェクトとして画像データに挿入される外観を提供することによって、選択されたステッカーが画像内の対話型オブジェクトとして作用できるという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。そのような実施形態では、ステッカーは、画像データに表されるオブジェクトとの対話に基づいて移動するように見える。例えば、ステッカーは、オブジェクトが人の肩に座っているように見え得る。人が動くと、ステッカーは人の肩と共に動き、人の肩の上に座っているような外観を維持する。これには、x軸及びy軸に沿った移動、並びに、z軸に沿った移動を含む。 In some embodiments, the camera user interface (e.g., 815) displays a sticker affordance (e.g., 824-2, sticker and an affordance corresponding to a function for enabling the display of the information. In some embodiments, while displaying image data (and, optionally, a representation of the selected avatar option) in the camera display area (e.g. 820), the electronic device (e.g. 600) , detects a gesture directed at the sticker affordance (e.g., FIG. 8AH). In some embodiments, in response to detecting a gesture directed at the sticker affordance, the electronic device activates a sticker display mode, and activating the sticker display mode includes multiple sticker options (e.g., 858 displaying a sticker selection area (e.g., 856) containing a sticker of 858-2; responsive to the detection, displaying a representation of the selected sticker option (eg, 858-2) on the image data within the camera display area. In some embodiments, the selected sticker option displayed on the image data is a visual representation of the appearance placed on the display screen (e.g., 601) (e.g., by a user placing a physical sticker on the screen of the device). (similar in appearance) and does not move or interact with the objects represented in the image data. In some embodiments, the selected sticker option displayed on the image data has an appearance placed on the display screen (e.g., similar to the appearance of a user placing a physical sticker on the screen of a device). , but moves based on the movement of objects displayed in the image data. For example, a sticker appears to be placed on the display and interacts with an object represented in the image data (eg, a person), but movement of the sticker is limited to movement along the x and y axes. In other words, the sticker appears to be applied to the screen of the device, but can be moved across the screen by objects represented in the image data (e.g., a person in the image data touches the sticker or the screen ). In some embodiments, the selected sticker option displayed on the image data has the appearance of being inserted within the image data as an interactive object forming part of the image data. By providing an appearance that is inserted into the image data as an interactive object forming part of the image data, visual feedback is provided that the selected sticker can act as an interactive object within the image. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In such embodiments, the sticker appears to move based on interaction with the object represented in the image data. For example, a sticker may look like an object sitting on a person's shoulder. As the person moves, the sticker moves with the person's shoulders, maintaining the appearance of sitting on the person's shoulders. This includes movement along the x- and y-axes, as well as movement along the z-axis.

一部の実施形態では、カメラ表示領域(例えば、820)の画像データ上に、選択されたステッカーオプション(例えば、858-1、858-2、858-3、858-4、858-5、858-6)の表現を表示している間に、デバイス(例えば、600)は、1つ以上のカメラ(例えば、602)の視野内の被写体(例えば、832)の横方向の動きを検出する。1つ以上のカメラの視野内の被写体の横方向の動きを検出したことに応じて、デバイスは、1つ以上のカメラの視界内の被写体の動きに従って、(例えば、ステッカーの被写体との関係にかかわらず)選択されたステッカーオプションの表現を横方向に移動させる(例えば、図8AV~図8AYのヘルメットステッカー858-1を参照)。選択されたステッカーオプションの表現を、1つ以上のカメラの視野内の被写体の横方向の動きに従って横方向に移動させることによって、選択されたステッカーが画像内の対話型オブジェクトとして作用できるという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, a selected sticker option (e.g., 858-1, 858-2, 858-3, 858-4, 858-5, 858) is displayed on the image data in the camera display area (e.g., 820). -6), the device (eg, 600) detects lateral movement of a subject (eg, 832) within the field of view of one or more cameras (eg, 602). In response to detecting lateral movement of a subject within the field of view of the one or more cameras, the device may adjust the behavior of the sticker in relation to the subject according to the movement of the subject within the field of view of the one or more cameras. (see, eg, helmet sticker 858-1 in FIGS. 8AV-8AY). Visual feedback that the selected sticker can act as an interactive object within the image by moving the representation of the selected sticker option laterally following the lateral movement of the subject within the field of view of one or more cameras I will provide a. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、カメラ表示領域(例えば、820)の画像データ上に、選択されたステッカーオプション(例えば、858-1、858-2、858-3、858-4、858-5、858-6)の表現を表示している間に、デバイス(例えば、600)は、1つ以上のカメラ(例えば、602)の視野内の被写体(例えば、832)の回転(例えば、ディスプレイに垂直な軸に対する回転、例えば、頭部を回転させる被写体)を検出する。デバイスは、1つ以上のカメラの視野内の被写体の回転を検出したことに応じて、以下のステップのうちの1つ以上を実行する。選択されたステッカーオプションの表現が、被写体に対して第1の関係を有する(第1の関係で配置されていた)(例えば、ステッカーは、最初に(又は現在)被写体に対応するディスプレイ上の位置に配置されていた、例えば、ステッカーは、被写体の顔の表現上、又は他の指定された領域(例えば、ブラケット(例えば、890))上に配置されている)を有する(例えば、配置された)との判定に従って、デバイスは、選択されたステッカーオプションの表現を、被写体の回転の大きさ及び向きに従って回転させる(例えば、ステッカーが回転し、被写体の顔のピッチ及びヨーに追従するようにひねる)(例えば、図8BH~図8BMの眼鏡ステッカー858-4を参照)。選択されたステッカーオプションの表現が、被写体に対して第1の関係(例えば、ステッカーは、最初に(又は現在)被写体から離れたディスプレイ上の位置に配置されていた、例えば、ステッカーは、被写体の顔の表現又は他の指定された領域の外に置かれた)を有しない(例えば、配置されていなかった)との判定に従って、デバイスは、選択されたステッカーオプションの表現を、被写体の回転の大きさ及び向きに従って回転させることをやめる(例えば、図8BE~図8BNのヒトデステッカー858-5及び野球ステッカー858-6を参照)。選択されたステッカーオプションの表現が被写体と第1の関係を有するかどうかに基づいて、選択されたステッカーオプションの表現を選択的に回転させることによって、選択されたステッカーオプションの挙動についての視覚フィードバックを提供し、選択されたステッカーオプションが画像内の対話型オブジェクトとして機能できることを示す。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, a selected sticker option (e.g., 858-1, 858-2, 858-3, 858-4, 858-5, 858) is displayed on the image data in the camera display area (e.g., 820). -6), the device (e.g., 600) rotates (e.g., perpendicular to the display) the object (e.g., 832) within the field of view of one or more cameras (e.g., 602). Detect rotation about an axis (for example, a subject rotating its head). The device performs one or more of the following steps in response to detecting rotation of a subject within the field of view of one or more cameras. The representation of the selected sticker option has (was placed in) a first relationship to the subject (e.g., the sticker initially (or currently) has a position on the display that corresponds to the subject). For example, a sticker is placed on a representation of the subject's face, or on other designated areas (e.g., brackets (e.g., 890)). ), the device rotates the representation of the selected sticker option according to the magnitude and orientation of the subject's rotation (e.g., the sticker rotates and twists to follow the pitch and yaw of the subject's face). ) (see, for example, glasses sticker 858-4 in FIGS. 8BH-8BM). The representation of the selected sticker option has a first relationship to the subject (e.g., the sticker was initially (or currently) placed in a position on the display that is remote from the subject; Following a determination that the facial expression or other sticker option does not have (e.g., was not placed) (placed outside the designated area), the device changes the selected sticker option's expression to Stop rotating according to size and orientation (see, eg, starfish sticker 858-5 and baseball sticker 858-6 in FIGS. 8BE-8BN). providing visual feedback about the behavior of the selected sticker option by selectively rotating the representation of the selected sticker option based on whether the representation of the selected sticker option has a first relationship with the subject; to indicate that the selected sticker option can function as an interactive object within the image. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、カメラ表示領域(例えば、820)の画像データ上に、選択されたステッカーオプション(例えば、858-1、858-2、858-3、858-4、858-5、858-6)の表現を表示している間に、デバイス(例えば、600)は、1つ以上のカメラ(例えば、602)に向かう(又はカメラから離れる)被写体(例えば、832)の動きを検出する。デバイスは、1つ以上のカメラに向かう(又はカメラから離れる)被写体の動きを検出したことに応じて、以下の手順のうちの1つ以上を実行する。選択されたステッカーオプションの表現が、被写体に対して第1の関係(例えば、ステッカーは、最初に(又は現在)被写体に対応するディスプレイ上の位置に配置されていた、例えば、ステッカーは、被写体の顔の表現がカメラの視野内に存在した(例えば、検出された)ときに配置された)を有する(例えば、配置された)との判定に従って、デバイスは、1つ以上のカメラに向かう(又はカメラから離れる)被写体の動きの大きさに従って、選択されたステッカーオプションの表現を拡大する(又は縮小する)。例えば、ウサギステッカー858-2は、被写体の肩の表現がカメラに向かって移動することに応じて、図8AX及び8AYに示すように拡大する。別の例では、ヒトデステッカー858-5及び野球ステッカー858-6は、被写体が図8BJ~図8BKのカメラに向かって移動するにつれて拡大する。選択されたステッカーオプションの表現が、被写体に対して第1の関係(例えば、ステッカーは、最初に(又は現在)被写体から離れたディスプレイ上の位置に配置されていた。例えば、ステッカーは、被写体の顔の表現がカメラの視野内に存在しない(例えば、検出されない)ときに配置された)を有しない(例えば、配置されなかった)との判定に従って、デバイスは、1つ以上のカメラに向かう(又はカメラから離れる)被写体の動きの大きさに従って、選択されたステッカーオプションの表現を拡大することを停止する(例えば、図8AV~図8AYのヘルメットステッカー858-1及びハートステッカー858-3を参照)。選択されたステッカーオプションの表現が被写体と第1の関係を有するかどうかに基づいて、選択されたステッカーオプションの表現を選択的に拡大(又は縮小)させることによって、選択されたステッカーオプションの挙動についての視覚フィードバックを提供し、選択されたステッカーオプションが画像内の対話型オブジェクトとして機能できることを示す。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, a selected sticker option (e.g., 858-1, 858-2, 858-3, 858-4, 858-5, 858) is displayed on the image data in the camera display area (e.g., 820). -6), the device (e.g., 600) detects movement of a subject (e.g., 832) toward (or away from) one or more cameras (e.g., 602); . The device performs one or more of the following procedures in response to detecting movement of a subject toward (or away from) one or more cameras. The representation of the selected sticker option has a first relationship to the subject (e.g., the sticker was initially (or currently) placed in a position on the display that corresponds to the subject; The device directs the device toward one or more cameras (or Expand (or decrease) the representation of the selected sticker option according to the magnitude of the subject's movement (away from the camera). For example, rabbit sticker 858-2 expands as the representation of the subject's shoulder moves toward the camera, as shown in FIGS. 8AX and 8AY. In another example, starfish sticker 858-5 and baseball sticker 858-6 expand as the subject moves toward the camera in FIGS. 8BJ-8BK. The representation of the selected sticker option has a first relationship to the subject (e.g., the sticker was initially (or currently) placed in a position on the display away from the subject; In accordance with the determination that the facial expression does not have (e.g., was not placed) when the facial expression is not within the field of view of the camera (e.g., not detected), the device directs the device to one or more cameras ( or away from the camera) to stop enlarging the representation of the selected sticker option according to the magnitude of the subject's movement (see, for example, Helmet Sticker 858-1 and Heart Sticker 858-3 in Figures 8AV-8AY). . regarding the behavior of the selected sticker option by selectively expanding (or contracting) the representation of the selected sticker option based on whether the representation of the selected sticker option has a first relationship with the subject; provides visual feedback to indicate that the selected sticker option can function as an interactive object within the image. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

被写体がカメラ(例えば、602)の視野内に位置し、かつ、被写体及び背景(例えば、被写体以外のカメラの視野内のオブジェクト)の表現がカメラ表示領域(例えば、820)内に表示されている間に、電子デバイス(例えば、600)は、第1のアフォーダンスに向けられたジェスチャを検出する(910)。一部の実施形態では、電子デバイスは、被写体が視野内に位置していることを検出(例えば、認識)する。 The subject is located within the field of view of the camera (e.g., 602), and a representation of the subject and the background (e.g., an object within the field of view of the camera other than the subject) is displayed within the camera display area (e.g., 820). Meanwhile, the electronic device (eg, 600) detects (910) a gesture directed at the first affordance. In some embodiments, the electronic device detects (eg, recognizes) that a subject is located within the field of view.

一部の実施形態では、カメラユーザインタフェース(例えば、815)は、キャプチャアフォーダンスを表示している間に、カメラの視野のライブプレビューの表現(例えば、カメラの視野にあるものを表す画像データのストリーム)を含むカメラ表示領域(例えば、820)を更に含む。一部の実施形態では、被写体がカメラの視野内に位置し(例えば、電子デバイスは、被写体が視野に位置していることを検出/認識する)、被写体と背景の表現(例えば、被写体以外のカメラの視野内のオブジェクト)がカメラ表示領域に表示されている間に、電子デバイス(例えば、600)は、選択されたアバターの表現を、カメラ表示領域内の被写体の表現上に表示する(例えば、ユーザの表示された頭部又は顔の部分が、選択されたアバターに対応する仮想アバターの頭部に置換される(又は、それによって(不透明に、透明に、半透明に)重ね合わせられる)。一部の実施形態では、電子デバイスは、選択されたアバターの表現を、カメラ表示領域内の被写体の表現上に表示している間に、アバター選択領域を表示する要求を受信する。一部の実施形態では、アバター選択領域を表示する要求を受信したことに応じて、電子デバイスは、キャプチャアフォーダンスの表示を停止し、複数のアバターアフォーダンスを有するアバター選択領域(例えば、アバターメニュー828)を(例えば、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に)表示する。一部の実施形態では、アバター選択領域がもはや表示されていないことに応じて(又は、それと共に)、キャプチャアフォーダンスが表示される(例えば、再表示される)。 In some embodiments, the camera user interface (e.g., 815) provides a representation of a live preview of the camera's field of view (e.g., a stream of image data representing what is in the camera's field of view) while displaying the capture affordances. ) including a camera display area (eg, 820). In some embodiments, the subject is located within the field of view of the camera (e.g., the electronic device detects/recognizes that the subject is located in the field of view) and the representation of the subject and background (e.g., The electronic device (e.g., 600) displays a representation of the selected avatar over the representation of the subject in the camera display area (e.g. , the displayed head or facial part of the user is replaced by (or superimposed (opaquely, transparently, translucently) on) the head of a virtual avatar corresponding to the selected avatar. In some embodiments, the electronic device receives a request to display the avatar selection area while displaying a representation of the selected avatar over the representation of the subject in the camera display area. In the embodiment, in response to receiving the request to display the avatar selection area, the electronic device stops displaying the capture affordance and displays the avatar selection area (e.g., avatar menu 828) that has multiple avatar affordances (e.g., avatar menu 828). (e.g., at a location in the camera user interface previously occupied by the capture affordance). In some embodiments, in response to (or in conjunction with) the avatar selection area being no longer visible, the capture affordance The affordance is displayed (eg, redisplayed).

一部の実施形態では、カメラユーザインタフェース(例えば、815)は、キャプチャアフォーダンス(例えば、821)を表示している間に、カメラの視野のライブプレビューの表現(例えば、カメラの視野にあるものを表す画像データのストリーム)を含むカメラ表示領域(例えば、820)を更に含む。一部の実施形態では、被写体がカメラの視野内に位置し、かつ、被写体と背景の表現(例えば、被写体以外のカメラの視野内のオブジェクト)がカメラ表示領域に表示されている間に、電子デバイス(例えば、600)は、選択されたアバターの表現を、カメラ表示領域内の被写体の表現上に表示する(例えば、ユーザの表示された頭部又は顔の部分が、選択されたアバターに対応する仮想アバターの頭部に置換される(又は、それによって(不透明に、透明に、半透明に)重ね合わせられる)。一部の実施形態では、電子デバイスは、被写体が視野内に位置していることを検出(例えば、認識)する。一部の実施形態では、電子デバイスは、選択されたアバターの表現をカメラ表示領域内の被写体の表現上に表示している間に、被写体の姿勢(例えば、位置及び/又は向き)の変化を検出する。一部の実施形態では、姿勢の変化は、ユーザが頭部又は任意の顔の特徴を動かすときに検出される。一部の実施形態では、電子デバイスは、(例えば、方法900及び図9A~図9Bに関して説明したように)被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する。背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更することにより、ユーザは、アバターの動きが、ユーザの検出された動きに対応する、及び/又はそれに基づいていることを迅速かつ容易に認識することができる。追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the camera user interface (e.g., 815) provides a representation of a live preview of the camera's field of view (e.g., what is in the camera's field of view) while displaying the capture affordances (e.g., 821). A camera display area (e.g., 820) including a stream of image data representing the image data. In some embodiments, the electronic The device (e.g., 600) displays a representation of the selected avatar over the representation of the subject in the camera display area (e.g., the displayed head or facial portion of the user corresponds to the selected avatar). (or superimposed (opaquely, transparently, translucently)) on the head of a virtual avatar that In some embodiments, the electronic device detects (e.g., recognizes) that the subject is in a position while displaying a representation of the selected avatar over the representation of the subject in the camera display area. For example, a change in position and/or orientation) is detected. In some embodiments, a change in posture is detected when the user moves the head or any facial feature. In response to detecting a change in the subject's pose (e.g., as described with respect to method 900 and FIGS. 9A-9B), the electronic device changes the detected subject's pose while maintaining display of the background. Change the appearance of the displayed representation of the selected avatar option based on the change. Change the appearance of the displayed representation of the selected avatar option based on the detected change in the subject's pose while maintaining the background visibility. By changing the appearance of the representation, the user can quickly and easily recognize that the avatar's movements correspond to and/or are based on the user's detected movements. Additional control options The usability of the device is improved by providing a user-device interface (e.g. by assisting the user in providing appropriate input when operating/interacting with the device and reducing user errors). ) more efficient and, in addition, reduce device power usage and improve battery life by allowing users to use the device more quickly and efficiently.

第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、第1のカメラ表示モードをアクティブ化する。第1のカメラ表示モードをアクティブ化することは、アバター選択領域(例えば、829)を表示すること(914)を含む(例えば、複数のアバターオプションのうちの選択された1つ(例えば、カメラユーザインタフェース(例えば、815)のカメラ表示領域(例えば、820)内のユーザの頭部上に現れるように選択できる異なる仮想アバターを表すアフォーダンス)を含む)。 In response to detecting a gesture directed to the first affordance, the electronic device (eg, 600) activates a first camera display mode. Activating the first camera display mode includes displaying (914) an avatar selection area (e.g., 829) (e.g., a selected one of a plurality of avatar options (e.g., camera user (e.g., affordances representing different virtual avatars that can be selected to appear on the user's head in the camera display area (e.g., 820) of the interface (e.g., 815)).

一部の実施形態では、アバター選択領域(例えば、829)は、選択されたアバターオプションの表現を、カメラディスプレイ内の被写体の表現上に表示することを停止するためのオプションを更に含む。一部の実施形態では、電子デバイス(例えば、600)は、選択されたアバターオプションの表現を、カメラ表示領域内(例えば、820)の被写体の表現上に表示することを停止するためのオプションの選択に対応するユーザ入力を受信する。一部の実施形態では、選択されたアバターオプションの表現を、カメラ表示領域の被写体の表現上に表示することを停止するためのオプションの選択に対応するユーザ入力を受信したことに応じて、電子デバイスは、選択されたアバターオプションの表現をカメラ表示領域の被写体の表現上に表示することを停止する。 In some embodiments, the avatar selection area (eg, 829) further includes an option to stop displaying the representation of the selected avatar option on the representation of the subject in the camera display. In some embodiments, the electronic device (e.g., 600) provides an optional option to stop displaying the representation of the selected avatar option over the representation of the subject within the camera display area (e.g., 820). Receive user input corresponding to the selection. In some embodiments, in response to receiving user input corresponding to selection of an option to stop displaying the representation of the selected avatar option over the representation of the subject in the camera display area, the electronic The device stops displaying the representation of the selected avatar option over the representation of the subject in the camera display area.

一部の実施形態では、アバター選択領域(例えば、829)は、ヌルアバターオプション(例えば、830-2)を含む。ヌルアバターオプションが選択されると、アバターは、カメラ表示領域(例えば、820)内の被写体の表現上に表示されない(例えば、デバイスは、ユーザの頭部の画像データを仮想アバターに置換することをやめる)。一部の実施形態では、アバター選択領域は、「キャンセル」アフォーダンス(例えば、アバター選択領域の角に位置する「x」アイコン)を含む。キャンセルアフォーダンスが選択されると、デバイスは、アバター選択領域の表示を停止し、任意選択的に、被写体の表現上への任意の選択されたアバターの表示を停止する(例えば、デバイスは、ユーザの頭部の画像データを仮想アバターに置換するのをやめる)。 In some embodiments, the avatar selection area (eg, 829) includes a null avatar option (eg, 830-2). When the null avatar option is selected, the avatar is not displayed on the representation of the subject in the camera display area (e.g., 820) (e.g., the device is configured to replace image data of the user's head with a virtual avatar). stop). In some embodiments, the avatar selection area includes a "cancel" affordance (eg, an "x" icon located in a corner of the avatar selection area). When a cancel affordance is selected, the device stops displaying the avatar selection area and optionally stops displaying any selected avatars on the subject's representation (e.g., the device (Stop replacing head image data with virtual avatar).

一部の実施形態では、第1のカメラ表示モード(例えば、ユーザの頭部の画像データが仮想アバターに置換されるアバター表示モード)をアクティブ化することは、選択されたアバターオプションの表現をカメラ表示領域(例えば、820)内の被写体の表現上に表示する前に、選択されたアバターオプションの表現を被写体の表現上に表示することなく、被写体の表現をカメラ表示領域に表示すること(916)を、更に含む。一部の実施形態では、アバター表示モードに入った後、デバイスは、アバターなしで(例えば、デバイスはユーザーの頭部の画像データを仮想アバターに置換するのをやめる)被写体の表現を最初に表示する。一部の実施形態では、アバター表示モードに入るときに最初に選択されるアバターオプションは、ヌルアバターオプションに対応する。ヌルアバターオプションが選択されると、デバイスは、被写体の頭部の画像データを仮想アバターに置換することをやめる。 In some embodiments, activating a first camera display mode (e.g., an avatar display mode in which image data of a user's head is replaced with a virtual avatar) causes the camera to display a representation of the selected avatar option. Displaying the representation of the subject in the camera display area (916) without displaying the representation of the selected avatar option on the representation of the subject prior to displaying on the representation of the subject in the display area (e.g., 820). ). In some embodiments, after entering avatar display mode, the device initially displays a representation of the subject without the avatar (e.g., the device stops replacing image data of the user's head with a virtual avatar). do. In some embodiments, the avatar option initially selected upon entering avatar display mode corresponds to a null avatar option. When the null avatar option is selected, the device will stop replacing the image data of the subject's head with the virtual avatar.

第1のカメラ表示モードをアクティブ化することは、カメラ表示領域(例えば、820)内の被写体の表現上に、選択されたアバターオプションの表現を表示すること(918)を含む(例えば、ユーザの表示された頭部又は顔の部分が、選択されたアバターに対応する仮想アバターの頭部に置換される(又は、それによって(不透明に、透明に、半透明に)重ねら合わせられる)。選択されたアバターオプションの表現をカメラ表示領域内の被写体の表現上に表示することにより、ユーザは、選択されたアバターオプションが被写体の表現に関連することを迅速かつ容易に認識することができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、選択されたアバターオプションの表現を被写体の表現上に表示することは、電子デバイス(例えば、600)の1つ以上の深度カメラを使用して取得される深度情報を使用することを含む。 Activating the first camera display mode includes displaying (918) a representation of the selected avatar option over the representation of the subject in the camera display area (e.g., 820) (e.g., the user's The displayed head or face part is replaced by (or superimposed (opaquely, transparently, translucently) on) the head of a virtual avatar corresponding to the selected avatar. Selection By displaying a representation of the selected avatar option over the representation of the subject in the camera display area, the user can quickly and easily recognize that the selected avatar option is relevant to the representation of the subject. Improvements Device usability is improved by providing visual feedback to the user, which improves the user-device interface (e.g. assists the user in providing appropriate input when operating/interacting with the device, and improves user experience). In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In embodiments of the present invention, displaying the representation of the selected avatar option on the representation of the subject uses depth information obtained using one or more depth cameras of the electronic device (e.g., 600). including.

一部の実施形態では、第1のカメラ表示モードをアクティブ化することは、選択されたアバターオプションを、アバター選択領域(例えば、829)に静的外観(例えば、アバター外観がユーザの顔の検出された変化に基づいて変化しない)で表示することを更に含む。一部の実施形態では、第1のカメラ表示モードをアクティブにすることは、選択されたアバターオプションを、被写体の姿勢の検出された変化に基づいて変化する(例えば、アバターは、ユーザの顔の検出された変化を反映するように変化する)動的外観を有するように更新することを更に含む。一部の実施形態では、第1のカメラ表示モードをアクティブにすることは、アバター選択領域からカメラ表示領域(例えば、820)内の被写体の表現(例えば、ユーザの顔の表現)に移動する動的外観を有する、選択されたアバターのアニメーションを表示することを更に含む。一部の実施形態では、アバターは、アバター選択領域からカメラ表示領域内のユーザーの顔へのアニメーション移動中に、ユーザーの顔の変化を追跡し続ける。 In some embodiments, activating the first camera display mode adds the selected avatar option to the avatar selection area (e.g., 829) with a static appearance (e.g., when the avatar appearance is a detection of the user's face). the change based on the change made. In some embodiments, activating the first camera display mode changes the selected avatar option based on a detected change in the subject's pose (e.g., the avatar changes the position of the user's face). The method further includes updating to have a dynamic appearance (changing to reflect the detected change). In some embodiments, activating the first camera display mode may include moving from the avatar selection area to the representation of the subject (e.g., a representation of the user's face) within the camera display area (e.g., 820). The method further includes displaying an animation of the selected avatar having a virtual appearance. In some embodiments, the avatar continues to track changes in the user's face during animated movement from the avatar selection area to the user's face in the camera display area.

一部の実施形態では、選択されたアバターオプションを、被写体の姿勢の検出された変化に基づいて変化する動的外観を有するように更新することは、被写体の姿勢の検出された変化に基づいてアバターオプションの外観を変更する前に、静的外観を有するアバターオプションの姿勢に対応する(例えば、一致する)初期姿勢と共に、動的外観を有するアバターオプションを最初に表示することを含む。 In some embodiments, updating the selected avatar option to have a dynamic appearance that changes based on the detected change in the subject's pose includes updating the selected avatar option to have a dynamic appearance that changes based on the detected change in the subject's pose. The method includes first displaying the avatar option with a dynamic appearance with an initial pose that corresponds to (e.g., matches) the pose of the avatar option with a static appearance before changing the appearance of the avatar option.

第1のカメラ表示モードがアクティブである間に、電子デバイス(例えば、600)は、姿勢の変化(例えば、被写体の位置及び/又は向き)を検出する(920)。一部の実施形態では、姿勢の変化は、ユーザが頭部又は任意の顔の特徴を動かすときに検出される。 While the first camera display mode is active, the electronic device (e.g., 600) detects a change in pose (e.g., position and/or orientation of the subject) (920). In some embodiments, a change in posture is detected when the user moves his head or any facial feature.

被写体の姿勢の変化を検出したことに応じて、電子デバイス(例えば、600)は、背景(例えば、836)の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する(922)(例えば、ユーザ上に表示された仮想アバターは、背景をなおも表示しながら、ユーザの頭部及び顔の変化が表示された仮想アバターの変化に影響を及ぼすように、ユーザの頭部及び顔の検出された変化に応答する)。背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更することにより、ユーザは、アバターの動きが、ユーザの検出された動きに対応する、及び/又はそれに基づいていることを迅速かつ容易に認識することができる。追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、カメラユーザインタフェースは、図6A~図6BQ及び図9A~図9Bに示す実施形態に関して説明したカメラユーザインタフェースの1つ以上の特徴/機能を含む。例えば、カメラユーザインタフェース(例えば、815)は、エフェクトモードアフォーダンス(例えば、622)を含むことができる。 In response to detecting a change in the subject's pose, the electronic device (e.g., 600) selects a selected object based on the detected change in the subject's pose while maintaining display of the background (e.g., 836). Modifying (922) the appearance of the displayed representation of avatar options (e.g., the virtual avatar displayed on the user is changed to a virtual avatar with changes to the user's head and face displayed while still displaying the background) (in response to detected changes in the user's head and face to affect changes in the user's head and face). By changing the appearance of the displayed representation of the selected avatar option based on detected changes in the subject's pose while preserving the background visibility, the user can change the appearance of the avatar's movement based on the user's detected changes. It is possible to quickly and easily recognize that the movement corresponds to and/or is based on a certain movement. The usability of the device is improved by providing additional control options, and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, reducing user error). In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the camera user interface includes one or more of the camera user interface features/functions described with respect to the embodiments shown in FIGS. 6A-6BQ and 9A-9B. For example, a camera user interface (eg, 815) can include an effect mode affordance (eg, 622).

一部の実施形態では、電子デバイス(例えば、600)は、アバター選択領域(例えば、829)上の水平スワイプジェスチャを検出する。一部の実施形態では、水平スワイプジェスチャを検出したことに応じて、電子デバイスは、複数のアバターオプションに新規アバターオプションを追加するための機能に関連付けられたアバター作成アフォーダンスを表示する。水平スワイプジェスチャを検出したことに応じて、複数のアバターオプションに新規アバターオプションを追加するための機能に関連付けられたアバター作成アフォーダンスを表示することにより、ユーザは、アバター選択領域からアバター作成アフォーダンスに迅速かつ容易にアクセスすることができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、アバター選択領域上の水平スワイプジェスチャが、表示されたアバターオプションをスクロールしてアバター作成アフォーダンスを明らかにする。一部の実施形態では、アバター作成アフォーダンスを選択して、新規アバターを作成することができる。新規アバターが作成されると、作成されたアバターを表す新規アバターオプションが、アバター選択領域内の複数のアバターオプション(例えば、830)に追加される。 In some embodiments, the electronic device (eg, 600) detects a horizontal swipe gesture over the avatar selection area (eg, 829). In some embodiments, in response to detecting the horizontal swipe gesture, the electronic device displays an avatar creation affordance associated with the ability to add a new avatar option to the plurality of avatar options. In response to detecting a horizontal swipe gesture, the user can quickly access the avatar creation affordance from the avatar selection area by displaying the avatar creation affordance associated with the ability to add a new avatar option to multiple avatar options. and easily accessible. Improves device usability by providing additional control options without cluttering the user interface with additional visible controls, and improves the user device interface (e.g. by providing appropriate input when operating/interacting with the device). (by assisting users to provide better performance and reducing user errors), as well as reducing device power usage by allowing users to use their devices more quickly and efficiently. and improve battery life. In some embodiments, a horizontal swipe gesture over the avatar selection area scrolls through the displayed avatar options to reveal avatar creation affordances. In some embodiments, an avatar creation affordance can be selected to create a new avatar. When a new avatar is created, a new avatar option representing the created avatar is added to the plurality of avatar options (eg, 830) in the avatar selection area.

一部の実施形態では、第1のカメラ表示モードがアクティブである間に、電子デバイス(例えば、600)は、アバター選択領域(例えば、829)上のスワイプジェスチャを検出する。一部の実施形態では、アバター選択領域上のスワイプジェスチャを検出したことに応じて、電子デバイスは、カメラ表示領域(例えば、820)内の選択されたアバターオプションの表示された表現の外観を、第1の外観(例えば、現在選択されているアバターオプションに基づく外観)から、第2の外観(例えば、異なるアバターオプション(例えば、ヌルアバターオプション、又は異なるタイプ(例えば、カスタマイズ可能な、カスタマイズ不可能な)のアバターを含む、異なるアバターに対応するアバターオプション)基づく外観)に変更し、第2の外観は、複数のアバターオプションのうちの異なる1つ(例えば、アバター選択領域に含まれる異なるアバターオプション)に対応する。アバター選択領域上のスワイプジェスチャを検出したことに応じて、選択されたアバターオプションの表示された表現の外観を変更することにより、ユーザは、選択されたアバターオプションの外観を迅速かつ容易に変更することができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、複数のアバターオプションのうちの異なる一つがヌルアバターオプション(例えば、830-2)である場合、デバイスは、アバターの表現を被写体の表現上に表示することを停止する(例えば、デバイスは、ユーザの頭部の画像データを仮想アバターに置換することをやめる)。一部の実施形態では、複数のアバターオプションのうちの異なる1つが、異なるアバターキャラクタ(カスタマイズ可能又はカスタマイズ不可能なアバターキャラクタを含む)のアバターオプションである場合、デバイスは、選択されたアバターキャラクタを異なるアバターキャラクタに置換する(例えば、デバイスは、アバターの表現を異なるアバターの表現に置換する)。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、画面の中心に移動する異なるアバターキャラクターのアニメーションを表示することを含む。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、ユーザの頭部に移動する異なるアバターキャラクターのアニメーションを表示することを含む。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、選択されたアバターが置換されている間に背景(例えば、836)をぼかすことを含む。一部の実施形態では、現在選択されているアバターオプションは第1のタイプのアバター(例えば、カスタマイズ可能なアバター)に対応し、異なるアバターオプションは第2のタイプのアバター(例えばカスタマイズ不可能なアバター)に対応する。 In some embodiments, while the first camera display mode is active, the electronic device (eg, 600) detects a swipe gesture on the avatar selection area (eg, 829). In some embodiments, in response to detecting a swipe gesture on the avatar selection area, the electronic device changes the appearance of the displayed representation of the selected avatar option within the camera display area (e.g., 820). From a first appearance (e.g., an appearance based on the currently selected avatar option) to a second appearance (e.g., a different avatar option (e.g., a null avatar option), or a different type (e.g., customizable, non-customizable). avatar options corresponding to different avatars, including avatars in the avatar selection area), and the second appearance is based on a different one of the plurality of avatar options (e.g., a different avatar option included in the avatar selection area). ) corresponds to Users can quickly and easily change the appearance of a selected avatar option by changing the appearance of the displayed representation of the selected avatar option in response to detecting a swipe gesture on the avatar selection area be able to. Improves device usability by providing additional control options without cluttering the user interface with additional visible controls, and improves the user device interface (e.g. by providing appropriate input when operating/interacting with the device). (by assisting users to provide better performance and reducing user errors), as well as reducing device power usage by allowing users to use their devices more quickly and efficiently. and improve battery life. In some embodiments, if a different one of the plurality of avatar options is a null avatar option (e.g., 830-2), the device stops displaying the representation of the avatar over the representation of the subject ( For example, the device ceases to replace image data of the user's head with a virtual avatar). In some embodiments, if a different one of the plurality of avatar options is an avatar option for a different avatar character (including customizable or non-customizable avatar characters), the device Replace with a different avatar character (eg, the device replaces the representation of the avatar with a different representation of the avatar). In some embodiments, replacing the selected avatar character with a different avatar character includes displaying an animation of the different avatar character moving to the center of the screen. In some embodiments, replacing the selected avatar character with a different avatar character includes displaying an animation of the different avatar character moving on the user's head. In some embodiments, replacing the selected avatar character with a different avatar character includes blurring the background (eg, 836) while the selected avatar is being replaced. In some embodiments, the currently selected avatar option corresponds to a first type of avatar (e.g., a customizable avatar) and the different avatar option corresponds to a second type of avatar (e.g., a non-customizable avatar). ) corresponds to

一部の実施形態では、第1のカメラ表示モードがアクティブである間に、被写体がカメラの視野内にもはや位置していない(例えば、顔の追跡が失われた)との判定に応じて、電子デバイス(例えば、600)は、カメラ表示領域(例えば、820)内の中心位置に移動する選択されたアバターオプションの表現のアニメーションを表示する。被写体がもはやカメラの視野内に位置していないという判定に応じて、カメラ表示領域の中心位置に移動する選択されたアバターオプションの表現のアニメーションを表示することにより、ユーザがもはやカメラによって検出されていないという視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ユーザがカメラの視野内でもはや検出されなくなると、アバターはカメラ表示領域の中心に移動する。一部の実施形態では、ユーザがカメラの視野内でもはや検出されなくなると、背景はぼやける。 In some embodiments, while the first camera display mode is active, in response to determining that the subject is no longer within the field of view of the camera (e.g., facial tracking is lost), The electronic device (eg, 600) displays an animation of a representation of the selected avatar option moving to a central position within the camera display area (eg, 820). In response to a determination that the subject is no longer located within the field of view of the camera, the user is no longer detected by the camera by displaying an animation of the representation of the selected avatar option moving to the central position of the camera viewing area. Provide visual feedback to the user that the By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the avatar moves to the center of the camera display area when the user is no longer detected within the field of view of the camera. In some embodiments, the background becomes blurred when the user is no longer detected within the field of view of the camera.

一部の実施形態では、第1のカメラ表示モードがアクティブである間に、被写体がカメラの視野内にもはや位置していない(例えば、顔の追跡が失われた)との判定に応じて、電子デバイス(例えば、600)は、カメラ表示領域(例えば、820)に表示された背景(例えば、836)の視覚的外観を変更する(例えば、背景をぼかす、背景の彩度を減じる)。 In some embodiments, while the first camera display mode is active, in response to determining that the subject is no longer within the field of view of the camera (e.g., facial tracking is lost), The electronic device (eg, 600) changes the visual appearance of the background (eg, 836) displayed in the camera display area (eg, 820) (eg, blurs the background, desaturates the background).

一部の実施形態では、第1のカメラ表示モードがアクティブであり、選択されたアバターオプションの表現(例えば、アバター選択領域から選択されたカスタマイズ可能なアバターオプションの表現)が、カメラ表示領域(例えば、820)内の被写体の表示上に表示されている(例えば、ユーザの頭部の画像データがカスタマイズ可能なアバターに置換されている)間に、電子デバイス(例えば、600)は、アバター選択領域(例えば、829)内の選択されたアバターオプション上のタッチジェスチャ(例えば、タップジェスチャ)を検出する。一部の実施形態では、タッチジェスチャを検出したことに応じて、電子デバイスは、選択されたアバターオプションを編集するために複数のオプション(例えば、カスタマイズ可能なアバターの様々な特徴を変更するために選択可能な編集アフォーダンス)を有するアバター編集ユーザインタフェース(例えば、選択されたアバターオプション(例えば、選択されたカスタマイズ可能なアバター)の1つ以上の特徴を編集するためのユーザーインターフェース)を表示する。アバター選択領域内の選択されたアバターオプション上のタッチジェスチャを検出したことに応じてアバター編集ユーザインタフェースを表示することにより、ユーザは、アバター編集ユーザインタフェースに迅速かつ容易にアクセスしてアバターを編集することができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the first camera display mode is active and the representation of the selected avatar option (e.g., the representation of the customizable avatar option selected from the avatar selection area) is in the camera display area (e.g. , 820) (e.g., image data of the user's head is replaced with a customizable avatar), the electronic device (e.g., 600) selects the avatar selection area. Detecting a touch gesture (e.g., a tap gesture) on the selected avatar option within (e.g., 829). In some embodiments, in response to detecting the touch gesture, the electronic device provides multiple options to edit the selected avatar option (e.g., to change various characteristics of the customizable avatar). displaying an avatar editing user interface (e.g., a user interface for editing one or more characteristics of a selected avatar option (e.g., a selected customizable avatar)) having selectable editing affordances; Displaying the avatar editing user interface in response to detecting a touch gesture on the selected avatar option within the avatar selection area allows the user to quickly and easily access the avatar editing user interface to edit the avatar. be able to. Improves device usability by providing additional control options without cluttering the user interface with additional visible controls, and improves the user device interface (e.g. by providing appropriate input when operating/interacting with the device). (by assisting users to provide better performance and reducing user errors), as well as reducing device power usage by allowing users to use their devices more quickly and efficiently. and improve battery life.

一部の実施形態では、カメラユーザインタフェース(例えば、815)は、第2のカメラ表示モード(例えば、仮想エフェクト(例えば、ステッカー)が画像データに適用されるモード)に関連付けられた第2のアフォーダンス(例えば、824-2、ステッカーを表示するための機能に対応するアフォーダンス)を更に含む。一部の実施形態では、被写体がカメラ(例えば、602)の視野内に位置し、かつ、被写体の表現及び背景(例えば、836)がカメラ表示領域(例えば、820)内に表示されている間に、電子デバイス(例えば、600)は、第2のアフォーダンスに向けられたジェスチャを検出する。一部の実施形態では、第2のアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイスは、第2のカメラ表示モードをアクティブ化し、第2のカメラ表示モードをアクティブ化することは、複数のグラフィカルオブジェクト(例えば、ステッカー)を含むビジュアルエフェクト選択領域を表示することを含む。 In some embodiments, the camera user interface (e.g., 815) has a second affordance associated with a second camera display mode (e.g., a mode in which virtual effects (e.g., stickers) are applied to the image data). (eg, 824-2, an affordance corresponding to a function for displaying a sticker). In some embodiments, while the subject is located within the field of view of the camera (e.g., 602) and the representation of the subject and the background (e.g., 836) are displayed within the camera display area (e.g., 820). , the electronic device (eg, 600) detects a gesture directed to the second affordance. In some embodiments, in response to detecting the gesture directed to the second affordance, the electronic device activates the second camera display mode, and is configured to activate the second camera display mode. , including displaying a visual effects selection area that includes a plurality of graphical objects (eg, stickers).

一部の実施形態では、電子デバイス(例えば、600)は、第2のカメラ表示モードがアクティブである間に、ビジュアルエフェクト選択領域(例えば、824)内の複数のグラフィカルオブジェクト(例えば、ステッカー)のうちの1つの選択を検出する。一部の実施形態では、選択を検出したことに応じて、電子デバイスは、選択されたグラフィカルオブジェクトの表現をカメラ表示領域(例えば、820)内に表示する。一部の実施形態では、選択されたステッカーは、ライブカメラプレビュー(例えば、820-1)中にカメラ表示領域に表示される。一部の実施形態では、ライブカメラプレビューにステッカーを表示することは、カメラ表示領域のデフォルト位置(例えば、画面の中心)にステッカーを直ちに表示することを含む。一部の実施形態では、ライブカメラプレビューにステッカーを表示することは、ビジュアルエフェクト選択領域からカメラ表示領域上の位置に移動するステッカーのアニメーションを表示することを含む。一部の実施形態では、このアニメーションは、ステッカーのユーザ選択のドラッグジェスチャ(例えば、ユーザがステッカーにタッチして、それをカメラ表示領域上の位置にドラッグするジェスチャ)に基づいて決定される。 In some embodiments, the electronic device (e.g., 600) displays a plurality of graphical objects (e.g., stickers) within the visual effects selection area (e.g., 824) while the second camera display mode is active. Detect the selection of one of them. In some embodiments, in response to detecting the selection, the electronic device displays a representation of the selected graphical object within the camera display area (eg, 820). In some embodiments, the selected sticker is displayed in the camera display area during a live camera preview (eg, 820-1). In some embodiments, displaying the sticker in the live camera preview includes immediately displaying the sticker in a default location of the camera display area (eg, in the center of the screen). In some embodiments, displaying the sticker in the live camera preview includes displaying an animation of the sticker moving from the visual effects selection area to a position on the camera display area. In some embodiments, this animation is determined based on a user-selected drag gesture of the sticker (eg, a gesture in which the user touches the sticker and drags it to a position on the camera display area).

一部の実施形態では、カメラ(例えば、602)を介してキャプチャされた画像データの表現は、メディアアイテム(例えば、820-2、静止画像又は記録されたビデオ)である。一部の実施形態では、カメラユーザインタフェース(例えば、815)は、第3のカメラ表示モード(例えば、仮想エフェクト(例えば、ステッカー)が写真や録画されたビデオに適用されるモード)に関連付けられた第3のアフォーダンス(例えば、ステッカーを表示するための機能に対応するアフォーダンス)を更に含む。一部の実施形態では、電子デバイス(例えば、600)は、第3のアフォーダンスに向けられたジェスチャを検出する。一部の実施形態では、第3のアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイスは、第3のカメラ表示モードをアクティブ化し、第3のカメラ表示モードをアクティブ化することは、複数のグラフィカルオブジェクト(例えば、ステッカー)を含むビジュアルエフェクト選択領域を表示することを含む。 In some embodiments, the representation of image data captured via a camera (eg, 602) is a media item (eg, 820-2, a still image or recorded video). In some embodiments, the camera user interface (e.g., 815) is associated with a third camera display mode (e.g., a mode in which virtual effects (e.g., stickers) are applied to photos or recorded videos). It further includes a third affordance (eg, an affordance corresponding to a function for displaying a sticker). In some embodiments, the electronic device (eg, 600) detects a gesture directed to the third affordance. In some embodiments, in response to detecting the gesture directed to the third affordance, the electronic device activates the third camera display mode, and is configured to activate the third camera display mode. , including displaying a visual effects selection area that includes a plurality of graphical objects (eg, stickers).

一部の実施形態では、電子デバイス(例えば、600)は、第3のカメラ表示モードがアクティブである間に、ビジュアルエフェクト選択領域内の複数のグラフィカルオブジェクト(例えば、ステッカー)のうちの1つの選択を検出する。一部の実施形態では、電子デバイスは、選択を検出したことに応じて、選択されたグラフィカルオブジェクトの表現を、カメラ表示領域(例えば、820)のメディアアイテム(例えば、820-2)上に表示する。一部の実施形態では、選択されたステッカーは、写真又は記録されたビデオを見るときにカメラ表示領域に表示される。一部の実施形態では、写真又は記録されたビデオ上にステッカーを表示することは、カメラ表示領域のデフォルト位置(例えば、画面の中心)にステッカーを直ちに表示することを含む。一部の実施形態では、写真又は記録されたビデオ上にステッカーを表示することは、ビジュアルエフェクト選択領域からカメラ表示領域上の位置に移動するステッカーのアニメーションを表示することを含む。一部の実施形態では、このアニメーションは、ステッカーのユーザ選択のドラッグジェスチャ(例えば、ユーザがステッカーにタッチして、それをカメラ表示領域上の位置にドラッグするジェスチャ)に基づいて決定される。 In some embodiments, the electronic device (e.g., 600) selects one of the plurality of graphical objects (e.g., stickers) within the visual effects selection area while the third camera display mode is active. Detect. In some embodiments, the electronic device displays a representation of the selected graphical object on the media item (e.g., 820-2) in the camera display area (e.g., 820) in response to detecting the selection. do. In some embodiments, the selected sticker is displayed in the camera display area when viewing a photo or recorded video. In some embodiments, displaying the sticker on the photo or recorded video includes immediately displaying the sticker in a default location of the camera display area (eg, in the center of the screen). In some embodiments, displaying the sticker on the photo or recorded video includes displaying an animation of the sticker moving from the visual effects selection area to a position on the camera display area. In some embodiments, this animation is determined based on a user-selected drag gesture of the sticker (eg, a gesture in which the user touches the sticker and drags it to a position on the camera display area).

方法900に関して上述された処理(例えば、図9A及び図9B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法900に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、メッセージングアプリケーションユーザインタフェースにおいて画像データに表示される。別の例では、方法1100は、方法900に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、メディアユーザインタフェースにおいて画像データに表示される。別の例では、方法1300は、方法900に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターのようなビジュアルエフェクトが、ライブビデオ通信セッションのためのユーザインタフェースにおいて画像データに表示される。別の例では、方法1500は、方法900に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラユーザインタフェースに対して画像データに表示される。簡潔にするために、これらの詳細は、以下では繰り返さない。 Note that the processing details described above with respect to method 900 (eg, FIGS. 9A and 9B) are also applicable in a similar manner to the methods described above and below. For example, method 700 optionally includes one or more of the various method characteristics described above with respect to method 900. For example, visual effects such as stickers and virtual avatars are displayed on image data in a messaging application user interface. In another example, method 1100 optionally includes one or more of the various method characteristics described above with respect to method 900. For example, visual effects such as stickers and virtual avatars are displayed on the image data in the media user interface. In another example, method 1300 optionally includes one or more of the various method characteristics described above with respect to method 900. For example, visual effects such as stickers and virtual avatars are displayed on image data in a user interface for a live video communication session. In another example, method 1500 optionally includes one or more of the various method characteristics described above with respect to method 900. For example, visual effects such as stickers and virtual avatars are displayed on the image data to the camera user interface. For the sake of brevity, these details are not repeated below.

図10A~図10ALは、一部の実施形態に係る、メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図11A~図11Bにおける処理を含む、以下で説明される処理を例示するために使用される。 10A-10AL illustrate example user interfaces for displaying visual effects in media item viewing mode, according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 11A-11B.

図10Aにおいて、デバイス600は、ホーム画面1000を示し、メディアビューアアプリケーションアフォーダンス1002上の入力1001を検出する。 In FIG. 10A, device 600 shows home screen 1000 and detects input 1001 on media viewer application affordance 1002. In FIG.

図10Bでは、入力1001の検出に応じて、デバイス600は、メディアビューアアプリケーションアフォーダンス1002に関連付けられたメディアビューアプリケーションを起動し、メディアユーザインタフェース1005を表示する。メディアユーザインタフェース1005は、記憶メディアアイテム1006のうちの選択された1つに対応するメディアアイテムを表示するための、一連の記憶メディアアイテム1006及びメディア表示領域1008を含む。図10Bにおいて、メディア表示領域1008は、選択された記憶メディアアイテム1006-1に対応するメディアアイテム1010を示す。 In FIG. 10B, in response to detecting input 1001, device 600 launches a media viewing application associated with media viewer application affordance 1002 and displays media user interface 1005. Media user interface 1005 includes a series of stored media items 1006 and a media display area 1008 for displaying a media item corresponding to a selected one of stored media items 1006. In FIG. 10B, media display area 1008 shows media item 1010 that corresponds to selected storage media item 1006-1.

メディアアイテム1010は、符号化された深度データを含まない(例えば、キャプチャされたメディアアイテム内に深度データを符号化しないカメラ(例えば、カメラ602以外のカメラなど)によってキャプチャされた)画像である。これにより、メディアアイテム1010は、本明細書で説明するように、画像で特定のビジュアルエフェクトを可能にするために使用される深度データを含まない。 Media item 1010 is an image that does not include encoded depth data (eg, captured by a camera (eg, a camera other than camera 602) that does not encode depth data in the captured media item). Thus, media item 1010 does not include depth data that is used to enable certain visual effects on images, as described herein.

図10Cでは、デバイス600は、編集アフォーダンス1012上の入力1011を検出する。これに応じて、図10Dで、デバイス600は、編集オプション表示領域1014を表示する。編集オプション表示領域には、エフェクトアフォーダンス1016(エフェクトアフォーダンス622、822と同様)、メディア編集アフォーダンス1018、及びマークアップアフォーダンス1020を含む。 In FIG. 10C, device 600 detects input 1011 on editing affordance 1012. In response, in FIG. 10D, device 600 displays edit option display area 1014. The editing options display area includes an effect affordance 1016 (similar to effect affordances 622, 822), a media editing affordance 1018, and a markup affordance 1020.

図10Eでは、デバイス600は、エフェクトアフォーダンス1016上の入力1021を検出し、表示されたメディアアイテム(例えば、メディアアイテム1010)に関連付けられた任意のビジュアルエフェクトが表示されるビジュアルエフェクトモードを有効化する。図10Eに示す実施形態では、メディアアイテム1010はビジュアルエフェクトを含まず、特に、メディアアイテム1010が深度データを含まないので、画像1010は深度ベースのビジュアルエフェクトを含まない。 In FIG. 10E, device 600 detects input 1021 on effects affordance 1016 and enables visual effects mode in which any visual effects associated with the displayed media item (e.g., media item 1010) are displayed. . In the embodiment shown in FIG. 10E, media item 1010 does not include visual effects, and in particular, image 1010 does not include depth-based visual effects because media item 1010 does not include depth data.

図10Fでは、エフェクトアフォーダンス1016をアクティブ化する入力1021を検出したことに応じて、デバイス600は、エフェクトアフォーダンス1016を強調表示し、編集オプション表示領域1014を拡大してエフェクトオプションアフォーダンス1024を表示する。図10Fに示す実施形態では、メディアアイテム1010はビジュアルエフェクトを可能にする深度データを含まないので、アバターエフェクトアフォーダンス1024-1及びステッカーエフェクトアフォーダンス1024-2は選択不可能として示されているのに対して、残りのビジュアルエフェクトオプションアフォーダンス1024-3、1024-4、及び1024-5は選択可能である。一部の実施形態では、メディアアイテムがビジュアルエフェクトを可能化する深度データを含まない場合、アバターエフェクトアフォーダンス1024-1及びステッカーエフェクトアフォーダンス1024-2は表示されない。 In FIG. 10F, in response to detecting an input 1021 that activates effect affordance 1016, device 600 highlights effect affordance 1016 and expands edit option display area 1014 to display effect option affordance 1024. In the embodiment shown in FIG. 10F, avatar effect affordance 1024-1 and sticker effect affordance 1024-2 are shown as non-selectable because media item 1010 does not include depth data to enable visual effects. The remaining visual effects option affordances 1024-3, 1024-4, and 1024-5 are then selectable. In some embodiments, avatar effect affordances 1024-1 and sticker effect affordances 1024-2 are not displayed if the media item does not include depth data that enables visual effects.

メディアアイテム1010は深度ベースのビジュアルエフェクトを可能化するための深度データを含まないので、エフェクトアフォーダンス1016が選択されても、深度ベースのビジュアルエフェクトはメディアアイテム1010に表示されない。これにより、メディアアイテム1010は、図10Fでは変更されないままである。 Because media item 1010 does not include depth data to enable depth-based visual effects, depth-based visual effects are not displayed in media item 1010 even if effect affordance 1016 is selected. This leaves media item 1010 unchanged in Figure 10F.

図10Gでは、デバイス600は、取消アフォーダンス1026上の入力1025を検出し、図10Hに示すユーザインタフェースに戻る。 In FIG. 10G, device 600 detects input 1025 on cancellation affordance 1026 and returns to the user interface shown in FIG. 10H.

図10Hでは、デバイス600は、記憶されたメディアアイテム1006-2上の入力1027を検出し、記憶されたメディアアイテム1006-2を選択する。 In FIG. 10H, device 600 detects input 1027 on stored media item 1006-2 and selects stored media item 1006-2.

図10Iでは、デバイス600は、メディアアイテム1028をメディア表示領域1008に表示する。メディアアイテム1028は、被写体1032及び背景1036を示す選択された記憶メディアアイテム1006-2に対応する。メディアアイテム1028は、キャプチャされたメディアアイテム内に深度データを符号化するカメラ(例えば、カメラ602)によってキャプチャされた画像である。本明細書で説明するように、メディアアイテム内に符号化された深度データは、ビジュアルエフェクト、特に深度成分を有するビジュアルエフェクトを表示することを可能にする。 In FIG. 10I, device 600 displays media item 1028 in media display area 1008. Media item 1028 corresponds to selected storage media item 1006-2 showing subject 1032 and background 1036. Media item 1028 is an image captured by a camera (eg, camera 602) that encodes depth data within the captured media item. As described herein, depth data encoded within a media item allows visual effects to be displayed, particularly visual effects that have a depth component.

図10Iでは、エフェクトモードがメディアアイテム1028に対して有効化されていないため、ビジュアルエフェクトはメディアアイテム1028に表示されない。しかしながら、デバイス600は、エフェクトアイコン1029を表示して、メディアアイテム1028が深度データを含み、ビジュアルエフェクトを表示することができることを示す。 In FIG. 10I, no visual effects are displayed on media item 1028 because effects mode is not enabled for media item 1028. However, device 600 displays effects icon 1029 to indicate that media item 1028 includes depth data and can display visual effects.

図10Jでは、デバイスは、編集アフォーダンス1012上の入力1030を検出し、図10Kでは、強調表示されていない状態のエフェクトアフォーダンス1016を示すオプション表示領域1014を編集して、ビジュアルエフェクトがメディアアイテム1028の表示を有効化できないことを示す。 In FIG. 10J, the device detects input 1030 on edit affordance 1012 and in FIG. Indicates that the display cannot be enabled.

図10Lでは、デバイス600は、ビジュアルエフェクトモードを有効化するエフェクトアフォーダンス1016上の入力1033を検出する。図10Mに示すように、ビジュアルエフェクトモードが有効化されると、デバイス600は、エフェクトアフォーダンス1016を強調表示し、編集オプション表示領域1014を拡大してエフェクトオプションアフォーダンス1024を表示する。図10Mに示す実施形態では、メディアアイテム1028は深度ベースのビジュアルエフェクトを有効化する深度データを含むので、アバターエフェクトアフォーダンス1024-1及びステッカーエフェクトアフォーダンス1024-2が選択可能として示され、ビジュアルエフェクトがメディアアイテム1028に表示される。図10Mに示す実施形態では、表示されたビジュアルエフェクトは、カスタマイズ可能なアバター1037、被写体の首部上のアバター1037の下方に表示される影1038、ヘルメットステッカー1039、及びウサギステッカー1040を含む。 In FIG. 10L, device 600 detects input 1033 on effects affordance 1016 that enables visual effects mode. As shown in FIG. 10M, when the visual effects mode is enabled, the device 600 highlights the effect affordance 1016 and expands the edit option display area 1014 to display the effect option affordance 1024. In the embodiment shown in FIG. 10M, the avatar effect affordance 1024-1 and the sticker effect affordance 1024-2 are shown as selectable because the media item 1028 includes depth data that enables a depth-based visual effect, so that the visual effect is Displayed in media item 1028. In the embodiment shown in FIG. 10M, the displayed visual effects include a customizable avatar 1037, a shadow 1038 displayed below the avatar 1037 on the subject's neck, a helmet sticker 1039, and a bunny sticker 1040.

一部の実施形態では、デバイス600は、メディアアイテム1028の深度データに符号化された、カメラ602の視野内に位置するユーザの顔の検出された変化に基づいてアバター1037を変更する。このように、メディアアイテム1028はこの実施形態では静止画像として説明されているが、メディアアイテム1028は静止画像に限定されず、深度データを有する録画ビデオを含む録画ビデオなどの他のメディアアイテムを含むことができることを理解されるべきである。同様に、デバイス600は、深度データに符号化されたメディアアイテム内のオブジェクトの位置における検出された変化に基づいて、メディアアイテム1028に適用されるステッカーの位置を変更することができる。 In some embodiments, device 600 changes avatar 1037 based on detected changes in the user's face located within the field of view of camera 602 encoded in the depth data of media item 1028. Thus, although media item 1028 is described as a still image in this embodiment, media item 1028 is not limited to still images and includes other media items such as recorded video, including recorded video with depth data. It should be understood that this is possible. Similarly, device 600 may change the position of a sticker applied to media item 1028 based on a detected change in the position of an object within the media item encoded in the depth data.

深度ベースのビジュアルエフェクトを含むビジュアルエフェクトを、メディアアイテム1028に適用し、本明細書で論じる実施形態に従って編集することができる。例えば、本明細書に開示された様々な実施形態では、アバターエフェクトアフォーダンス1024-1は、選択されたアバター(例えば、アバター1037)を除去、変更、及び/又は切り替えるために選択することができる。加えて、ステッカーエフェクトアフォーダンス1024-2は、本明細書に開示された様々な実施形態に従って、メディアアイテム1028に対し、ステッカーを除外し、変更し、及び/又は追加するように選択することができる。 Visual effects, including depth-based visual effects, may be applied to media item 1028 and edited in accordance with embodiments discussed herein. For example, in various embodiments disclosed herein, avatar effect affordance 1024-1 can be selected to remove, modify, and/or switch a selected avatar (eg, avatar 1037). In addition, sticker effect affordance 1024-2 can be selected to exclude, modify, and/or add stickers to media item 1028 in accordance with various embodiments disclosed herein. .

図10N~図10Pは、ハートステッカー1042をメディアアイテム1028に追加するデバイス600を示す。これらの処理は、図6U~図6AD、図8AH~図8AK、及び図8AR~図8AYに関して、上記で一層詳細に論じている。簡潔性のために、これらの処理の詳細は、ここでは繰り返さない。 10N-10P illustrate a device 600 adding a heart sticker 1042 to a media item 1028. These processes are discussed in more detail above with respect to FIGS. 6U-6AD, FIGS. 8AH-8AK, and FIGS. 8AR-8AY. For the sake of brevity, these processing details will not be repeated here.

図10Qでは、デバイス600は、マークアップアフォーダンス1020上の入力1043を検出する。図10Rでは、デバイス600は、表示された編集オプション表示領域1014を、マークアップエフェクトをメディアアイテム1028に追加するための様々な選択可能なマークアップオプション1045を含むマークアップオプションメニュー1044に置換する。図10S~図10Tは、テキストアフォーダンス1045-1を選択することによって、テキスト1046をメディアアイテム1028に追加するための処理を示す。 In FIG. 10Q, device 600 detects input 1043 on markup affordance 1020. In FIG. 10R, device 600 replaces displayed editing options display area 1014 with a markup options menu 1044 that includes various selectable markup options 1045 for adding markup effects to media item 1028. 10S-10T illustrate the process for adding text 1046 to media item 1028 by selecting text affordance 1045-1.

図10Uでは、デバイス600は、編集アフォーダンス1012上の入力1047を検出する。図10Vでは、デバイス600は、表示された編集オプション表示領域1014を、様々な画像編集アフォーダンス1050を含む画像編集メニュー1048に置換する。図10V~図10Yは、ビビッド色フィルタを適用するために、フィルタアフォーダンス1050-1を選択し、次いでビビッドフィルタオプション1052を選択することによって、メディアアイテム1028を編集するための処理を示す。ビビッド色フィルタは、メディアアイテム1028内の背景1036と、適用されたビジュアルエフェクト(例えば、アバター1037上の髪部)の両方に変更を適用する。一部の実施形態では、フィルタは、アバターの外観及び1つ以上のカメラの視野の表現を同様の方法で変更して、アバターと1つ以上のカメラの視野の表現との間の類似性を高める(例えば、コミックブックフィルタ、スケッチ描画フィルタ、白黒フィルタ、グレースケールフィルタなどを適用する)。一部の実施形態では、アバターは、アバターの外観と1つ以上のカメラの視野の表現との両方を変更するフィルタを適用することによって、1つ以上のカメラの視界にある現実の世界とは一致しない漫画のような外観を有し、このアバターの外観は、1つ以上のカメラの視野の表現の残部と一体化される。一部の実施形態では、フィルタは、1つ以上のカメラの視野の表現の現実感を低減するフィルタ(例えば、スケッチフィルタ又はコミックブックフィルタ)である。一部の実施形態では、フィルタは、アバターの外観及び1つ以上のカメラの視野の表現の外観の両方の3D効果を低減する(例えば、平坦化する)フィルタである。 In FIG. 10U, device 600 detects input 1047 on editing affordance 1012. In FIG. 10V, the device 600 replaces the displayed editing options display area 1014 with an image editing menu 1048 that includes various image editing affordances 1050. 10V-10Y illustrate the process for editing media item 1028 by selecting filter affordance 1050-1 and then selecting vivid filter option 1052 to apply a vivid color filter. The vivid color filter applies changes to both the background 1036 within the media item 1028 and the applied visual effects (eg, the hair on the avatar 1037). In some embodiments, the filter alters the avatar's appearance and the representation of the one or more cameras' fields of view in a similar manner to increase the similarity between the avatar and the representation of the one or more cameras' fields of view. Enhance (for example, apply comic book filters, sketch drawing filters, black and white filters, grayscale filters, etc.). In some embodiments, the avatar is made different from the real world in the field of view of the one or more cameras by applying filters that change both the appearance of the avatar and the representation of the field of view of the one or more cameras. Having a non-conforming cartoon-like appearance, this avatar's appearance is integrated with the rest of the representation of the field of view of the one or more cameras. In some embodiments, the filter is a filter that reduces the realism of the representation of the field of view of one or more cameras (eg, a sketch filter or a comic book filter). In some embodiments, the filter is a filter that reduces (eg, flattens) the 3D effects of both the appearance of the avatar and the appearance of the representation of the field of view of the one or more cameras.

図10Zでは、新しいハートステッカー1042、テキスト1046を表示するように編集されて、ビビッドな色フィルタが適用される、メディアアイテム1028を示す。 FIG. 10Z shows media item 1028 edited to display a new heart sticker 1042, text 1046, and a vivid color filter applied.

図10AA~図10ADは、デバイス600がアバター1037からアバター1054に切り替わることを示す。これらの処理は、図6G~図6Q、図6BD~図6BE、図6BK~図6BN、及び図8F~図8AGに関して、上記で一層詳細に論じている。簡潔性のために、これらの処理の詳細は、ここでは繰り返さない。 10AA-10AD show device 600 switching from avatar 1037 to avatar 1054. These processes are discussed in more detail above with respect to FIGS. 6G-6Q, FIGS. 6BD-6BE, FIGS. 6BK-6BN, and FIGS. 8F-8AG. For the sake of brevity, these processing details will not be repeated here.

図10AEでは、デバイス600は、ステッカー(例えば、1039、1040、1042)、アバター1054、テキスト1046、及びビビッド色フィルタが適用されたメディアアイテム1028を表示する。メディアアイテム1028の色フィルタは、新規アバター1054がメディアアイテム1028に表示されると、新規アバター1054の髪部に影響を及ぼす。 In FIG. 10AE, device 600 displays stickers (eg, 1039, 1040, 1042), avatar 1054, text 1046, and media item 1028 with a vivid color filter applied. The color filter of media item 1028 affects the hair of new avatar 1054 when new avatar 1054 is displayed in media item 1028.

図10AEでは、デバイス600は、エフェクトオプションアフォーダンス1024上のスワイプジェスチャ1055を検出し、これに応じて、エフェクトオプションアフォーダンス1024をスクロールして図10AFのスクリーンエフェクトアフォーダンス1024-3を表示する。 In FIG. 10AE, device 600 detects a swipe gesture 1055 on effect option affordance 1024 and, in response, scrolls effect option affordance 1024 to display screen effect affordance 1024-3 of FIG. 10AF.

図10AGでは、デバイス600は、スクリーンエフェクトアフォーダンス1024-3上の入力1057を検出し、これに応じて、スクリーンエフェクトメニュー1060を表示する。スクリーンエフェクトメニュー1060は、メディアアイテム1028にフルスクリーンビジュアルエフェクトを適用するために選択可能な、様々なスクリーンエフェクトオプション1062を含む。図10AHでは、ヌルエフェクトオプション1062-1が選択され(例えば、1063)、デバイス600は、メディアアイテム1028にスクリーンエフェクトを表示しない。 In FIG. 10AG, device 600 detects input 1057 on screen effects affordance 1024-3 and displays screen effects menu 1060 in response. Screen effects menu 1060 includes various screen effects options 1062 that can be selected to apply full screen visual effects to media item 1028. In FIG. 10AH, null effect option 1062-1 is selected (eg, 1063) and device 600 displays no screen effects on media item 1028.

図10AIでは、デバイス600は、風船エフェクトオプション1062-2上の入力1064を検出する。図10AJ~図ALでは、デバイス600は、風船1065のアニメーションエフェクトをメディアアイテム1028に表示する。一部の実施形態では、アニメーションエフェクトは、メディアアイテム1028に符号化された深度データを強調する方法で適用される。例えば、図10AJ~図10ALでは、風船のうちのいくつかは、被写体1062及びビジュアルエフェクト(例えば、ウサギステッカー1040、アバター1054、テキスト1046)の前に現れるように表示される。風船のうちのいくつかは、被写体1062及びビジュアルエフェクト(例えば、ウサギステッカー1040、アバター1054、ハートステッカー1042)の背後にある深度で現れるように表示される。 In FIG. 10AI, device 600 detects input 1064 on balloon effect option 1062-2. 10AJ-AL, device 600 displays an animated effect of balloon 1065 on media item 1028. In FIGS. In some embodiments, animation effects are applied in a manner that emphasizes depth data encoded in media item 1028. For example, in FIGS. 10AJ-10AL, some of the balloons are displayed appearing in front of the subject 1062 and visual effects (eg, bunny sticker 1040, avatar 1054, text 1046). Some of the balloons are displayed to appear at depth behind the subject 1062 and visual effects (eg, bunny sticker 1040, avatar 1054, heart sticker 1042).

一部の実施形態では、スクリーンエフェクトは、メディアアイテム1028内のオブジェクト及びビジュアルエフェクトの深度に基づいて、メディアアイテム1028内のビジュアルエフェクト及びオブジェクトと対話することができる。例えば、紙吹雪スクリーンエフェクトは、メディアアイテム1028(例えば、被写体1062)及びビジュアルエフェクト(ステッカー及びアバター)内のオブジェクトの前及び背後に落ちていく、並びにこれらのオブジェクト及びビジュアルエフェクトの上部にも落ちていく、紙吹雪を示すことができる。例えば、紙吹雪が、落ちていく紙吹雪の物理モデルに基づいて、アバター上に落ちていく、及びアバターの側を落ちていくさまを表示することができる。 In some embodiments, screen effects can interact with visual effects and objects within media item 1028 based on the depth of the objects and visual effects within media item 1028. For example, confetti screen effects may fall in front of and behind objects in media items 1028 (e.g., subject 1062) and visual effects (stickers and avatars), and may also fall on top of these objects and visual effects. Go, you can show the confetti. For example, confetti can be displayed falling on and down the avatar based on a physical model of falling confetti.

図11A及び図11Bは、一部の実施形態に係る、電子デバイスを使用してメディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。方法1100は、表示装置を有するデバイス(例えば、100、300、500、600)において実行される。方法1100におけるいくつかの動作は、任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 11A and 11B are flow diagrams illustrating a method for displaying visual effects in a media item viewing mode using an electronic device, according to some embodiments. Method 1100 is performed on a device (eg, 100, 300, 500, 600) that has a display device. Some acts in method 1100 are optionally combined, the order of some acts is optionally changed, and some acts are optionally omitted.

以下に説明するように、方法1100は、メディアアイテム視聴モードでビジュアルエフェクトを表示するための直感的な仕方を提供する。この方法は、画像又はビデオにビジュアルエフェクトを表示している際のユーザへの認知負担を軽減し、それによって、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ビジュアルエフェクトをユーザーがより迅速かつ効率的に表示できるようにすることで、電力を節約し、バッテリ充電間の時間を増大させる。 As described below, method 1100 provides an intuitive way to display visual effects in media item viewing mode. This method reduces the cognitive burden on the user when displaying visual effects on images or videos, thereby creating a more efficient human-machine interface. On battery-operated computing devices, enabling users to display visual effects more quickly and efficiently saves power and increases the time between battery charges.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、メディアユーザインタフェース(例えば、1005)を表示する(1102)。メディアユーザインタフェースは、メディアアイテム(例えば、静止画像又はビデオ)の表現(例えば、1010)を含む、メディア表示領域(例えば、1008)を含む(1104)。一部の実施形態では、メディアアイテムに対応する深度データは、エフェクトアフォーダンスの事前選択を検出した後に、電子デバイスのカメラによって取得される。 An electronic device (eg, 600) displays (1102) a media user interface (eg, 1005) via a display (eg, 601). The media user interface includes a media display area (eg, 1008) that includes a representation (eg, 1010) of a media item (eg, a still image or video) (1104). In some embodiments, depth data corresponding to the media item is obtained by a camera of the electronic device after detecting the preselection of the effect affordance.

一部の実施形態では、メディアアイテムは、記録された画像又はビデオであり、エフェクトは、メディアアイテムが記録された後に深度データに基づいて適用される。一部の実施形態では、画像データがキャプチャされた(例えば、記録された)後に、ステッカー、仮想アバター、及びフルスクリーンエフェクトなどのビジュアルエフェクトを画像データに追加し、又は異なるビジュアルエフェクトに変更する(例えば、ステッカーを仮想アバターに置換する)ことができる。 In some embodiments, the media item is a recorded image or video, and the effects are applied based on depth data after the media item is recorded. In some embodiments, visual effects, such as stickers, virtual avatars, and full-screen effects, are added to the image data or changed to different visual effects (e.g., recorded) after the image data is captured (e.g., recorded). For example, stickers can be replaced with virtual avatars).

メディアユーザインタフェース(例えば、1005)は、エフェクトアフォーダンス(例えば、1016、画像表示モードをアクティブ化するための機能(例えば、画像データが深度データを含む場合に、深度データを表示するモード)に関連するアフォーダンス)を含む(1106)。 The media user interface (e.g., 1005) relates to effect affordances (e.g., 1016, functionality for activating an image display mode (e.g., a mode for displaying depth data if the image data includes depth data). affordances) (1106).

電子デバイス(例えば、600)は、エフェクトアフォーダンス(例えば、1016)に向けられたジェスチャ(例えば、1021)を検出する(1108)。一部の実施形態では、それぞれのエフェクトオプション(例えば、1024-1)は、メディアアイテム内に(例えば、その上に重ね合わせる)アバターを表示するためのエフェクトに対応する(1110)。一部の実施形態では、アバターをメディアアイテムに表示するときに、人の頭部の画像データが仮想アバターに置換される。人の頭部の画像データが仮想アバターに置換されたメディアアイテムにアバターを表示することにより、アバターが、置換されている人に関係がある、及び/又は関連付けられているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、アバターのカスタマイズ可能である。一部の実施形態において、アバターのカスタマイズ不可能である。 The electronic device (eg, 600) detects (1108) a gesture (eg, 1021) directed to the effect affordance (eg, 1016). In some embodiments, each effect option (eg, 1024-1) corresponds to an effect for displaying an avatar within (eg, overlaid on) a media item (1110). In some embodiments, image data of a person's head is replaced with a virtual avatar when displaying the avatar in a media item. Displaying the avatar in a media item in which image data of a person's head is replaced with a virtual avatar provides visual feedback that the avatar is relevant and/or associated with the person being replaced. . By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the avatar is customizable. In some embodiments, avatars are not customizable.

一部の実施形態では、それぞれのエフェクトオプション(例えば、1024-3)は、メディアアイテム内を(例えば、その上にアニメーション風に重ね合わせられて)動く複数の仮想オブジェクト(例えば、1062、紙吹雪、風船など)を表示するためのエフェクトに対応する(1112)。一部の実施形態では、メディアアイテム内を移動する複数のオブジェクトの軌跡は、メディアアイテム内の(例えば、表される、特定される)オブジェクト(例えば、元の画像又はビデオ内の人物などの、仮想アバターではない、メディアアイテムに適用されるエフェクトの生成物であるオブジェクトではなく、元のメディアアイテムに符号化されたオブジェクト)のうちの少なくとも1つの存在、又はメディアアイテムに適用されたビジュアルエフェクト(例えば、アバター)に基づいて変更される。一部の実施形態では、紙吹雪又は風船などのオブジェクトが、画像内のユーザの前、背後、及び/又はユーザ上に表示される。一部の実施形態において、画像は、アバターなどの他のエフェクトを含み、紙吹雪又は風船などのオブジェクトは、アバターの前、背後、及び/又はアバター上に着地する。 In some embodiments, each effect option (e.g., 1024-3) includes a plurality of virtual objects (e.g., 1062, confetti) moving within (e.g., animatedly superimposed on top of) the media item. , balloons, etc.) (1112). In some embodiments, the trajectories of the plurality of objects moving within the media item include objects (e.g., represented, identified) within the media item (e.g., people in the original image or video), the presence of at least one of the following: an object that is not a virtual avatar, an object that is the product of an effect applied to the media item, but an object encoded in the original media item); or a visual effect applied to the media item ( For example, based on your avatar). In some embodiments, objects such as confetti or balloons are displayed in front of, behind, and/or on the user in the image. In some embodiments, the image includes other effects, such as an avatar, and objects such as confetti or balloons landing in front of, behind, and/or on the avatar.

一部の実施形態では、それぞれのエフェクトオプション(例えば、1024-2)は、メディアアイテム内に(例えば、その上に重ね合わせられる)1つ以上の選択可能なグラフィックアイコン(例えば、1042、ステッカー)を表示するためのエフェクトに対応する(1114)。 In some embodiments, each effect option (e.g., 1024-2) includes one or more selectable graphic icons (e.g., 1042, stickers) within (e.g., overlaid on) the media item. (1114).

エフェクトアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプション(例えば、ステッカーアフォーダンス、アバターアフォーダンス)を表示し(1116)、(例えば、パラグラフ[179]及び[338]に記載するように)メディアアイテムが対応する深度データに関連付けられているとの判定(1118)に従って、複数のエフェクトオプションが、深度データに基づいてエフェクト(例えば、ステッカー、仮想アバター、フルスクリーンエフェクトなど)を適用するためのそれぞれのエフェクトオプション(例えば、1024)を含む、ことを含んでいる。一部の実施形態では、ジェスチャを検出したことに応じて、電子デバイスは、画像表示モード(例えば、深度データに基づく画像表示モード)をアクティブ化する。 In response to detecting a gesture directed to an effect affordance, the electronic device (e.g., 600) may display multiple effect options (e.g., a sticker affordance, avatar affordances) and displaying (1116) a plurality of effects according to a determination (1118) that the media item is associated with the corresponding depth data (e.g., as described in paragraphs [179] and [338]). The options include respective effect options (eg, 1024) for applying effects (eg, stickers, virtual avatars, full screen effects, etc.) based on the depth data. In some embodiments, in response to detecting the gesture, the electronic device activates an image display mode (eg, an image display mode based on depth data).

一部の実施形態では、深度データに基づいてメディアアイテム(例えば、静止画像又はビデオ)上に表示できる複数のステッカーオプション(例えば、1042)を表示するために、ステッカーアフォーダンス(例えば1024-2)が選択可能である。例えば、ステッカーをメディアアイテム上に配置し、メディアアイテムに関連付けられた深度データに基づいて変更することができる。一部の実施形態では、ステッカーは、ビデオ内のオブジェクトの相対位置に関連付けられる。ビデオ内のオブジェクトの動きは、オブジェクトの動きに基づいて、ステッカーの表示されたアスペクト(例えば、サイズ、向き、位置など)を変更するために使用される深度成分を有する。例えば、ステッカーはオブジェクト上に表示され、オブジェクトがカメラ(例えば、602)から離れて(例えば、後方に)移動するにつれてステッカーは小さくなっていき、ステッカーがオブジェクトと共にカメラから遠ざかっていく外観を与える。一部の実施形態では、深度データに基づいてメディアアイテム上に表示できる複数のアバターオプション(例えば、図10AB)を表示するために、アバターアフォーダンス(例えば、1024-1)が選択可能である。例えば、アバターを画像又はビデオ内の顔に表示し、画像又はビデオ内の顔に関連付けられた深度データに基づいて修正することができる。例えば、顔が前方、後方、左右、又は画像データの深度成分に影響を及ぼす他の方法で動くと、深度データに基づいてアバターが表示及び変更される。このように、顔が動くにつれて、同じ方法でアバターが動いて表示される。 In some embodiments, a sticker affordance (e.g., 1024-2) is provided to display multiple sticker options (e.g., 1042) that can be displayed on a media item (e.g., a still image or video) based on the depth data. Selectable. For example, a sticker can be placed on a media item and changed based on depth data associated with the media item. In some embodiments, the sticker is associated with the relative position of the object within the video. The movement of the object in the video has a depth component that is used to change the displayed aspect (eg, size, orientation, position, etc.) of the sticker based on the movement of the object. For example, a sticker may be displayed on an object, and as the object moves away (eg, backwards) from the camera (eg, 602), the sticker becomes smaller, giving the appearance that the sticker is moving away from the camera with the object. In some embodiments, the avatar affordance (eg, 1024-1) is selectable to display multiple avatar options (eg, FIG. 10AB) that can be displayed on the media item based on the depth data. For example, an avatar can be displayed on a face in an image or video and modified based on depth data associated with the face in the image or video. For example, as the face moves forward, backward, side to side, or in other ways that affect the depth component of the image data, the avatar is displayed and modified based on the depth data. In this way, as the face moves, the avatar is displayed moving in the same way.

エフェクトアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプション(例えば、1024、ステッカーアフォーダンス、アバターアフォーダンス)を表示し(1116)、画像データが深度データを含まないとの判定(1120)に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない(例えば、それぞれのエフェクトオプションが、表示された複数のエフェクトオプションから除外されているか、又は表示された複数のエフェクトオプションにおいて無効化されている)、ことを含んでいる。画像データが深度データを含まないとの判定に従って、複数のエフェクトオプションでアクティブ化するために利用可能でないそれぞれのエフェクトオプションは、画像データが必要な深度データを含まないというフィードバックを提供する。更なるユーザ入力を必要とせずに、条件のセットが満たされたときに操作を行うことにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、深度データに対応するアフォーダンス(例えば、エフェクトアフォーダンス)は、表示されないか、又は画像データが深度データを含まない場合には選択できない。 In response to detecting a gesture directed to an effect affordance, the electronic device (e.g., 600) may display a plurality of effect options (e.g., 1024, a sticker) for applying an effect to the media item while simultaneously rendering the media item. affordances, avatar affordances) (1116), and the respective effect options are not available for activation in the plurality of effect options (e.g., the respective effect options are not available for activation in the plurality of effect options (e.g., the option is excluded from the displayed effect options or disabled in the displayed effect options. In accordance with the determination that the image data does not include depth data, each effect option that is not available for activation in the plurality of effect options provides feedback that the image data does not include the required depth data. Performing an operation when a set of conditions is met without requiring further user input improves the usability of the device and improves the user device interface (e.g. when operating/interacting with the device (by assisting the user in providing input and reducing user errors), as well as by allowing the user to use the device more quickly and efficiently. Reduce usage and improve battery life. In some embodiments, affordances corresponding to depth data (eg, effect affordances) are not displayed or cannot be selected if the image data does not include depth data.

一部の実施形態では、複数のエフェクトオプション(例えば、1024)は、メディアアイテムに(例えば、その上に重ね合わせられて)ラベルを付加するためのオプション(例えば、1020)を含む。一部の実施形態では、テキストラベルを画像又はビデオに追加することができる。一部の実施形態では、複数のエフェクトオプションは、メディアアイテムに(例えば、その上に重ね合わせられて)1つ以上の画像フィルタを適用するためのオプションを含む。 In some embodiments, the plurality of effect options (eg, 1024) includes an option (eg, 1020) for adding a label to (eg, superimposed on) the media item. In some embodiments, text labels can be added to images or videos. In some embodiments, the plurality of effect options includes an option to apply one or more image filters to (eg, superimposed on) the media item.

方法1100に関して上述された処理(例えば、図11A~図11B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1100に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、メッセージングアプリケーションユーザインタフェースにおいて画像データに表示される。別の例では、方法900は、方法1100に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラアプリケーションユーザインタフェースに対するユーザインタフェース内の画像データに表示される。別の例では、方法1300は、方法1100に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターのようなビジュアルエフェクトが、ライブビデオ通信セッションのためのユーザインタフェースにおいて画像データに表示される。別の例では、方法1500は、方法1100に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラユーザインタフェースに対して画像データに表示される。簡潔にするために、これらの詳細は、以下では繰り返さない。 Note that the processing details described above with respect to method 1100 (eg, FIGS. 11A-11B) are also applicable in a similar manner to the methods described above and below. For example, method 700 optionally includes one or more of the various method characteristics described above with respect to method 1100. For example, visual effects such as stickers and virtual avatars are displayed on image data in a messaging application user interface. In another example, method 900 optionally includes one or more of the various method characteristics described above with respect to method 1100. For example, visual effects such as stickers and virtual avatars are displayed on image data within a user interface to a camera application user interface. In another example, method 1300 optionally includes one or more of the various method characteristics described above with respect to method 1100. For example, visual effects such as stickers and virtual avatars are displayed on image data in a user interface for a live video communication session. In another example, method 1500 optionally includes one or more of the various method characteristics described above with respect to method 1100. For example, visual effects such as stickers and virtual avatars are displayed on the image data to the camera user interface. For the sake of brevity, these details are not repeated below.

図12A~図12APは、一部の実施形態に係る、ライブビデオ通信セッションにおけるビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図13A~図13Bにおける処理を含む、以下で説明される処理を例示するために使用される。 12A-12AP illustrate example user interfaces for displaying visual effects in a live video communication session, according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 13A-13B.

図12Aでは、デバイス600は、2人以上の参加者間のライブビデオ通信セッション(例えば、ストリーミングビデオ通信)に対するユーザインタフェース1200を示す。ユーザインタフェース1200では、デバイスは、ライブビデオ通信セッションにおける参加者を表す参加者画像データ1204を表示する。ウィンドウ1202では、デバイス600は、デバイス600のカメラ(例えば、カメラ602)によって取得されたデータ、及びライブビデオ通信セッションの他の参加者に送信されているビデオデータの表現を含む、デバイス画像データ1201を表示する。図12Aでは、デバイス画像データ1201は、ビデオ通信セッションの参加者でもある(例えば、外部電子デバイス(例えば、デバイス600に類似のデバイス)を使用している)ユーザを表す。図12Aでは、デバイス画像データ1201は、デバイス600のカメラ602を使用してキャプチャされる。しかしながら、一部の実施形態では、デバイス画像データ1201を、デバイス600の背面カメラを使用してキャプチャすることができる。 In FIG. 12A, device 600 shows a user interface 1200 for a live video communication session (eg, streaming video communication) between two or more participants. At user interface 1200, the device displays participant image data 1204 representing participants in a live video communication session. In window 1202, device 600 displays device image data 1201, including data captured by a camera (e.g., camera 602) of device 600, and a representation of the video data being transmitted to other participants in a live video communication session. Display. In FIG. 12A, device image data 1201 represents a user (eg, using an external electronic device (eg, a device similar to device 600)) who is also a participant in a video communication session. In FIG. 12A, device image data 1201 is captured using camera 602 of device 600. However, in some embodiments, device image data 1201 may be captured using a rear camera of device 600.

図12Bでは、デバイス600は、ユーザインタフェース1200上の入力1205を検出し、これに応じて、エフェクトアフォーダンス1208、カメラセレクタアフォーダンス1210、及びエンドアフォーダンス1212を有する、図12Cの、オプション表示領域1206を表示する。エンドアフォーダンス1212は、ライブビデオ通信セッションを終了させるための機能に関連付けられ、カメラセレクタアフォーダンス1210は、カメラ(例えば、背面カメラ及びカメラ602)間を切り替えるための機能に関連付けられている。エフェクトアフォーダンス1208は、エフェクトアフォーダンス622、822及び1016と同様であり、デバイス600がユーザインタフェース1200にビジュアルエフェクトを表示するために有効化又は無効化される、デバイス600のモード(ビジュアルエフェクトモード、エフェクトモード)を有効化又は無効化するために選択可能である。 In FIG. 12B, device 600 detects input 1205 on user interface 1200 and, in response, displays option display area 1206 of FIG. 12C, which has an effect affordance 1208, a camera selector affordance 1210, and an end affordance 1212. do. End affordance 1212 is associated with the ability to end a live video communication session, and camera selector affordance 1210 is associated with the ability to switch between cameras (eg, rear camera and camera 602). Effect affordance 1208 is similar to effect affordances 622, 822, and 1016 and indicates the mode of device 600 (visual effects mode, effect mode) in which device 600 is enabled or disabled to display visual effects in user interface 1200. ) can be selected to enable or disable.

図12Dでは、デバイス600は、エフェクトアフォーダンス1208上の入力1213を検出する。 In FIG. 12D, device 600 detects input 1213 on effect affordance 1208.

図12Eでは、デバイス600は、入力1213を検出したことに応じて、ビジュアルエフェクトモードを可能化する。デバイス600は、参加者画像データ1204をウインドウ1202に表示することによって、デバイス画像データ1201及び参加者画像データ1204の表示位置を切り替え、ユーザインタフェース1200内の別の位置に任意選択的に移動する。デバイス600はまた、エフェクトアフォーダンス1208を強調表示し、ビジュアルエフェクトオプションアフォーダンス1214を含むようにオプション表示領域1206を拡大する。ビジュアルエフェクトオプションアフォーダンス1214は、上述したビジュアルエフェクトオプションアフォーダンス624、824、及び1024と同様であり、エフェクトアフォーダンス1208が有効化されているときに表示される。 In FIG. 12E, device 600 enables visual effects mode in response to detecting input 1213. Device 600 switches the display positions of device image data 1201 and participant image data 1204 by displaying participant image data 1204 in window 1202 and optionally moves them to another position within user interface 1200 . Device 600 also highlights effect affordance 1208 and expands option display area 1206 to include visual effect option affordance 1214. Visual effects option affordance 1214 is similar to visual effects option affordances 624, 824, and 1024 described above, and is displayed when effect affordance 1208 is enabled.

図12Fでは、デバイス600は、アバターエフェクトアフォーダンス1214-1上の入力1215を検出する。図12Gでは、それに応じて、デバイス600は、選択可能なアバターオプション1218のスクロール可能なリストを含むアバターオプションメニュー1216を表示する。アバターオプションメニュー1216は、アバターオプションメニュー628及び828と同様であり、アバターオプション1218は、アバターオプション630及び830と同様である。 In FIG. 12F, device 600 detects input 1215 on avatar effect affordance 1214-1. In FIG. 12G, the device 600 accordingly displays an avatar options menu 1216 that includes a scrollable list of selectable avatar options 1218. Avatar options menu 1216 is similar to avatar options menus 628 and 828, and avatar options 1218 is similar to avatar options 630 and 830.

アバターオプション1218は、図6G~図6Q、図6BD~図6BE、図6BK~図6BN、及び図8F~図8AGに関して上述したのと同様の方法で、対応するアバターを、デバイス画像データ1201内の被写体の顔に適用するために選択されてもよい。一部の実施形態では、アバターオプション1218は、参加者画像データ1204に表示された参加者に対するのと同様の方法で、対応するアバターを適用するように選択できる。 Avatar option 1218 allows the corresponding avatar to be added to the device image data 1201 in a manner similar to that described above with respect to FIGS. 6G-6Q, 6BD-6BE, 6BK-6BN, and 8F-8AG. It may be selected for application to the subject's face. In some embodiments, avatar option 1218 can be selected to apply a corresponding avatar in a similar manner to the participants displayed in participant image data 1204.

図12Gでは、ヌルアバターオプション1218-1が選択されている(例えば、選択領域1219内に位置している)ので、アバターはデバイス画像データ1201内のユーザの顔に表示されない。 In FIG. 12G, null avatar option 1218-1 is selected (eg, located within selection area 1219) so that no avatar is displayed on the user's face in device image data 1201.

図12H~図12Pは、様々なアバターオプションを選択し、その間で切り替えて、デバイス画像データ1201内のユーザの顔に対応するアバターを表示するための処理を示す。例えば、デバイス600は、デバイス画像データ1201に他のオブジェクト(例えば、ユーザの身体及び背景1226)の表示を維持している間に、ロボットアバターオプション1218-2の選択を受信し、デバイス画像データ1201内のユーザーの顔に、ロボットアバター1222を表示する。デバイス600は、カメラ602を使用してユーザの顔の検出された変化に基づいてロボットアバター1222の外観を変更する。デバイス600は、エイリアンアバターオプション1218-3の選択を受信し、表示されたアバターをエイリアンアバター1223に遷移させる。デバイスは、ロボットアバターオプション1218-2の後続の選択を受信し、表示されたアバターをロボットアバター1222に再び遷移させる。一部の実施形態では、ユーザは、ヌルアバターオプション1218-0を選択することによって、デバイス画像データ1201内のアバターを除去(又は表示することをやめる)するよう選択することができる。これらの処理は、図6G~図6Q、図6BD~図6BE、図6BK~図6BN、及び図8F~図8AGに関して、上記で一層詳細に論じている。簡潔性のために、これらの処理の詳細は、ここでは繰り返さない。 12H-12P illustrate a process for selecting and toggling between various avatar options to display an avatar that corresponds to the user's face in device image data 1201. For example, device 600 receives a selection of robot avatar option 1218-2 while maintaining display of other objects (e.g., the user's body and background 1226) in device image data 1201, and A robot avatar 1222 is displayed on the user's face. Device 600 uses camera 602 to change the appearance of robot avatar 1222 based on detected changes in the user's face. Device 600 receives the selection of alien avatar option 1218-3 and transitions the displayed avatar to alien avatar 1223. The device receives a subsequent selection of robot avatar option 1218-2 and transitions the displayed avatar back to robot avatar 1222. In some embodiments, a user may choose to remove (or cease displaying) the avatar in device image data 1201 by selecting null avatar option 1218-0. These processes are discussed in more detail above with respect to FIGS. 6G-6Q, FIGS. 6BD-6BE, FIGS. 6BK-6BN, and FIGS. 8F-8AG. For the sake of brevity, these processing details will not be repeated here.

図12Pのクローズアイコン1220の選択を(入力1221を介して)検出した後、デバイス600は、アバターオプションメニュー1216をクローズし、図12Qのオプション表示領域1206を再表示する。デバイス600は、デバイス画像データ1201内のユーザの頭部上にロボットアバター1222を表示し、カメラ602を使用してユーザの顔の検出された変化に基づいてアバターを変更する。 After detecting selection of close icon 1220 of FIG. 12P (via input 1221), device 600 closes avatar options menu 1216 and redisplays options display area 1206 of FIG. 12Q. Device 600 displays a robot avatar 1222 over the user's head in device image data 1201 and uses camera 602 to modify the avatar based on detected changes in the user's face.

図12Rでは、デバイス600は、ステッカーエフェクトアフォーダンス1214-2の選択1227を検出し、図12Sでは、ステッカー1230を有するステッカーオプションメニュー1228を表示する。ステッカーオプションメニュー1228は、ステッカーオプションメニュー656及び856と同様であり、ステッカー1230は、ステッカー658及び858と同様である。 In FIG. 12R, device 600 detects selection 1227 of sticker effect affordance 1214-2, and in FIG. 12S displays sticker options menu 1228 with sticker 1230. Sticker options menu 1228 is similar to sticker options menus 656 and 856, and sticker 1230 is similar to stickers 658 and 858.

ステッカー1230は、図6U~図6AD、図8AH~図8AK、及び図8AR~図8AYに関して上述したのと同様の方法で、対応するステッカーをデバイス画像データ1201に適用するために選択されてもよい。一部の実施形態では、ステッカー1230を参加者画像データ1204に適用することができる。 Sticker 1230 may be selected to apply a corresponding sticker to device image data 1201 in a manner similar to that described above with respect to FIGS. 6U-6AD, FIGS. 8AH-8AK, and FIGS. 8AR-8AY. . In some embodiments, stickers 1230 may be applied to participant image data 1204.

図12T~図12AAは、デバイス画像データ1201にステッカーを適用し、変更する処理を示す。デバイス600は、眼鏡ステッカー1230-1の選択を検出し、眼鏡ステッカー1230-1をデバイス画像データ1201に表示する。デバイス600はまた、後続のジェスチャを検出して、ロボットアバター1222上の眼鏡ステッカー1230-1を移動させ、サイズを変更し、及び配置する。これらの処理は、図6U~図6AD、図8AH~図8AK、及び図8AR~図8AYに関して、上記で一層詳細に論じている。簡潔性のために、これらの処理の詳細は、ここでは繰り返さない。 12T to 12AA show a process of applying and changing a sticker to device image data 1201. The device 600 detects the selection of the glasses sticker 1230-1 and displays the glasses sticker 1230-1 on the device image data 1201. Device 600 also detects subsequent gestures to move, resize, and position glasses sticker 1230-1 on robot avatar 1222. These processes are discussed in more detail above with respect to FIGS. 6U-6AD, FIGS. 8AH-8AK, and FIGS. 8AR-8AY. For the sake of brevity, these processing details will not be repeated here.

一部の実施形態では、選択されたステッカー1230は、ユーザーがデバイス画像データ1201にステッカーを配置するまで、ライブ通信セッションの他の参加者には見ることができない。一部の実施形態では、配置されたステッカー1230に対する変更は、変更が完了するまで他の参加者には見えない。一部の実施形態では、いったん選択されたステッカーがユーザインタフェース1200内のデバイス画像データ1201上に現れると、たとえユーザがステッカー1230をまだ配置していないとしても、ビデオ通信セッションの参加者はステッカーを見ることができる。同様に、たとえユーザがステッカーの配置をまだ変更していても、ステッカーの継続的な変更がライブビデオ通信セッションの他の参加者に見えるように、配置されたステッカーに対する変更が可視化される。 In some embodiments, the selected sticker 1230 is not visible to other participants in the live communication session until the user places the sticker on the device image data 1201. In some embodiments, changes to placed stickers 1230 are not visible to other participants until the changes are complete. In some embodiments, once the selected sticker appears on the device image data 1201 in the user interface 1200, participants in the video communication session can place the sticker, even if the user has not yet placed the sticker 1230. You can see it. Similarly, changes to placed stickers are made visible so that continued changes to the sticker are visible to other participants in the live video communication session, even if the user is still changing the placement of the sticker.

図12ABでは、ロボットアバター1222、眼鏡ステッカー1230-1がデバイス画像データ1201に適用され、オプション表示領域1206が表示される。デバイス600は、ユーザインタフェース1200上のジェスチャ1232を検出し、これに応じて、デバイス画像データ1201が、ユーザインタフェース1200内の別の位置に任意選択的に移動するウインドウ1202内に表示されるように、図12ACでは、デバイス画像データ1201及び参加者画像データ1204の表示位置を切り替える。ビジュアルエフェクト(例えば、ロボットアバター1222及び眼鏡ステッカー1230-1)は、ウィンドウ1202に配置されたデバイス画像データ1201に表示される。 In FIG. 12AB, a robot avatar 1222, a glasses sticker 1230-1 are applied to the device image data 1201, and an option display area 1206 is displayed. Device 600 detects gesture 1232 on user interface 1200 and in response causes device image data 1201 to be displayed in window 1202 that optionally moves to another position within user interface 1200. , in FIG. 12AC, the display positions of device image data 1201 and participant image data 1204 are switched. Visual effects (eg, robot avatar 1222 and glasses sticker 1230-1) are displayed in device image data 1201 located in window 1202.

図12ADに示すように、ウィンドウ1202上のジェスチャ1233を受信したことに応じて(参加者画像データ1204を用いて位置を再び切り替えることにより)、デバイス画像データ1201を再拡大することができる。デバイス600は、図12AEで切り替えられたデバイス画像データ1201及び参加者画像データ1204を、表示されたビジュアルエフェクト及びオプション表示領域1206と共に示す。エフェクトモードが有効化されているので、オプション表示領域1206が表示されると、ビジュアルエフェクトオプションアフォーダンス1214も表示される。 As shown in FIG. 12AD, in response to receiving gesture 1233 on window 1202 (by switching the position again using participant image data 1204), device image data 1201 can be re-enlarged. Device 600 shows switched device image data 1201 and participant image data 1204 in FIG. 12AE, along with displayed visual effects and option display area 1206. Since effects mode is enabled, when option display area 1206 is displayed, visual effects option affordances 1214 are also displayed.

ライブビデオ通信セッションにおけるビジュアルエフェクトを表示するための前述の説明は、3人以上の参加者を有するライブビデオ通信セッションにも適用される。図12AF~図12APは、このような実施形態においてビジュアルエフェクトを適用するための様々な方法を示す。 The above description for displaying visual effects in a live video communication session also applies to live video communication sessions with three or more participants. 12AF-12AP illustrate various methods for applying visual effects in such embodiments.

図12AFでは、デバイス600は、デバイス画像データ1201をユーザウィンドウ1251に、及びそれぞれの参加者画像データ1204-1~1204-4をそれぞれの参加者ウィンドウ1255-1~1255-4に有するユーザインタフェース1200表示する。 In FIG. 12AF, device 600 has user interface 1200 with device image data 1201 in user window 1251 and respective participant image data 1204-1 to 1204-4 in respective participant windows 1255-1 to 1255-4. indicate.

図12AGでは、デバイス600は、ユーザインタフェース1200上の入力1256を受信し、これに応じて、図12AHで、エフェクトアフォーダンス1208、カメラセレクタアフォーダンス1210、及びエンドアフォーダンス1212を有する、オプション表示領域1206を表示する。デバイス600が入力1256を受信するときにはエフェクトモードが有効化されていないので、オプション表示領域1206が、ビジュアルエフェクトオプションアフォーダンス1214なしで表示される。 In FIG. 12AG, device 600 receives input 1256 on user interface 1200 and in response, in FIG. 12AH, displays option display area 1206 having an effect affordance 1208, a camera selector affordance 1210, and an end affordance 1212. do. Because effects mode is not enabled when device 600 receives input 1256, option display area 1206 is displayed without visual effects option affordances 1214.

図12AIでは、デバイス600は、ビジュアルエフェクトモードを有効化する、エフェクトアフォーダンス1208上の入力1257を検出する。次いで、デバイス600は、図12AJに示すように、拡大表示に拡張してユーザウィンドウ1251を表示し、ウィンドウ1251の背後にぼかしエフェクト1258を適用もしながら、オプション表示領域1206を拡張してビジュアルエフェクトオプションアフォーダンスス1214を表示する。拡張ウィンドウ1251は、図12AIに示すビューに戻るように選択可能なリターンアイコン1260を含む。 In FIG. 12AI, device 600 detects input 1257 on effects affordance 1208 that enables visual effects mode. The device 600 then expands the user window 1251 to an enlarged view and applies a blur effect 1258 behind the window 1251 while expanding the option display area 1206 to display the visual effects options, as shown in FIG. 12AJ. Affordances 1214 are displayed. Expanded window 1251 includes a return icon 1260 that is selectable to return to the view shown in FIG. 12AI.

上述したように、ビジュアルエフェクトは、ビジュアルエフェクトオプションアフォーダンス1214を使用してデバイス画像データ1201に適用することができる。例えば、デバイス600は、図12R~図12ABに関して上述したものと一致する方法で、ステッカーを貼り付けることができる。図12AK~図12ANは、デバイス画像データ1251内のユーザの顔に追加カスタマイズ可能なアバター1262を示す。例えば、図12AKでは、ヌルアバターオプション1218-1(アバターを表示することをやめるか、又は表示されたアバターを除去するかを選択可能)を含むアバターオプション1218を有するアバターオプションメニュー1216、カスタマイズ不可能なロボットアバターオプション1218-2、カスタマイズ可能なアバターオプション1218-3、及び新規アバターアフォーダンス1266(新規アバターアフォーダンス813と同様の方法で新規アバターを作成するために選択可能)を、デバイス600に表示させる、アバターエフェクトアフォーダンス1214-1が選択される(1264)。カスタマイズ可能なアバターオプション1218-3は、上述したカスタマイズ可能なアバターオプション830-5と同様の方法でカスタマイズできる。 As discussed above, visual effects can be applied to device image data 1201 using visual effects option affordances 1214. For example, device 600 can apply a sticker in a manner consistent with that described above with respect to FIGS. 12R-12AB. 12AK-12AN illustrate an avatar 1262 that can be added to the user's face within the device image data 1251. For example, in FIG. 12AK, an avatar options menu 1216 with an avatar option 1218 that includes a null avatar option 1218-1 (allows you to choose to stop displaying the avatar or remove the displayed avatar), non-customizable causing the device 600 to display a robot avatar option 1218-2, a customizable avatar option 1218-3, and a new avatar affordance 1266 (selectable to create a new avatar in a manner similar to the new avatar affordance 813); Avatar effect affordance 1214-1 is selected (1264). Customizable avatar options 1218-3 can be customized in a manner similar to customizable avatar options 830-5 described above.

図12AM~図12ANでは、カスタマイズ可能なアバターオプション1218-3が選択され、デバイス600は、カスタマイズ可能なアバター1273を、ウィンドウ1251に表示されたデバイス画像データ1201内のユーザの顔に表示する。デバイス600は、カメラ602の視野内に位置するユーザの顔の検出された変化に基づいて、カスタマイズ可能なアバター1273を変更する。デバイスは、本明細書で前述した先の実施形態に関して説明したように、ユーザの顔がカメラ602の視野内で検出されない場合を示す。 12AM-12AN, customizable avatar option 1218-3 is selected and device 600 displays customizable avatar 1273 on the user's face in device image data 1201 displayed in window 1251. Device 600 changes customizable avatar 1273 based on detected changes in the user's face located within the field of view of camera 602. The device illustrates a case where the user's face is not detected within the field of view of the camera 602, as described with respect to previous embodiments herein above.

図12ANでは、デバイス600は、リターンアイコン1260上の入力1274を検出し、これに応じて、図12AOに示すように、適用されたビジュアルエフェクト(例えば、カスタマイズ可能なアバター1273)を含みながら、デバイス画像データ1201をウィンドウ1251に表示する。図12AOに示す実施形態では、デバイス画像データ1201及び適用されたビジュアルエフェクトは、ライブビデオ通信セッションの他の参加者が見ることができる。ビジュアルエフェクトが有効化されるので、ビジュアルエフェクトオプションアフォーダンス1214及びエフェクトアフォーダンス1208が強調表示されて、オプション表示領域1206が表示される。 In FIG. 12AN, the device 600 detects input 1274 on the return icon 1260 and, in response, the device Image data 1201 is displayed in window 1251. In the embodiment shown in FIG. 12AO, device image data 1201 and applied visual effects are visible to other participants in the live video communication session. Since the visual effects are enabled, visual effects option affordances 1214 and effect affordances 1208 are highlighted and options display area 1206 is displayed.

図12AOでは、デバイスは、ユーザインタフェース1200上の入力1275を検出し、それに応じて、オプション表示領域1206を隠し、図12APに示すように、様々な参加者ウィンドウ1255の位置をシフトし、サイズ変更する。一部の実施形態では、デバイス600は、参加者が話しているときに、それぞれの参加者ウィンドウを拡大する。例えば、図12APでは、デバイス600は、参加者画像データ1204-2に表された女性からの音声1276(例えば、笑い声)を検出し、それに応じて、女性の参加者ウィンドウ1255-2を拡大する。 In Figure 12AO, the device detects input 1275 on user interface 1200 and accordingly hides option display area 1206 and shifts and resizes various participant windows 1255 as shown in Figure 12AP. do. In some embodiments, device 600 enlarges each participant window when the participants are speaking. For example, in FIG. 12AP, device 600 detects audio 1276 (e.g., laughter) from a female represented in participant image data 1204-2 and expands female participant window 1255-2 accordingly. .

図13A~図13Bは、一部の実施形態に係る、電子デバイスを使用してライブビデオ通信セッションアプリケーションにビジュアルエフェクトを表示するための方法を示すフロー図である。方法1300は、表示装置を備えたデバイス(例えば、100、300、500、600)において実行される。方法1300におけるいくつかの動作は、任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 13A-13B are flow diagrams illustrating a method for displaying visual effects in a live video communication session application using an electronic device, according to some embodiments. Method 1300 is performed on a device (eg, 100, 300, 500, 600) that includes a display device. Some acts in method 1300 are optionally combined, the order of some acts optionally changed, and some acts optionally omitted.

以下に説明するように、方法1300は、ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための直感的な方法を提供する。この方法は、ビジュアルエフェクトを表示している際のユーザへの認知負担を軽減し、それによって、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ビジュアルエフェクトをユーザーがより迅速かつ効率的に表示できるようにすることで、電力を節約し、バッテリ充電間の時間を増大させる。 As described below, method 1300 provides an intuitive method for displaying visual effects in a live video communication session. This method reduces the cognitive burden on the user when displaying visual effects, thereby creating a more efficient human-machine interface. On battery-operated computing devices, enabling users to display visual effects more quickly and efficiently saves power and increases the time between battery charges.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、ライブビデオ通信アプリケーションのライブビデオ通信ユーザインタフェース(例えば、1200)を表示する(1302)。ライブビデオ通信ユーザインタフェースは、ライブビデオ通信セッションに参加している被写体の表現(例えば、1201)を含む(1304)。ライブビデオ通信セッションに参加している被写体の表現を含むことにより、ユーザは、ライブビデオ通信セッションの他の参加者(単数又は複数)を迅速かつ容易に認識することができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ライブビデオ通信セッションに参加している被写体の表現は、電子デバイスに関連付けられたカメラ(例えば、602)によってキャプチャされた画像データを含む(1306)。一部の実施形態では、被写体は電子デバイスのユーザである。一部の実施形態では、ライブビデオ通信セッションに参加している被写体の表現は、第2の電子デバイスから電子デバイスに伝送された画像データを含む。一部の実施形態では、第2の電子デバイスは別のユーザのデバイスであり、被写体は他のユーザである。 An electronic device (eg, 600) displays (1302) a live video communications user interface (eg, 1200) of a live video communications application via a display (eg, 601). The live video communications user interface includes a representation (eg, 1201) of a subject participating in a live video communications session (1304). Including representations of subjects participating in the live video communication session allows users to quickly and easily recognize other participant(s) in the live video communication session. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, a representation of a subject participating in a live video communication session includes image data captured by a camera (eg, 602) associated with an electronic device (1306). In some embodiments, the subject is a user of the electronic device. In some embodiments, the representation of the subject participating in the live video communication session includes image data transmitted from the second electronic device to the electronic device. In some embodiments, the second electronic device is another user's device and the subject is the other user.

一部の実施形態では、ライブビデオ通信ユーザインタフェース(例えば、1200)は、ライブビデオ通信セッションにおける第2の参加者の表現(例えば、1204)、及びライブビデオ通信セッションにおける第3の参加者の表現を更に含む。一部の実施形態では、ライブビデオ通信セッションにおける第2及び第3の参加者の表現の表示サイズが、参加者のすべての表現が画面上に収まるように調整される。第2及び第3の参加者の表現のサイズを画面に合わせるように調整することにより、ユーザは、ユーザの表現に適用されるビジュアルエフェクトに対する彼らの反応を同時に見ることができ、それによって(例えば、ユーザが手動入力なしに他の参加者の反応を容易に見ることを可能にすることにより)、デバイスの操作性を向上させ、ユーザデバイスインタフェースをより効率的にし、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力消費を低減し、装置のバッテリ寿命を改善する。 In some embodiments, a live video communications user interface (e.g., 1200) provides a representation of a second participant in a live video communications session (e.g., 1204) and a representation of a third participant in a live video communications session. further including. In some embodiments, the display size of the second and third participants' representations in the live video communication session is adjusted such that all of the participants' representations fit on the screen. By adjusting the size of the second and third participant's expressions to fit the screen, the user can simultaneously see their reactions to the visual effects applied to the user's expression, thereby (e.g. , by allowing the user to easily see the reactions of other participants without manual input), making the user-device interface more efficient, and in addition, allowing the user to interact with the device. Reduce power consumption and improve device battery life by enabling faster and more efficient use.

ライブビデオ通信ユーザインタフェース(例えば、1200)は、第1のアフォーダンス(例えば、1208、エフェクトアフォーダンス)(例えば、カメラエフェクトモード(例えば、様々なカメラエフェクトをライブビデオ通信セッション内のユーザの表現に適用できるモード)をアクティブ化するための機能に関連付けられたアフォーダンス)を含む(1308)。 A live video communication user interface (e.g., 1200) includes a first affordance (e.g., 1208, an effect affordance) (e.g., a camera effect mode (e.g., various camera effects can be applied to a user's representation within a live video communication session). mode) (1308).

一部の実施形態では、電子デバイス(例えば、600)は、第1のアフォーダンス(例えば、1208)を表示する前に、ライブビデオ通信ユーザインタフェース(例えば、1200)上の第1の入力(例えば、1205)(例えば、ビデオ通話オプションを表示するためのライブビデオ通信ユーザインタフェース上のタップジェスチャ)を検出し、この第1の入力は、ライブビデオ通信セッションに関連付けられた1つ以上のオプション(例えば、通話を終了するオプション、カメラビューを切り替えるオプションなど)を表示する要求に対応する。一部の実施形態では、電子デバイスは、第1の入力を検出したことに応じて、ライブビデオ通信セッションに関連付けられた1つ以上のオプション(例えば、1208、1210、1212)を表示する。一部の実施形態では、電子デバイスは、第1のアフォーダンス(例えば、1208)を表示する。 In some embodiments, the electronic device (e.g., 600) receives a first input (e.g., 1205) (e.g., a tap gesture on a live video communications user interface to display video call options), the first input detects one or more options (e.g., Respond to requests to display options (such as options to end a call, switch camera views, etc.). In some embodiments, the electronic device displays one or more options (eg, 1208, 1210, 1212) associated with the live video communication session in response to detecting the first input. In some embodiments, the electronic device displays a first affordance (eg, 1208).

電子デバイス(例えば、600)は、第1のアフォーダンス(例えば、1208)に向けられたジェスチャ(例えば、1213)を検出する(1310)。第1のアフォーダンスに向けられたジェスチャを検出する(1312)ことに応じて、電子デバイスはカメラエフェクトモードをアクティブ化する(1314)。 The electronic device (eg, 600) detects (1310) a gesture (eg, 1213) directed to the first affordance (eg, 1208). In response to detecting (1312) a gesture directed to the first affordance, the electronic device activates (1314) a camera effects mode.

一部の実施形態では、第1のアフォーダンス(例えば、1208)に向けられたジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、ビジュアルエフェクトの第1のタイプに関連付けられた第1のビジュアルエフェクトアフォーダンス、及びビジュアルエフェクトの第1のタイプとは異なるビジュアルエフェクトの第2のタイプに関連付けられた第2のビジュアルエフェクトアフォーダンス、並びに任意選択的に、ビジュアルエフェクトの第1のタイプ及びビジュアルエフェクトの第2のタイプとは異なる、ビジュアルエフェクトの第3のタイプに関連付けられた第3のビジュアル関連付けられたエフェクトアフォーダンス(例えば、ステッカーアフォーダンス1214-2、アバターアフォーダンス1214-1、フルスクリーンエフェクトにアフォーダンス)を表示する。一部の実施形態では、ステッカーアフォーダンスは、ステッカーがライブビデオ通信セッションに参加している被写体の表現内に表示されるビジュアルエフェクトに関連付けられている。一部の実施形態では、アバターアフォーダンスは、仮想アバターがライブビデオ通信セッションに参加している被写体の表現上に表示されるビジュアルエフェクトに関連付けられている。一部の実施形態では、フルスクリーンエフェクトは、ライブビデオ通信セッションの参加者の前、背後、及び/又はその上に、紙吹雪又は風船などのグラフィカルオブジェクトが表示されるビジュアルエフェクトを含む。 In some embodiments, in response to detecting the gesture directed to the first affordance (e.g., 1208), the electronic device (e.g., 600) causes the electronic device (e.g., 600) to provide a gesture directed to the first affordance (e.g., 1208). a second visual effect affordance associated with a second type of visual effect that is different from the first type of visual effect, and optionally a first type of visual effect and a visual effect affordance associated with a second type of visual effect that is different from the first type of visual effect; a third visual-associated effect affordance associated with a third type of visual effect that is different from the second type of effect (e.g., sticker affordance 1214-2, avatar affordance 1214-1, affordance for full-screen effects); ) is displayed. In some embodiments, the sticker affordance is associated with a visual effect in which the sticker is displayed within a representation of a subject participating in a live video communication session. In some embodiments, the avatar affordance is associated with a visual effect in which the virtual avatar is displayed on the representation of the subject participating in the live video communication session. In some embodiments, full screen effects include visual effects in which graphical objects, such as confetti or balloons, are displayed in front of, behind, and/or over participants in a live video communication session.

一部の実施形態では、電子デバイス(例えば、600)は、あるタイプのビジュアルエフェクトに関連付けられたアフォーダンス(例えば、ステッカーアフォーダンス1214-2、アバターアフォーダンス1214-1、フルスクリーンエフェクトに関連付けられたアフォーダンス)のうちの1つの選択(例えば、1215)を検出する。一部の実施形態では、ビジュアルエフェクトに関連付けられたアフォーダンスの選択を検出したことに応じて、電子デバイスは、ビジュアルエフェクトに対応する複数のビジュアルエフェクトオプション(1218)を表示する。ビジュアルエフェクトに関連付けられたアフォーダンスの選択を検出したことに応じて、ビジュアルエフェクトに対応する複数のビジュアルエフェクトオプションを表示することにより、ユーザは、対応するビジュアルエフェクトオプションに迅速かつ容易にアクセスすることができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ステッカーアフォーダンスは、静止グラフィカルオブジェクト(例えば、帽子、星、眼鏡など)の表現(例えば、ライブビデオ通信セッションに参加している被写体の表現)を画像データに表示することを含む、ビジュアルエフェクトに関連付けられる。一部の実施形態では、アバターアフォーダンスは、人の頭部の画像データが仮想アバターのグラフィック表現に置換されるように、仮想アバター(例えば、カスタマイズ可能な仮想アバター、又はカスタマイズ不可能な仮想アバター)の表現を表示することを含むビジュアルエフェクトと関連付けられる。一部の実施形態では、フルスクリーンエフェクトは、紙吹雪又は風船などのグラフィカルオブジェクトが、ライブビデオ通信セッションの参加者の前、背後、及び/又はその上に表示されるビジュアルエフェクトを含む。 In some embodiments, the electronic device (e.g., 600) has affordances associated with certain types of visual effects (e.g., sticker affordances 1214-2, avatar affordances 1214-1, affordances associated with full-screen effects). (eg, 1215). In some embodiments, in response to detecting the selection of an affordance associated with the visual effect, the electronic device displays a plurality of visual effect options (1218) corresponding to the visual effect. Displaying multiple visual effect options corresponding to the visual effect in response to detecting a selection of affordances associated with the visual effect allows the user to quickly and easily access the corresponding visual effect options. can. Improves device usability by providing additional control options without cluttering the user interface with additional visible controls, and improves the user device interface (e.g. by providing appropriate input when operating/interacting with the device). (by assisting users to provide better performance and reducing user errors), as well as reducing device power usage by allowing users to use their devices more quickly and efficiently. and improve battery life. In some embodiments, the sticker affordance allows a representation of a static graphical object (e.g., a hat, a star, glasses, etc.) to be displayed in the image data (e.g., a representation of a subject participating in a live video communication session). Contains, associated with visual effects. In some embodiments, the avatar affordances include a virtual avatar (e.g., a customizable virtual avatar or a non-customizable virtual avatar) such that image data of a person's head is replaced with a graphical representation of the virtual avatar. associated with visual effects that include displaying representations of. In some embodiments, full screen effects include visual effects in which graphical objects, such as confetti or balloons, are displayed in front of, behind, and/or over participants in a live video communication session.

電子デバイス(例えば、600)は、第1のアフォーダンスに向けられたジェスチャを検出すること(1312)に応じて、ライブビデオ通信セッションに参加している被写体の表現(例えば、1201)のサイズを増大させる(1316)。第1のアフォーダンスに向けられたジェスチャを検出すること(1312)に応じて、ライブビデオ通信セッションに参加している被写体の表現のサイズを増大させることにより、ユーザは、被写体の表現のサイズを迅速かつ容易に調整することができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、被写体の表現のサイズを増大することは、被写体の表示された表現の位置を、ライブビデオ通信セッションにおいて表示された参加者の位置に切り替えることを含む。 An electronic device (e.g., 600) increases the size of a representation (e.g., 1201) of a subject participating in a live video communication session in response to detecting (1312) a gesture directed to a first affordance. (1316). By increasing the size of the representation of the subject participating in the live video communication session in response to detecting 1312 a gesture directed to the first affordance, the user can quickly increase the size of the representation of the subject. and can be easily adjusted. Improves device usability by providing additional control options without cluttering the user interface with additional visible controls, and improves the user device interface (e.g. by providing appropriate input when operating/interacting with the device). (by assisting users to provide better performance and reducing user errors), as well as reducing device power usage by allowing users to use their devices more quickly and efficiently. and improve battery life. In some embodiments, increasing the size of the representation of the object includes switching the position of the displayed representation of the object to the position of the displayed participant in the live video communication session.

一部の実施形態では、カメラエフェクトモードがアクティブ化されている間に(1318)、電子デバイス(例えば、600)は、エフェクトオプションアフォーダンス(例えば、ライブビデオ通信セッションに参加している被写体の表現にビジュアルエフェクトを表示するための機能に関連付けられた選択可能なアイコン)の選択を検出する(1320)。一部の実施形態では、エフェクトオプションアフォーダンスは、ステッカーアフォーダンス、アバターアフォーダンス、又は紙吹雪若しくは風船などのフルスクリーンエフェクトに関連付けられたアフォーダンスである。 In some embodiments, while the camera effects mode is activated (1318), the electronic device (e.g., 600) selects an effect option affordance (e.g., for the representation of a subject participating in a live video communication session). A selection of a selectable icon associated with a function for displaying a visual effect is detected (1320). In some embodiments, the effect option affordance is a sticker affordance, an avatar affordance, or an affordance associated with a full screen effect, such as confetti or balloons.

一部の実施形態では、エフェクトオプションアフォーダンスの選択を検出したことに応じて、電子デバイスは、ライブビデオ通信セッションに参加している被写体の表現の外観を、選択されたエフェクトオプションアフォーダンスに関連付けられたビジュアルエフェクト(例えば、ステッカー、アバター、又はフルスクリーンエフェクトを表示すること)に基づいて変更する(1322)。選択されたエフェクトオプションアフォーダンスに関連付けられたビジュアルエフェクトに基づいて、ライブビデオ通信セッションに参加している被写体の表現の外観を変更することにより、選択されたビジュアルエフェクトの適用が成功したという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ステッカーアフォーダンスの選択を検出すること応じて、ライブビデオ通信セッションに参加しているユーザーの表現が、選択されたステッカーを表示するように変更される。一部の実施形態では、アバターアフォーダンスの選択を検出すること応じて、ライブビデオ通信セッションに参加しているユーザーの表現が、ユーザの顔に位置するアバターを表示するように変更される。一部の実施形態では、フルスクリーンエフェクトに関連付けられたアフォーダンスの選択を検出することに応じて、フルスクリーンエフェクトが、ライブビデオ通信セッションに参加しているユーザの表現に表示される(例えば、紙吹雪が、ユーザの表現の前、背後、及びその上に落ちていくように表示される)。 In some embodiments, in response to detecting the selection of the effect option affordance, the electronic device changes the appearance of the representation of the subject participating in the live video communication session to the appearance associated with the selected effect option affordance. Modify 1322 based on visual effects (eg, displaying stickers, avatars, or full-screen effects). Provides visual feedback that the application of the selected visual effect was successful by changing the appearance of the representation of subjects participating in a live video communication session based on the visual effect associated with the selected effect option affordance. provide. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, in response to detecting a selection of a sticker affordance, a representation of a user participating in a live video communication session is altered to display the selected sticker. In some embodiments, in response to detecting a selection of an avatar affordance, a representation of a user participating in a live video communication session is changed to display an avatar positioned on the user's face. In some embodiments, a full screen effect is displayed on a representation of a user participating in a live video communication session (e.g., a paper A snowstorm is displayed falling in front of, behind, and on top of the user's expression).

一部の実施形態では、電子デバイス(例えば、600)は、ライブビデオ通信ユーザインタフェース(例えば、1200)上の、ライブビデオ通信セッションに参加している被写体の表現のサイズを縮小する要求に対応する第2の入力を検出する。一部の実施形態では、第2の入力を検出したことに応じて、電子デバイスは、選択されたエフェクトオプションアフォーダンスに関連付けられたビジュアルエフェクトに基づく変更された外観を有する、ライブビデオ通信セッションに参加している被写体の表現と、ライブビデオ通信セッションにおけるそれぞれの参加者の1つ以上の表現と、同時に表示する。第2の入力を検出したことに応じて、ライブビデオ通信セッションに参加している被写体の表現と、ライブビデオ通信セッションのそれぞれの参加者の1つ以上の表現とを同時に表示することにより、ユーザは、ライブビデオ通信の他の参加者を迅速かつ容易に(同時に)視認することができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ライブビデオ通信セッションにおけるユーザの表現が、ライブビデオ通信セッションにおける他の参加者の表現と共に画面上に表示されるように、縮小される。 In some embodiments, the electronic device (e.g., 600) is responsive to a request to reduce the size of a representation of a subject participating in a live video communication session on a live video communication user interface (e.g., 1200). Detecting a second input. In some embodiments, in response to detecting the second input, the electronic device participates in a live video communication session having an altered appearance based on a visual effect associated with the selected effect option affordance. and one or more representations of each participant in the live video communication session. in response to detecting the second input, the user by simultaneously displaying a representation of the subject participating in the live video communication session and one or more representations of each participant in the live video communication session; can quickly and easily (simultaneously) view other participants in a live video communication. Improves device usability by providing additional control options without cluttering the user interface with additional visible controls, and improves the user device interface (e.g. by providing appropriate input when operating/interacting with the device). (by assisting users to provide better performance and reducing user errors), as well as reducing device power usage by allowing users to use their devices more quickly and efficiently. and improve battery life. In some embodiments, the user's representation in the live video communication session is scaled down to be displayed on the screen along with the representations of other participants in the live video communication session.

一部の実施形態では、カメラエフェクトモードがアクティブ化されている間に(1318)、電子デバイス(例えば、600)は、ライブビデオ通信セッションに参加している被写体の表現(例えば、1201)の外観を変更して(1324)1つ以上のビジュアルエフェクトを表示する。一部の実施形態では、ビジュアルエフェクトがステッカーエフェクトである場合、ライブビデオ通信セッションに参加している被写体の表現の外観は、静的なグラフィカルオブジェクト(例えば、ステッカー)の表示を含むように変更される。一部の実施形態では、静的グラフィカルオブジェクト(例えば、ステッカー)は、ライブビデオ通信セッションに参加している被写体の表現と対話する。一部の実施形態では、ビジュアルエフェクトがアバターエフェクトである場合、ライブビデオ通信セッションに参加している被写体の表現の外観は、被写体の頭部を置換する仮想アバター(例えば、カスタマイズ可能な仮想アバター、又はカスタマイズ不可能な仮想アバター)の表現を表示するように変更される。一部の実施形態では、ビジュアルエフェクトがフルスクリーンエフェクトである場合、ライブビデオ通信セッションに参加している被写体の表現の外観は、ライブビデオ通信セッションの参加者の前、背後、及び/又はその上に表示されるグラフィカルオブジェクト(例えば、グラフィックな紙吹雪、又はグラフィックな風船)を表示するように変更される。 In some embodiments, while the camera effects mode is activated (1318), the electronic device (e.g., 600) controls the appearance of the representation (e.g., 1201) of the subject participating in the live video communication session. (1324) to display one or more visual effects. In some embodiments, if the visual effect is a sticker effect, the appearance of the representation of the subject participating in the live video communication session is changed to include the display of a static graphical object (e.g., a sticker). Ru. In some embodiments, a static graphical object (eg, a sticker) interacts with a representation of a subject participating in a live video communication session. In some embodiments, when the visual effect is an avatar effect, the appearance of the representation of the subject participating in the live video communication session is a virtual avatar that replaces the subject's head (e.g., a customizable virtual avatar, or a non-customizable virtual avatar). In some embodiments, when the visual effect is a full-screen effect, the appearance of the representation of the subject participating in the live video communication session is in front of, behind, and/or above the participant in the live video communication session. is modified to display a graphical object (eg, graphic confetti or graphic balloon) that is displayed on the screen.

一部の実施形態では、変更された外観は、ライブビデオ通信セッションの他の参加者に送信/伝送される。一部の実施形態では、データを送信することは、選択されたビジュアルエフェクトに基づいて行われた変更を表すデータ(例えば、別個のデータ)と一緒に、画像データ(例えば、カメラの視野からの画像データのリアルタイムストリーム)を送信することを含む。一部の実施形態では、データを送信することは、選択されたビジュアルエフェクトに基づいて行われた変更を表すデータと結合されたカメラの視野からの画像データを含む、コンポジットビデオデータを送信することを含む。 In some embodiments, the modified appearance is sent/transmitted to other participants in the live video communication session. In some embodiments, transmitting the data includes image data (e.g., from the camera's field of view) along with data (e.g., separate data) representing changes made based on the selected visual effect. (a real-time stream of image data). In some embodiments, transmitting the data includes transmitting composite video data that includes image data from the camera's field of view combined with data representing changes made based on the selected visual effect. including.

一部の実施形態では、カメラエフェクトモードがアクティブ化されている間に、電子デバイス(例えば、600)は、ライブビデオ通信セッションに参加している被写体の表現(例えば、1200)の外観を変更して仮想アバターを表示する。一部の実施形態では、電子デバイスは、電子デバイスの1つ以上のカメラ(例えば、602)の視野内の顔の変化を検出する。一部の実施形態では、電子デバイスは、顔の検出された変化に基づいて、仮想アバターの外観を変更する。顔の検出された変化に基づいて仮想アバターの外観を変更することにより、仮想アバターが顔に基づいている/関連付けられているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、仮想アバターは、ライブビデオ通信セッションに参加している被写体の動きを反映するように変更される。一部の実施形態では、顔の変化は、本明細書で論じるように、1つ以上の深度カメラ及び/又は深度マップを使用して検出される。 In some embodiments, while the camera effects mode is activated, the electronic device (e.g., 600) changes the appearance of the representation (e.g., 1200) of the subject participating in the live video communication session. to display a virtual avatar. In some embodiments, the electronic device detects changes in the face within the field of view of one or more cameras (eg, 602) of the electronic device. In some embodiments, the electronic device changes the appearance of the virtual avatar based on the detected change in the face. Changing the appearance of the virtual avatar based on detected changes in the face provides visual feedback that the virtual avatar is face-based/associated. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the virtual avatar is modified to reflect the movements of the subject participating in the live video communication session. In some embodiments, facial changes are detected using one or more depth cameras and/or depth maps, as discussed herein.

一部の実施形態では、カメラエフェクトモードがアクティブ化されている間に、電子デバイス(例えば、600)は、ライブビデオ通信セッションに参加している被写体の表現に第1のビジュアルエフェクト(例えば、ステッカー)を表示する。一部の実施形態では、電子デバイスは、第1のビジュアルエフェクトに対応する入力(例えば、タッチ入力)を検出する。一部の実施形態では、第1のビジュアルエフェクトに対応する入力を検出したことに応じて、入力が第1のタイプ(例えば、タッチアンドドラッグジェスチャ)であるとの判定に従って、電子デバイスは、大きさ(例えば、ジェスチャが移動する距離)及び入力の方向に基づいて、ライブビデオ通信セッションに参加している被写体の表現における第1のビジュアルエフェクトの位置を変更する。一部の実施形態では、第1のビジュアルエフェクトに対応する入力を検出したことに応じて、入力が第2のタイプ(例えば、ピンチ又はデピンチジェスチャ)であるとの判定に従って、電子デバイスは、入力の大きさ(例えば、ピンチ/デピンチジェスチャの接触点間の調整された距離)に基づいて、第1のビジュアルエフェクトのサイズを変更する。入力の大きさに基づいてライブビデオ通信セッションに参加している被写体の表現における第1のビジュアルエフェクトの位置を変更するか、又は入力のタイプに基づく入力の大きさ(例えば、ピンチ/デピンチジェスチャの接触点間の調整された距離)に基づいて第1のビジュアルエフェクトのサイズを変更することにより、ユーザは、(入力のタイプを単に変更することによって)ビジュアルエフェクトの位置又はサイズを迅速かつ容易に調整することができる。操作を行うために必要な入力の数を低減することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, while the camera effects mode is activated, the electronic device (e.g., 600) applies a first visual effect (e.g., a sticker) to the representation of the subject participating in the live video communication session. ) is displayed. In some embodiments, the electronic device detects input (eg, touch input) corresponding to the first visual effect. In some embodiments, in response to detecting the input corresponding to the first visual effect and determining that the input is of the first type (e.g., a touch-and-drag gesture), the electronic device causes the electronic device to make a large repositioning the first visual effect in the representation of the subject participating in the live video communication session based on the direction of the input (e.g., the distance the gesture moves) and the direction of the input; In some embodiments, in response to detecting an input corresponding to the first visual effect and determining that the input is of a second type (e.g., a pinch or de-pinch gesture), the electronic device: The first visual effect is resized based on the magnitude of the input (e.g., adjusted distance between contact points of a pinch/de-pinch gesture). Change the position of the first visual effect in the representation of a subject participating in a live video communication session based on the size of the input, or change the size of the input based on the type of input (e.g. pinch/de-pinch gestures) By resizing the first visual effect (based on the adjusted distance between the contact points), the user can quickly and easily change the position or size of the visual effect (by simply changing the type of input). can be adjusted to Improves device usability by reducing the number of inputs required to perform an operation, and improves the user-device interface (e.g. by assisting the user in providing appropriate inputs when operating/interacting with the device) In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. do.

一部の実施形態では、第1のビジュアルエフェクトの位置を変更することは、以下の手順のうちの1つ以上を含む。入力(例えば、889)の終了を検出する前に、入力の大きさ及び方向に基づいて第1のビジュアルエフェクト(例えば、858-4)の動きを表示すること、第1のビジュアルエフェクト(例えば、ステッカー(858-4))が所定の位置(例えば、被写体の表情の一部(例えば、被写体の顔)に対応する位置)の境界領域を横切って移動したという判定に従って、第1のビジュアルエフェクトが境界領域を横切った(例えば、横切っている)というインジケーションを生成する(例えば、ブラケットを表示する(例えば、890)、又は触覚応答(例えば、892)を生成する)こと(例えば、図8BGに示すように、被写体の顔の表現の回りにブラケットを表示する)。一部の実施形態では、所定の位置の境界領域内に交差しているとき(又は後に)、デバイスは所定の位置の周囲にブラケットを表示し、及び/又は触覚フィードバック(例えば、触知出力)を生成して、ステッカーが被写体の顔に配置され、ジェスチャの終了時に被写体の顔に配置されることになる(例えば、ステッカーが被写体の顔の表現との関係を有することになる、例えば、ステッカーがユーザーの顔とのステッカーの関係に基づく挙動を有することになる)ことを示す。一部の実施形態では、所定の位置の境界領域外へ交差しているとき(又は後に)、デバイスは、所定の位置の周囲にブラケットを表示し、及び/又はステッカーがもはや被写体の顔に配置されていないことを示す触覚フィードバックを生成し、ジェスチャが終了しても被写体の顔に配置されることはない(例えば、ステッカーが被写体の顔の表現と異なる関係を有することになる、例えば、ステッカーは、ユーザーの顔に対するステッカーの関係に基づいて異なる挙動を有することになる、例えば、ステッカーは被写体の顔から離れた位置に配置されることになる)ことを示す。一部の実施形態では、インジケーションは、触覚フィードバック(例えば、触知出力及び/若しくは音声出力)、又は視覚フィードバック(例えば、境界領域の視覚的表現、所定位置の周囲に表示されるブラケット)のうちの少なくとも1つである。 In some embodiments, changing the position of the first visual effect includes one or more of the following steps. displaying movement of the first visual effect (e.g., 858-4) based on the magnitude and direction of the input before detecting the end of the input (e.g., 889); The first visual effect is performed according to the determination that the sticker (858-4)) has moved across a boundary area of a predetermined position (for example, a position corresponding to a part of the subject's facial expression (for example, the subject's face)). Generating an indication (e.g., displaying a bracket (e.g., 890) or generating a tactile response (e.g., 892)) that the boundary region has been crossed (e.g., is being crossed) (e.g., in FIG. 8BG) Display brackets around the subject's facial expression, as shown). In some embodiments, when (or after) intersecting within the bounding area of the predetermined location, the device displays brackets around the predetermined location and/or provides haptic feedback (e.g., tactile output). , the sticker will be placed on the subject's face and will be placed on the subject's face at the end of the gesture (e.g. the sticker will have a relationship with the representation of the subject's face, e.g. the sticker will be placed on the subject's face) will have behavior based on the sticker's relationship to the user's face). In some embodiments, when (or after) a predetermined location crosses out of the bounds area, the device displays a bracket around the predetermined location and/or the sticker is no longer placed on the subject's face. generates haptic feedback to indicate that the gesture is not placed on the subject's face when the gesture is finished (e.g., the sticker will have a different relationship to the subject's facial expression, e.g. the sticker will not be placed on the subject's face). indicates that the sticker will have different behavior based on the relationship of the sticker to the user's face; for example, the sticker will be placed further away from the subject's face). In some embodiments, the indication includes haptic feedback (e.g., tactile and/or audio output) or visual feedback (e.g., a visual representation of a bounding area, a bracket displayed around a predetermined location). At least one of them.

第1のビジュアルエフェクトが境界領域を横切った(又は、横切っている)というインジケーションを生成することにより、ユーザにジェスチャを終了させてモデル化された挙動を試みることを要求することなく、ステッカーの挙動及び配置が変更されたという視覚フィードバック及び/又は触覚を、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 By generating an indication that the first visual effect has crossed (or is crossing) the bounding area, the sticker can be removed without requiring the user to end the gesture and attempt the modeled behavior. Provide visual feedback and/or tactile sensation to the user that behavior and placement have changed. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、第1のビジュアルエフェクトの位置を変更することは、第1の位置から第2の位置へ、第1のビジュアルエフェクトの動きを表示することを含む。一部の実施形態では、第1のビジュアルエフェクトのサイズを変更することは、第1の表示サイズから第2の表示サイズへ、第1のビジュアルエフェクトの遷移を表示することを含む。一部の実施形態では、ステッカーがディスプレイ上で動かされているか、又はサイズ変更される場合、ユーザ及びライブビデオ通信セッションの他の参加者が、ステッカーが変更されているときの中間の移動/サイズ変更を含む変更を見ることができるように、ステッカーの移動及び/又はサイズ変更が表示される。 In some embodiments, changing the position of the first visual effect includes displaying movement of the first visual effect from the first position to the second position. In some embodiments, resizing the first visual effect includes displaying a transition of the first visual effect from a first display size to a second display size. In some embodiments, when a sticker is moved or resized on a display, the user and other participants in the live video communication session may be able to see the intermediate movement/resizing of the sticker as it is being changed. Moving and/or resizing the sticker is displayed so that the changes, including the changes, can be seen.

一部の実施形態では、第1のビジュアルエフェクトの位置を変更することは、中間位置で現れる第1のビジュアルエフェクトを表示することなく、第1の位置での出現から第2の位置での出現へ、第1のビジュアルエフェクトを遷移させることを含む。一部の実施形態では、第1のビジュアルエフェクトのサイズを変更することは、中間サイズを有する第1のビジュアルエフェクトを表示することなく、第1の表示サイズから第2の表示サイズへ、第1のビジュアルエフェクトを遷移させることを含む。一部の実施形態では、ステッカーをディスプレイ上で動かされているか、又はサイズ変更している間に、ステッカーの移動及び/又はサイズ変更が表示され、ユーザのみが、ステッカーが変更されているときの中間の移動/サイズ変更を含む変化を見ることができるが、ライブビデオ通信セッションの他の参加者は、ステッカーの中間の動き/サイズ変更を見ることができない。このように、他の参加者は、変更後のステッカー(又は、ステッカーへの更新)のみを見る。 In some embodiments, changing the position of the first visual effect includes changing the position from the first visual effect to the second position without displaying the first visual effect appearing at the intermediate position. and transitioning the first visual effect to the first visual effect. In some embodiments, resizing the first visual effect includes changing the size of the first visual effect from the first display size to the second display size without displaying the first visual effect having an intermediate size. including transitioning visual effects. In some embodiments, while the sticker is being moved or resized on the display, the movement and/or resizing of the sticker is visible and only the user can see when the sticker is being changed. Changes, including intermediate movements/resizes, can be seen, but other participants in the live video communication session cannot see intermediate movements/resizes of the sticker. In this way, other participants only see the modified sticker (or updates to the sticker).

一部の実施形態では、複数の参加者がライブビデオ通信セッションに参加しており、複数の参加者は、被写体(例えば、電子デバイスのユーザ)及び第1の遠隔参加者(例えば、第1の電子デバイスから離れた第2の電子デバイスのユーザ)を含む。一部の実施形態では、ライブビデオ通信ユーザインタフェース(例えば、1200)は、第1の遠隔参加者の表現を更に含む。一部の実施形態では、第1の遠隔参加者の表現は、遠隔デバイス/遠隔カメラから受信した画像データ又はビデオデータを含む。一部の実施形態では、電子デバイスは、第1のアフォーダンスに向けられたジェスチャを検出したことに更に応じて、第1の遠隔参加者の表現のサイズを縮小する。 In some embodiments, multiple participants are participating in a live video communication session, and the multiple participants include a subject (e.g., a user of an electronic device) and a first remote participant (e.g., a first remote participant). a user of a second electronic device remote from the electronic device). In some embodiments, the live video communications user interface (eg, 1200) further includes a representation of the first remote participant. In some embodiments, the first remote participant's representation includes image or video data received from a remote device/remote camera. In some embodiments, the electronic device reduces the size of the first remote participant's representation further in response to detecting the gesture directed to the first affordance.

一部の実施形態では、複数の参加者がライブビデオ通信セッションに参加しており、複数の参加者は、被写体(例えば、電子デバイスのユーザ)及び第1の遠隔参加者(例えば、第1の電子デバイスから離れた第2の電子デバイスのユーザ)を含み、被写体の表現は、電子デバイス(例えば、600)のカメラ(例えば、602)の視野のライブプレビュー(例えば、カメラの視野内にあるものを表す画像データのストリーム)である。一部の実施形態では、電子デバイスは、選択されたエフェクトオプションアフォーダンスに関連付けられたビジュアルエフェクトに基づいてライブビデオ通信セッションに参加している被写体の表現(例えば、1201)の外観を変更した後、ライブビデオ通信セッションに参加している被写体の表現の変更された外観に対応するデータを、複数の参加者のうちの少なくとも遠隔参加者に伝送する。一部の実施形態では、データを送信することは、選択されたビジュアルエフェクトに基づいて行われた変更を表すデータ(例えば、別個のデータ)と一緒に、画像データ(例えば、カメラの視野からの画像データのリアルタイムストリーム)を送信することを含む。一部の実施形態では、データを送信することは、選択されたビジュアルエフェクトに基づいて行われた変更を表すデータと結合されたカメラの視野からの画像データを含む、コンポジットビデオデータを送信することを含む。 In some embodiments, multiple participants are participating in a live video communication session, and the multiple participants include a subject (e.g., a user of an electronic device) and a first remote participant (e.g., a first remote participant). a user of a second electronic device remote from the electronic device), and the representation of the subject includes a live preview of the field of view of the camera (e.g., 602) of the electronic device (e.g., 600) (e.g., what is within the field of view of the camera) is a stream of image data representing In some embodiments, the electronic device changes the appearance of a representation (e.g., 1201) of a subject participating in a live video communication session based on a visual effect associated with the selected effects option affordance; Data corresponding to an altered appearance of a representation of a subject participating in a live video communication session is transmitted to at least a remote participant of the plurality of participants. In some embodiments, transmitting the data includes image data (e.g., from the camera's field of view) along with data (e.g., separate data) representing changes made based on the selected visual effect. (a real-time stream of image data). In some embodiments, sending the data includes sending composite video data that includes image data from the camera's field of view combined with data representing changes made based on the selected visual effect. including.

一部の実施形態では、電子デバイス(例えば、600)は、第1アフォーダンスなしでライブビデオ通信ユーザインタフェース(例えば、1200)を表示する。一部の実施形態では、電子デバイスは、ライブビデオ通信ユーザインタフェース(例えば、1206)上のタッチ入力(例えば、ビデオコールオプションを表示するライブビデオ通信ユーザインタフェース上のタップジェスチャ)を検出する。一部の実施形態では、タッチ入力を検出したことに応じて、カメラエフェクトモードがアクティブ化されているとの判定に従って、電子デバイスは、第1のアフォーダンスと複数のビジュアルエフェクトアフォーダンス(例えば、ステッカーアフォーダンス、アバターアフォーダンス、フルスクリーンエフェクトに関連付けられたアフォーダンス)とを含むライブビデオ通信オプションユーザインタフェースを表示する。一部の実施形態では、タッチ入力を検出したことに応じて、カメラエフェクトモードがアクティブ化されていないとの判定に従って、電子デバイスは、第1のアフォーダンスを含み、かつ、複数のビジュアルエフェクトアフォーダンスを除く、ライブビデオ通信オプションユーザインタフェースを表示する。第1のアフォーダンスを含み、及び複数のビジュアルエフェクトアフォーダンスを含むか、又は複数のビジュアルエフェクトアフォーダンスを除外するかのいずれかの、ライブビデオ通信オプションユーザーインタフェースを表示することにより、カメラエフェクトモードがアクティブ化されているか否かの判定に基づいて、カメラエフェクトモードが現在アクティブ化されているか否かを示す。更なるユーザ入力を必要とせずに、条件のセットが満たされたときに操作を行うことにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) displays a live video communications user interface (eg, 1200) without the first affordance. In some embodiments, the electronic device detects a touch input (e.g., a tap gesture on the live video communications user interface displaying a video call option) on the live video communications user interface (e.g., 1206). In some embodiments, in response to detecting a touch input and determining that a camera effects mode is activated, the electronic device selects a first affordance and a plurality of visual effects affordances (e.g., a sticker affordance). , avatar affordances, and affordances associated with full-screen effects). In some embodiments, in response to detecting the touch input and determining that the camera effects mode is not activated, the electronic device includes the first affordance and the plurality of visual effects affordances. Except to display the live video communication option user interface. A camera effects mode is activated by displaying a live video communication options user interface that includes a first affordance and either includes a plurality of visual effects affordances or excludes a plurality of visual effects affordances. Based on the determination of whether the camera effect mode is currently activated. Performing an operation when a set of conditions is met without requiring further user input improves the usability of the device and improves the user device interface (e.g. when operating/interacting with the device (by assisting the user in providing input and reducing user errors), as well as by allowing the user to use the device more quickly and efficiently. Reduce usage and improve battery life.

方法1300に関して上述された処理(例えば、図13A~図13B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1300に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、メッセージングアプリケーションユーザインタフェースにおいて画像データに表示される。別の例では、方法900は、方法1300に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラユーザインタフェースにおいて画像データに表示される。別の例では、方法1100は、方法1300に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、メディアユーザインタフェースにおいて画像データに表示される。別の例では、方法1500は、方法1300に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラユーザインタフェースに対して画像データに表示される。簡潔にするために、これらの詳細は、以下では繰り返さない。 Note that the processing details described above with respect to method 1300 (eg, FIGS. 13A-13B) are also applicable in a similar manner to the methods described above and below. For example, method 700 optionally includes one or more of the various method characteristics described above with respect to method 1300. For example, visual effects such as stickers and virtual avatars are displayed on image data in a messaging application user interface. In another example, method 900 optionally includes one or more of the various method characteristics described above with respect to method 1300. For example, visual effects such as stickers and virtual avatars are displayed on the image data at the camera user interface. In another example, method 1100 optionally includes one or more of the various method characteristics described above with respect to method 1300. For example, visual effects such as stickers and virtual avatars are displayed on the image data in the media user interface. In another example, method 1500 optionally includes one or more of the various method characteristics described above with respect to method 1300. For example, visual effects such as stickers and virtual avatars are displayed on the image data to the camera user interface. For the sake of brevity, these details are not repeated below.

図14A~図14Mは、一部の実施形態に係る、カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図15A~図15Bにおける処理を含む、以下で説明する処理を例示するために使用される。 14A-14M illustrate example user interfaces for displaying visual effects in a camera application, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 15A-15B.

図14Aは、図8A~図8BQに関して上述したカメラアプリケーションユーザインタフェース815と同様の、カメラアプリケーションユーザインタフェース1405の実施形態を示す。カメラアプリケーションユーザインタフェース1405は、例えば、カメラ(例えば、背面カメラ又はカメラ602)の視野内に位置するオブジェクトを表すストリーミングされた画像データ(例えば、ライブカメラプレビュー、ライブカメラ記録、若しくはライブビデオ通信セッション)、又は、例えば写真若しくはビデオ録画などのメディアアイテム、などの画像データの表現を表示する(画像表示領域820と同様の)画像表示領域1420を含む。図14Aに示す実施形態では、画像表示領域1420は、カメラ602からのライブカメラプレビュー1420-1を示す。 FIG. 14A shows an embodiment of a camera application user interface 1405 similar to camera application user interface 815 described above with respect to FIGS. 8A-8BQ. Camera application user interface 1405 may, for example, display streamed image data (e.g., live camera previews, live camera recordings, or live video communication sessions) representing objects located within the field of view of a camera (e.g., rear camera or camera 602). , or includes an image display area 1420 (similar to image display area 820) that displays a representation of image data, such as, for example, a media item such as a photo or a video recording. In the embodiment shown in FIG. 14A, image display area 1420 shows a live camera preview 1420-1 from camera 602.

図14Aに示す実施形態は、図8Fに示すものと同様である。画像表示領域1420は、カメラ602の視野内に位置する被写体1422の表現、及び被写体1422の表現の背後に表示される背景1426を示す。本明細書で論じるように、一部の実施形態では、カメラ602を使用してキャプチャされた画像データは、カメラ602の視野内のオブジェクトの深度を決定するために使用され得る深度データを含む。一部の実施形態では、デバイス600は、検出されたこれらのオブジェクトの深度に基づいてオブジェクト(例えば、画像データ内の)を解析し、この判定を使用して、本明細書で論じるビジュアルエフェクトを適用する。例えば、デバイス600は、被写体1422の表現をライブカメラプレビュー1420-1の前景にあるものとして、ユーザの背後に位置するオブジェクトをライブカメラプレビュー1420-1の背景にあるものとして、分類することができる。これらの背景オブジェクトは、ここでは背景1426と総称する。 The embodiment shown in FIG. 14A is similar to that shown in FIG. 8F. Image display area 1420 shows a representation of a subject 1422 located within the field of view of camera 602 and a background 1426 displayed behind the representation of subject 1422. As discussed herein, in some embodiments, image data captured using camera 602 includes depth data that can be used to determine the depth of objects within the field of view of camera 602. In some embodiments, device 600 analyzes objects (e.g., within image data) based on the detected depth of these objects and uses this determination to create the visual effects discussed herein. Apply. For example, device 600 may classify a representation of subject 1422 as being in the foreground of live camera preview 1420-1 and an object located behind the user as being in the background of live camera preview 1420-1. . These background objects are collectively referred to herein as background 1426.

図14A及び図14Bでは、被写体1422の表記は帽子1423を着用して示され、ひさしが被写体1422の前に突き出ており、被写体1422の表現上にアバターは表示されない。デバイス600は、画像表示領域1420に仮想アバターを表示するように選択できるアバターオプション1410を有するアバターオプションメニュー1408(アバターオプションメニュー828と同様)を表示する。 In FIGS. 14A and 14B, the representation of the subject 1422 is shown wearing a hat 1423, the eaves protrude in front of the subject 1422, and no avatar is displayed on the representation of the subject 1422. Device 600 displays avatar options menu 1408 (similar to avatar options menu 828) having avatar options 1410 that can be selected to display a virtual avatar in image display area 1420.

図14Bでは、デバイス600は、アバターオプション1410-1上の入力1411を検出する。それに応じて、図14Cでは、デバイス600は、選択領域1429にアバターオプション1410-1を表示し、アバターオプション1410-1が選択されていることを示す触覚フィードバック1412(例えば、音声出力を含む又は含まない触知出力)を生成する。 In FIG. 14B, device 600 detects input 1411 on avatar option 1410-1. Accordingly, in FIG. 14C, device 600 displays avatar option 1410-1 in selection area 1429 and displays haptic feedback 1412 (e.g., includes or includes audio output) indicating that avatar option 1410-1 is selected. (no tactile output).

図14Cに示すように、デバイス600はまた、選択されたアバターオプション1410-1に対応する仮想アバター1421を表示するためにライブカメラプレビュー1420-1を更新する。アバター1421は、被写体1422及び背景1426の表現の他の部分の表示を維持しながら、被写体の帽子1423を含む被写体1422の表現の一部を重ね合わせられて表示される。図14A~図14Kに示すように、デバイス600は、(例えば、被写体の検出された動きに基づいて)被写体1422の表現及びアバター1421に対して判定された空間的関係に応じて、アバター1421を動的に変更して、アバター1421の特定の部分を隠すか又は表示する。これによって、アバター1421の外観が、被写体1422の表現の頭部上に物理的に配置される。 As shown in FIG. 14C, device 600 also updates live camera preview 1420-1 to display virtual avatar 1421 corresponding to selected avatar option 1410-1. The avatar 1421 is displayed with a portion of the representation of the subject 1422 superimposed thereon, including the subject's hat 1423, while maintaining the display of other portions of the representation of the subject 1422 and the background 1426. As shown in FIGS. 14A-14K, device 600 displays avatar 1421 in response to a representation of subject 1422 and a determined spatial relationship for avatar 1421 (e.g., based on detected motion of the subject). Dynamically change to hide or display certain portions of avatar 1421. This physically places the appearance of avatar 1421 on the head of the representation of subject 1422.

一部の実施形態では、アバター1421の動的変更は、カメラ602の視野内のオブジェクト(被写体(被写体1422の表現に対応する)及び背景(背景1426に対応する)を含む)の初期深度マップをキャプチャするために、1つ以上の深度センサ(例えば、深度カメラセンサ175)を使用して達成される。次いで、初期深度マップが変更され(例えば、初期深度マップのぼかし、フェーディング、又は平滑化遷移のうちの1つ以上を使用して)、アバターの表示部分と非表示部分との間の突然の遷移のインスタンスを減少させる。これにより、特に、アバターの様々な部分が被写体の動きに応じて隠され又は表示されるので、より流動的でアバター1421の動的外観を提供する。 In some embodiments, the dynamic modification of avatar 1421 changes the initial depth map of objects within the field of view of camera 602, including the subject (corresponding to the representation of subject 1422) and the background (corresponding to background 1426). This is accomplished using one or more depth sensors (eg, depth camera sensor 175) to capture. The initial depth map is then modified (e.g., using one or more of blurring, fading, or smoothing transitions in the initial depth map) to eliminate abrupt transitions between visible and hidden portions of the avatar. Reduce instances of transitions. This provides a more fluid and dynamic appearance of the avatar 1421, especially since different parts of the avatar are hidden or displayed depending on the subject's movement.

図14Cでは、アバター1421は、アバター頭部の下方に位置して被写体の首部の表現上に表示される影1430を含み、被写体1422の表現上のアバター1421の存在によって投影された影を表す。一部の実施形態では、影1430の位置は、アバターの形状、並びに被写体1422の表現、アバター1421、及び光源(例えば、カメラ602の視野内で検出された光源、又はシミュレーションされた光源)の相対位置に基づいて決定される。 In FIG. 14C, avatar 1421 includes a shadow 1430 positioned below the avatar's head and displayed on the representation of the subject's neck, representing the shadow cast by the presence of avatar 1421 on the representation of subject 1422. In some embodiments, the position of shadow 1430 is determined relative to the shape of the avatar and the representation of subject 1422, avatar 1421, and a light source (e.g., a light source detected within the field of view of camera 602, or a simulated light source). Determined based on location.

デバイス600は、被写体の肩の表現の前及び背後に垂れ下がった長い髪部を有するアバター1421を表示する。被写体の肩の表現に対する髪部の特定の部分の位置は、被写体1422の表現(及び被写体1422の表現の特定の部分(例えば、被写体の首部及び/又は肩の表現))の深度位置に対するアバター1421(アバター髪部を含む)の空間的位置を示す深度データに基づいて決定される。一部の実施形態では、動的に表示されるアバターの部分(例えば、アバターの一部は、被写体1422の表現との空間的関係に応じて表示又は非表示のいずれかとすることができる)は、被写体1422の表現に隣接する位置においてブレンドエフェクト1432を有するように示される。このブレンドエフェクトは、アバターの部分と被写体1422の表現との間の表示された遷移を滑らかにする。 The device 600 displays an avatar 1421 with long hair hanging in front of and behind a representation of the subject's shoulders. The position of a specific part of the hair with respect to the representation of the subject's shoulders is determined by the avatar 1421 relative to the depth position of the representation of the subject 1422 (and the particular part of the representation of the subject 1422 (e.g., the representation of the subject's neck and/or shoulders)). (including the avatar's hair) based on depth data indicating the spatial position of the avatar. In some embodiments, portions of the avatar that are dynamically displayed (e.g., portions of the avatar may be either visible or invisible depending on their spatial relationship to the representation of the subject 1422) , is shown having a blending effect 1432 at a location adjacent to the representation of the subject 1422. This blending effect smooths the displayed transition between portions of the avatar and the representation of the subject 1422.

デバイス600は、被写体の頭部と顔の検出された変化に応じて、アバター1421を変更する。例えば、図14D~図14Fに示すように、デバイス600は、ウインクして笑顔になりながら、横を向いた被写体の頭部を検出し、これに応じて、アバターの動きに基づいて影1430の位置を調整もしながら、アバター1421を変更してこれらの同じ動きを反映する(例えば、アバター1421は、アバター頭部がウインクと笑顔と共に斜めに向いて示される)。アバター頭部の動きは、被写体1422の表現に対するアバター髪部の空間的位置に影響を及ぼす。その結果、デバイス600は、変更された空間的関係に基づいてアバターのいくつかの部分を動的に変更する。例えば、頭部が回転するにつれて、デバイス600は、被写体の肩の表現上、及び/又は被写体の首部の表現の背後にわたって移動する、参照番号1424-1に示すアバター髪部の一部を表示する(例えば、デバイス600は、アバターの髪部の一部を隠す)。逆に、アバター頭部が回転するにつれて、デバイス600はまた、アバター頭部を回す前に、以前は隠されていた(例えば、被写体の首部又は肩の表現の背後に以前は隠されていた)、参照番号1424-2に示すアバター髪部の部分も表示する(例えば、明らかにする)。このように、デバイス600は、それに応じてアバターの動きに影響を及ぼすユーザーの位置の変化に基づいて、アバターの動的部分(アバター髪部の一部など)を隠すか、又は表示する。 The device 600 changes the avatar 1421 according to the detected changes in the subject's head and face. For example, as shown in FIGS. 14D-14F, the device 600 detects the head of a subject turning to the side while winking and smiling, and accordingly creates a shadow 1430 based on the avatar's movement. The avatar 1421 is changed to reflect these same movements, while also adjusting the position (eg, the avatar 1421 is shown with the avatar head turned diagonally with a wink and a smile). The movement of the avatar's head affects the spatial position of the avatar's hair relative to the representation of the subject 1422. As a result, device 600 dynamically changes portions of the avatar based on the changed spatial relationships. For example, as the head rotates, device 600 displays a portion of the avatar's hair, shown at reference numeral 1424-1, that moves over the representation of the subject's shoulders and/or behind the representation of the subject's neck. (For example, device 600 hides a portion of the avatar's hair). Conversely, as the avatar head rotates, the device 600 also removes the device 600 that was previously hidden (e.g., was previously hidden behind a representation of the subject's neck or shoulders) before turning the avatar head. , the portion of the avatar's hair indicated by reference number 1424-2 is also displayed (eg, revealed). In this manner, device 600 hides or displays dynamic portions of the avatar (such as portions of the avatar's hair) based on changes in the user's position that affect the avatar's movement accordingly.

一部の実施形態では、アバター1421の部分は、被写体1422、又は深度マップ内の任意の他のオブジェクトの表現に対するいかなる空間的関係にかかわらず、持続的に表示される。例えば、被写体1422の表現は、被写体1422の表現の前に突き出したひさしを含む帽子1423を着用しているが、アバター頭部1421-3及びアバター顔部1421-4は、被写体の頭部及び帽子1423の表現の前に持続的に表示される。これにより、カメラ602の視野内のオブジェクト、特に、被写体1422の表現上のオブジェクト(又は被写体の表現の一部)が、アバター1421の一部(具体的には、被写体1422の表現上に配置されたアバター1421の外観をレンダリングするように常に表示されるべきアバター1421の部分)を通り抜けて現れることを防止する。一部の実施形態では、アバター1421の持続的に表示される部分には、アバターの顔(1421-4)、頭部(1421-3)、及びアバターの髪部の部分(1421-1)を含むことができる。 In some embodiments, portions of avatar 1421 are persistently displayed regardless of any spatial relationship to the representation of subject 1422 or any other object in the depth map. For example, the expression of the subject 1422 is that he is wearing a hat 1423 that includes a protruding eaves, but the avatar head 1421-3 and the avatar face 1421-4 are the same as the subject's head and the hat. 1423 is displayed persistently before the expression. This causes objects within the field of view of the camera 602, particularly objects on the representation of the subject 1422 (or a portion of the representation of the subject) to be placed on a portion of the avatar 1421 (specifically, on the representation of the subject 1422). (portions of avatar 1421 that should always be displayed to render the appearance of avatar 1421). In some embodiments, the persistently displayed portions of the avatar 1421 include the avatar's face (1421-4), the head (1421-3), and the avatar's hair portion (1421-1). can be included.

別の例として、図14Dは、カメラ602に向かって被写体1422の表現の前に差し出された被写体の手1425の表現を示す。手1425の表現は被写体1422の表現のかなり手前に配置されているが、手1425の表現の空間位置が、アバター髪部分1421-1よりも明らかにカメラ602に近いにもかかわらず、アバター髪部の部分1421-1は、手1425の表示の一部の上に表示される。明瞭にするため、アバター髪部分1421-1が動的(例えば、持続的に表示されていない)であった場合、以下に論じるアバター髪部(例えば、1421-2)の動的部分と同様に、アバター髪部分1421-1は図14Dの手1425の表現の背後に隠され得る。 As another example, FIG. 14D shows a representation of a subject's hand 1425 held out in front of a representation of a subject 1422 toward camera 602. Although the representation of the hand 1425 is placed considerably in front of the representation of the subject 1422, the spatial position of the representation of the hand 1425 is clearly closer to the camera 602 than the avatar hair part 1421-1. 1421-1 is displayed over a portion of the hand 1425 representation. For clarity, if avatar hair portion 1421-1 was dynamic (e.g., not persistently displayed), it would be similar to the dynamic portion of avatar hair portion (e.g., 1421-2) discussed below. , avatar hair portion 1421-1 may be hidden behind the representation of hand 1425 in FIG. 14D.

図14Eは、被写体の肩の表現に近い、被写体1422に向かって戻された手1425の表現を示す。手1425の表現が被写体1422の表現に近づくにつれて、デバイス600は、手1425の表現の空間的位置がアバター髪部の動的部分内に移動すると判定する。その結果、デバイス600は、手1425の表現の前に配置された追加のアバター髪部1421-2を表示する。同様に、図14Fは、被写体1422の表現に一層近づくように配置された手1425の表現、及び手1425の表現の前に表示されたより大量の髪部を示す。図14D~図14Fでは、アバター髪部と被写体の右肩1422-1の表現との空間的関係は、頭部を回転した後も変化しないので、被写体の右肩1422-1の表現の前に位置する髪部の量は変化しない。 FIG. 14E shows a representation of a hand 1425 returned toward subject 1422, which approximates a representation of the subject's shoulder. As the representation of hand 1425 approaches the representation of subject 1422, device 600 determines that the spatial position of the representation of hand 1425 moves into the dynamic portion of the avatar's hair. As a result, device 600 displays additional avatar hair portion 1421-2 placed in front of the representation of hand 1425. Similarly, FIG. 14F shows a representation of a hand 1425 positioned more closely to the representation of the subject 1422, and a larger amount of hair displayed in front of the representation of the hand 1425. In FIGS. 14D to 14F, the spatial relationship between the avatar's hair and the representation of the subject's right shoulder 1422-1 does not change even after the head is rotated, so The amount of hair located does not change.

図14Gでは、被写体はニュートラルな表情を有する正面向きの位置に戻り、デバイス600は、それに応じてアバター1421を変更する。 In FIG. 14G, the subject returns to a front-facing position with a neutral facial expression, and device 600 changes avatar 1421 accordingly.

図14Hでは、被写体が見上げると、デバイス600はそれに応じてアバター1421を変更する。デバイス600は、アバター頭部の下側を明らかにするために頭部が上方に傾いたアバター1421を示し、アバター1421は、被写体の首部の表現がアバター1421と交差する位置においてブレンドエフェクト1434を含む。一部の実施形態では、ブレンドエフェクト1434は、ブレンドエフェクト1432と同様である。図14Hでは、影1430もまた、アバターの頭部の傾斜した位置に基づいて調節される(例えば、アバターの顎の下に動かされる)。アバター1421が見上げているとき、被写体の首部の表現の背後に位置するアバター髪部は、被写体の首部の表現の背後に隠れたままであり、被写体の首部の表現を通り抜けて突き出ることはない。 In FIG. 14H, when the subject looks up, device 600 changes avatar 1421 accordingly. Device 600 shows avatar 1421 with the head tilted upward to reveal the underside of the avatar head, and avatar 1421 includes a blend effect 1434 at the location where the representation of the subject's neck intersects avatar 1421 . In some embodiments, blend effect 1434 is similar to blend effect 1432. In FIG. 14H, shadow 1430 is also adjusted based on the tilted position of the avatar's head (eg, moved below the avatar's chin). When avatar 1421 is looking up, the avatar hair located behind the subject's neck representation remains hidden behind the subject's neck representation and does not protrude through the subject's neck representation.

図14I~図14Jは、本開示の一実施形態に係る、異なるアバターの選択を示す。 14I-14J illustrate different avatar selections according to one embodiment of the present disclosure.

図14K~図14Mでは、デバイス600は、被写体の頭部及び首部の表現上に配置されたユニコーンアバター1435を有する被写体1422の表現を示す。ユニコーンアバター1435は、頭部分1435-1、及びたてがみ1435-3を含む首部分1435-2を含む。被写体の首部の表現が表示されないように、首部分1435-2は、被写体の首部の表現の周りに表示される。ユニコーン首部分1435-2が被写体の首部の表現の基部と出会うところで、ブレンドエフェクト1438が表示される。ブレンドエフェクト1438は、本明細書で論じる他のブレンドエフェクトと同様である。 14K-14M, the device 600 shows a representation of a subject 1422 with a unicorn avatar 1435 positioned over the representation of the subject's head and neck. Unicorn avatar 1435 includes a head portion 1435-1 and a neck portion 1435-2 that includes a mane 1435-3. Neck portion 1435-2 is displayed around the subject's neck representation such that the subject's neck representation is not displayed. A blend effect 1438 is displayed where the unicorn neck portion 1435-2 meets the base of the subject's neck representation. Blend effect 1438 is similar to other blend effects discussed herein.

ユニコーンアバター1435はまた、ユニコーンアバター1435の一部上、及び被写体1432の表現上に表示される影1436(例えば、アバターによって被写体の表現上へ投影される影の表現)を含む。一部の実施形態では、表示された影は、アバターの形状、及びアバターと被写体1432の表現との光源(例えば、カメラ602の視野内で検出された光源、又はシミュレーションされた光源)に対する相対的位置に基づいて決定された形状及び位置を有する。図14K~図14Mに示すように、影1436はユニコーンアバター1435の動きに応じて移動する。図14Kでは、影1436は、(ユニコーンアバターの顔の細長い形状のために)細長い形状を有し、首部分1435-2上及び被写体1422の表現の胸部上に配置される。図14Lでは、頭部分1435-1が側方に回転すると、追加の首部分1435-2及びたてがみ1435-3を明らかにする。図14Kのユニコーンアバター1435の背面上に位置していた、たてがみ1435-3の部分1435-4は、被写体の肩1422-1及びアバター首部分1435-2の前に位置してここでは示されている。影1436が横に移動すると、頭部分1435-1の下に(例えば、首部分1435-2上に)、次いで被写体1422の表現の肩の上に部分的に配置される。図14Mでは、頭部分1435-1は前方を向いて傾斜しており、影1436は頭部分1435-1の下に(首部分1435-2上に)位置しており、頭部分1435-1の上向き傾斜のためにサイズが縮小されている。加えて、頭部が上方に傾けられると、たてがみ1435-3は首部分1435-2の背面上に位置したままであり、首部分を通り抜けては表示されない。 The unicorn avatar 1435 also includes a shadow 1436 that is displayed on a portion of the unicorn avatar 1435 and on the representation of the subject 1432 (eg, a representation of the shadow projected by the avatar onto the representation of the subject). In some embodiments, the displayed shadows are based on the shape of the avatar and the relative representation of the avatar and subject 1432 to a light source (e.g., a light source detected within the field of view of camera 602, or a simulated light source). It has a shape and a position determined based on the position. As shown in FIGS. 14K to 14M, shadow 1436 moves according to the movement of unicorn avatar 1435. In FIG. 14K, the shadow 1436 has an elongated shape (due to the elongated shape of the unicorn avatar's face) and is positioned on the neck portion 1435-2 and on the chest of the representation of the subject 1422. In FIG. 14L, head portion 1435-1 is rotated laterally to reveal additional neck portion 1435-2 and mane 1435-3. Portion 1435-4 of mane 1435-3, which was located on the back of unicorn avatar 1435 in FIG. 14K, is shown here located in front of subject's shoulder 1422-1 and avatar neck portion 1435-2. There is. As shadow 1436 moves laterally, it is positioned below head portion 1435-1 (eg, over neck portion 1435-2) and then partially over the shoulders of the representation of subject 1422. In FIG. 14M, head portion 1435-1 is tilted forward and shadow 1436 is located below head portion 1435-1 (over neck portion 1435-2) and above head portion 1435-1. The size is reduced due to the upward slope. Additionally, when the head is tilted upward, mane 1435-3 remains positioned on the back of neck portion 1435-2 and is not visible through the neck portion.

図15A~図15Bは、一部の実施形態に係る、電子デバイスを使用してカメラアプリケーションにビジュアルエフェクトを表示するための方法を示すフロー図である。方法1500は、1つ以上のカメラと表示装置とを備えたデバイス(例えば、100、300、500、600)において実行される。方法1500におけるいくつかの動作は、任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 15A-15B are flow diagrams illustrating a method for displaying visual effects in a camera application using an electronic device, according to some embodiments. Method 1500 is performed at a device (eg, 100, 300, 500, 600) that includes one or more cameras and a display. Some acts in method 1500 are optionally combined, the order of some acts is optionally changed, and some acts are optionally omitted.

以下に説明するように、方法1500は、カメラアプリケーションにビジュアルエフェクトを表示するための直感的な仕方を提供する。この方法は、カメラアプリケーションにおいて閲覧される画像にビジュアルエフェクトを適用するためのユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作コンピューティングデバイスでは、画像にビジュアルエフェクトをユーザーがより迅速かつ効率的に表示できるようにすることで、電力を節約し、バッテリ充電間の時間を増大させる。 As described below, method 1500 provides an intuitive way to display visual effects in a camera application. This method reduces the cognitive burden on the user to apply visual effects to images viewed in a camera application, thereby creating a more efficient human-machine interface. On battery-operated computing devices, enabling users to display visual effects on images more quickly and efficiently saves power and increases the time between battery charges.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、1つ以上のカメラ(例えば、602)を介してキャプチャされた画像データ(例えば、1420-1)の表現を表示する(1502)。一部の実施形態では、表現は、被写体(例えば、1422)の表現(例えば、被写体の少なくとも一部の表現)を含み、画像データは被写体の深度データ(例えば、被写体の他の部分及び/又は1つ以上のカメラの視野内の他のオブジェクトに対する、被写体の1つ以上の部分を位置決めする相対的深度についての情報)を含む深度データに対応する(例えば、画像データは、可視光カメラ及び深度カメラによってキャプチャされたデータを含む)。一部の実施形態では、深度データは、深度マップ又は深度マスクの形態である。 An electronic device (e.g., 600) displays, via a display device (e.g., 601), a representation of image data (e.g., 1420-1) captured via one or more cameras (e.g., 602). (1502). In some embodiments, the representation includes a representation of the object (e.g., 1422) (e.g., a representation of at least a portion of the object), and the image data includes depth data of the object (e.g., other portions of the object and/or (e.g., the image data corresponds to depth data that includes information about the relative depth of positioning one or more portions of a subject relative to other objects within the field of view of the one or more cameras) (e.g., the image data is (including data captured by the camera). In some embodiments, the depth data is in the form of a depth map or depth mask.

一部の実施形態では、電子デバイス(例えば、600)は、1つ以上の深度センサ(例えば、175、602)を含む。一部の実施形態では、仮想アバター(例えば、1421)の表現を表示する前に、電子デバイスは、1つ以上の深度センサを介して、被写体に対する初期深度データ(例えば、1つ以上のカメラ(例えば、602)によってキャプチャされた画像データに対応する初期若しくは未変更深度マップ及び/又は深度マスク、被写体の初期又は未変更の深度マスク)をキャプチャする。電子デバイスは、被写体に対する初期深度データを変更することによって、被写体の深度データを生成する。一部の実施形態では、初期深度データを変更することにより、特に、被写体の姿勢が電子デバイスに関して変化するときに、仮想アバターの第1の部分(例えば、1421-2)の表現を含むこと、又は除外することの間の突然の遷移のインスタンスを減少させることができる。被写体の初期深度データを変更することにより、ユーザの姿勢が変化するときに、仮想アバターの表現の表示中のより滑らかな遷移が可能になり、それによって被写体において検出された変化の(仮想アバターに対する対応する変化によって表される)視覚フィードバックを改善することができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) includes one or more depth sensors (eg, 175, 602). In some embodiments, prior to displaying the representation of the virtual avatar (e.g., 1421), the electronic device provides initial depth data for the subject (e.g., one or more cameras (e.g., For example, capturing an initial or unmodified depth map and/or depth mask corresponding to the image data captured by 602) (an initial or unmodified depth mask of the subject). An electronic device generates depth data for a subject by changing initial depth data for the subject. In some embodiments, including a representation of a first portion (e.g., 1421-2) of the virtual avatar by changing the initial depth data, particularly as the subject's pose changes with respect to the electronic device; or may reduce instances of abrupt transitions between exclusions. Modifying the initial depth data of the subject allows for smoother transitions in the display of the representation of the virtual avatar when the user's pose changes, thereby increasing the Visual feedback (represented by corresponding changes) can be improved. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、被写体の初期深度データを変更することは、初期深度奥行きデータをぼかすこと(例えば、深度データの異なるレベル間の遷移をブレンドするために、初期深度データをデフォーカスすること、例えば、初期深度マスクの値(例えば、グレースケール値)をぼかすこと)、初期深度データをフェードアウトすること(例えば、深度値を減少させるために深度データを下向きに変調すること)、及び初期深度データをスムージングすること(例えば、特に初期深度データの異なる深度層間の遷移において初期深度データをブレンドするために数学的関数を適用すること)からなる群から選択された、最初深度データ上に1つ以上の変換を実行することを含む。 In some embodiments, changing the initial depth data of a subject includes blurring the initial depth data (e.g., defocusing the initial depth data to blend transitions between different levels of depth data). , for example, blurring the initial depth mask values (e.g., grayscale values), fading out the initial depth data (e.g., modulating the depth data downward to decrease the depth value), and initial depth one on the initial depth data selected from the group consisting of smoothing the data (e.g., applying a mathematical function to blend the initial depth data, particularly at transitions between different depth layers of the initial depth data); including performing the above transformations.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、被写体の表現(例えば、1422、1423)の少なくとも一部の代わりに(例えば、仮想アバターの少なくとも一部が、被写体の少なくとも一部を部分的又は完全に重ね合わせられて(例えば、不明瞭化されて))表示される(例えば、塞ぐか、又はその上部に表示される)仮想アバター(例えば、1421)の表現(例えば、表わされるときに、構成物の一部又はすべてを含むことができる仮想アバター構成物の視覚表現)を表示する(1504)。被写体の表現の少なくとも一部の上に仮想アバターの視覚表現を表示することにより、仮想アバターが被写体に重ね合わせられたときにどのように見えるかの視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、仮想アバターは、被写体の深度データに基づいて決定された被写体の表現に対してシミュレーションされた深度に(例えば、仮想アバターが、ユーザインタフェースの深度範囲で、被写体の表現の少し前に表示されるように選択された位置に)配置される。 The electronic device (e.g., 600), via the display device (e.g., 601), displays a representation of the subject (e.g., at least a portion of the virtual avatar) in place of at least a portion of the representation (e.g., 1422, 1423) of the subject. A representation (e.g., 1421) of a virtual avatar (e.g., 1421) displayed (e.g., occluded or displayed on top of) at least a portion partially or completely superimposed (e.g., obfuscated) For example, displaying (1504) a visual representation of a virtual avatar construct that, when displayed, may include some or all of the constructs. Displaying a visual representation of the virtual avatar over at least a portion of the representation of the subject provides a user with visual feedback of what the virtual avatar will look like when superimposed on the subject. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the virtual avatar is placed at a simulated depth for a representation of the subject determined based on depth data for the subject (e.g., the virtual avatar is placed at a depth range in the user interface for the representation of the subject). (at the selected position) to be displayed a moment ago.

一部の実施形態では、深度データに基づいて、仮想アバターの第1の部分(例えば、1421-2)(例えば、アバター髪部分)が深度ベース表示基準のセットを満たすとの判定に従って、デバイス(例えば、600)は、仮想アバター(例えば、1421)の表現の一部として、被写体の第1の部分(例えば、被写体の表現の第1の部分)の代わりに表示される、仮想アバター(例えば、1421-2)の第1の部分の表現を含める(1506)(例えば、図14Eに示すように、被写体の手1425の表現の一部にわたってアバター髪部の部分1421-2が表示される)。仮想アバターの第1の部分は、被写体の一部によって不明瞭化されていないので、深度ベース表示基準を満たすと、仮想アバターの第1の部分が表示される。表示される前に仮想アバターの第1の部分が不明瞭化されているかどうかを判定することにより、ユーザに可視化される仮想アバターの一部を表示するだけで、ユーザデバイスインタフェースをより効率的にすることが可能になる。仮想アバターの可視部分の視覚フィードバックを提供することにより、ユーザは、仮想アバターが被写体の上に重ね合わされたときに結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、深度ベース表示基準が満たされるように(例えば、深度ベース基準のセットは、仮想アバターの一部が、被写体の一部(例えば、被写体の耳)によって不明瞭化しない位置に表示されるときに満たされる基準を含む)、深度ベースの表示基準は、被写体の深度データが、仮想アバターの第1の部分が被写体の対応する第1の部分(例えば、被写体の表現の対応する第1の部分)(例えば、首部、肩、及び/又は身体)の前にあるシミュレーションされた深度を有することを示すという要求を含む。 In some embodiments, the device ( For example, 600) is a virtual avatar (e.g., 1421-2) (for example, the avatar hair portion 1421-2 is displayed over a portion of the representation of the subject's hand 1425, as shown in FIG. 14E). Since the first portion of the virtual avatar is not obscured by any portion of the subject, the first portion of the virtual avatar is displayed when the depth-based display criterion is met. Make the user device interface more efficient by only displaying the portion of the virtual avatar that is visible to the user by determining whether the first portion of the virtual avatar is obfuscated before being displayed. It becomes possible to do so. By providing visual feedback of the visible portion of the virtual avatar, the user can see the resulting image when the virtual avatar is superimposed over the subject. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the set of depth-based criteria may be set such that depth-based display criteria are met (e.g., the set of depth-based criteria are Depth-based display criteria include criteria that are met when depth data of a subject is met when a first part of the virtual avatar is displayed in a corresponding first part of the subject (e.g., the correspondence of the representation of the subject (e.g., the neck, shoulders, and/or body).

一部の実施形態では、深度データに基づいて、仮想アバターの第1の部分(例えば、1421-2)が、被写体の第1の部分(例えば、1425)に対する深度ベース表示基準のセットを満たさないとの判定(例えば、被写体の深度データが、仮想アバターの第1の部分が被写体の対応する第1の部分の背後にあるシミュレーションされた深度を有することを示すため)に従って、デバイス(例えば、600)は、仮想アバター(例えば、1421)の表現から、仮想アバターの第1の部分の表現を除外する(1508)(例えば、髪部が領域1424-1で被写体の肩1422-1の背後に位置するため、髪部が表示されない)(例えば、追加のアバター髪部1421-2は、手1425の背後に位置する配置するため、図14Dでは示されない)。一部の実施形態では、電子デバイスはまた、仮想アバターの第1の部分によって占められていたであろう領域内に、被写体の第1の部分(例えば、被写体の表現の第1の部分)を表示する(例えば、仮想アバターの第1の部分の表現を、その部分が被写体によって不明瞭化されるべきであるため、仮想アバターの表現の一部として含めるのをやめる)。仮想アバターの第1の部分が、被写体の一部によって不明瞭化されているので、深度ベース表示基準を満たさない場合には、仮想アバターの第1の部分は、仮想アバターの表示された表現から除外される。表示される前に仮想アバターの第1の部分が不明瞭化されているかどうかを判定することにより、ユーザに可視化される仮想アバターの一部を除外することによって、ユーザデバイスインタフェースをより効率的にすることが可能になる。仮想アバターの視覚フィードバックを提供することにより、ユーザは、仮想アバターが被写体の上に重ね合わされたときに結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, based on the depth data, the first portion of the virtual avatar (e.g., 1421-2) does not satisfy the set of depth-based display criteria for the first portion of the subject (e.g., 1425). The device (e.g., 600 ) excludes (1508) the representation of the first part of the virtual avatar from the representation of the virtual avatar (e.g., 1421) (e.g., if the hair is located behind the subject's shoulder 1422-1 in region 1424-1). (eg, additional avatar hair 1421-2 is not shown in FIG. 14D because it is positioned behind hand 1425). In some embodiments, the electronic device also captures a first portion of the subject (e.g., a first portion of the representation of the subject) within the area that would have been occupied by the first portion of the virtual avatar. displaying (eg, ceasing to include a representation of a first portion of the virtual avatar as part of the representation of the virtual avatar because that portion should be obscured by the subject); If the first portion of the virtual avatar is obscured by a portion of the subject and therefore does not meet the depth-based display criteria, the first portion of the virtual avatar will be removed from the displayed representation of the virtual avatar. Excluded. Make the user device interface more efficient by excluding portions of the virtual avatar that are visible to the user by determining whether a first portion of the virtual avatar is obfuscated before being displayed. It becomes possible to do so. By providing visual feedback of the virtual avatar, the user can see the resulting image when the virtual avatar is superimposed over the subject. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、仮想アバター(例えば、1421)(例えば、アバター頭部)の第1の部分は、被写体の動きに基づいて動く。一部の実施形態では、仮想アバターの第1の部分は、被写体の頭部の動き又は被写体の頭部の表現に基づいて動く。 In some embodiments, a first portion of the virtual avatar (e.g., 1421) (e.g., the avatar head) moves based on the movement of the subject. In some embodiments, the first portion of the virtual avatar moves based on movement or representation of the subject's head.

一部の実施形態では、仮想アバターの表現は、仮想アバターの第2の部分が、被写体の表現の対応する第2の部分の前又は背後にあるシミュレーションされた深度を有することを、深度データが示すか否かにかかわらず、被写体の表現の第2の部分(例えば、1425、1423)の上に表示される仮想アバターの第2の部分(例えば、1421-1、1421-3、1421-4、1435-1)(例えば、アバター頭部(1421-3)の上部)の表現を含む。アバター頭部の上部などの仮想アバターの第2の部分の表現が、永続的に表示される。これにより、たとえ被写体の表現がアバターよりもカメラ(例えば、602)により近くに位置するオブジェクトを含んでいても、仮想アバターの第2の部分を常に表示することができる(例えば、被写体の頭部の表現上に位置する帽子(1423)は、アバター(1421)によって覆われることになる)。仮想アバターの一部を持続的に表示することにより、ユーザが、特定のオブジェクトを無視するためにデバイスの深度設定を調整する必要なしに選択されたアバターを表示できるようにすることによって、デバイスのより多くの制御をユーザに提供することができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなくデバイスの追加の制御を提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、仮想アバターの第2の部分(例えば、アバター頭部)は、被写体の表現の対応する第2の部分の代わりに持続的に表示される。一部の実施形態では、仮想アバターの部分と被写体の表現の部分との空間的関係が、仮想アバターの部分が被写体の部分によって不明瞭化されるべきであることを示し得る場合でも、深度ベース基準に関係なく表示されるアバターの部分は、仮想アバターを通り抜けて突き出る被写体の表現の部分例えば、帽子(1423)、被写体の髪部)を表示するのを避けるため、被写体の上方に持続的に表示される。一部の実施形態では、仮想アバターの第2の部分(例えば、アバター頭部)は、被写体(例えば、1422)の動き(例えば、被写体の頭部の動きに基づいて、又は被写体の頭部の表現の動きに基づいて)に基づいて動く。 In some embodiments, the representation of the virtual avatar has depth data that indicates that a second portion of the virtual avatar has a simulated depth in front of or behind a corresponding second portion of the representation of the subject. A second portion of the virtual avatar (e.g., 1421-1, 1421-3, 1421-4) displayed over a second portion of the subject's representation (e.g., 1425, 1423), whether shown or not; , 1435-1) (for example, the upper part of the avatar's head (1421-3)). A representation of a second portion of the virtual avatar, such as the top of the avatar's head, is permanently displayed. This allows a second part of the virtual avatar to always be displayed (e.g. the subject's head) even if the representation of the subject includes objects located closer to the camera (e.g. 602) than the avatar. The hat (1423) located on the representation of will be covered by the avatar (1421)). By persistently displaying portions of a virtual avatar, the user can view selected avatars without having to adjust the device's depth settings to ignore certain objects. More control can be provided to the user. Providing additional control over the device without cluttering the user interface with additional visible controls improves the usability of the device and allows the user device interface (e.g. (by assisting the user in providing input and reducing user errors), as well as by allowing the user to use the device more quickly and efficiently. Reduce usage and improve battery life. In some embodiments, a second portion of the virtual avatar (eg, the avatar head) is persistently displayed in place of a corresponding second portion of the subject's representation. In some embodiments, the depth-based The parts of the avatar that are displayed regardless of the criteria are those that are continuously displayed above the subject in order to avoid displaying parts of the subject's expression that protrude through the virtual avatar (e.g., hat (1423), hair of the subject). Is displayed. In some embodiments, the second portion of the virtual avatar (e.g., the avatar head) is configured based on the movement of the subject (e.g., 1422) (e.g., the movement of the subject's head) or (based on the movement of expression).

一部の実施形態では、仮想アバター(例えば、1421-2)の第1の部分(例えば、深度データに基づいて含まれるか又は除外される部分)は、第1のアバター特徴の第1のサブ部分(例えば、アバター髪部、アバター耳、アバターアクセサリー(例えば、アバターイヤリング)などの仮想アバターの要素)であり、仮想アバターの第2の部分(例えば、1421-1、1421-3、1421-4、1435-1、1435-2)は、(例えば、深度データに基づいて含まれるか又は除外される部分、すなわち、深度データとは独立して含まれる)は、第1のアバター特徴(例えば、アバター髪部)の第2のサブ部分である。一部の実施形態では、第1のサブ部分は、前方に面して(例えば、カメラに面して)、仮想アバターが中立位置(例えば、被写体の顔又は頭部の姿勢に変化が検出されなかったときの仮想アバターの表示位置)にあるときに(例えば、図14Kに示すように)、仮想アバターの背面上に位置する仮想アバター(例えば、1435)の部分(例えば、1435-3)である。一部の実施形態では、第2のサブ部分(例えば、1435-2)は、仮想アバターの前面上に配置される仮想アバターの部分であるか、又は、仮想アバターが前方に面して中立位置にあるときには、仮想アバターの背面上に配置されない。一部の実施形態では、第1のアバター特徴はアバター髪部であり、第2のサブ部分は、仮想アバター頭部(例えば、1421-3)の前面上に表示されるアバター髪部(例えば、1421-1)(例えば、切り下げ前髪)の前面部であり、第1のサブ部分は、被写体の首部、及び/又は肩(例えば、1422-1)などの被写体(例えば、1422)の一部によって少なくとも部分的に不明瞭化されているアバター髪部の後面部(例えば、背面の長髪部)である。 In some embodiments, the first portion (e.g., the portion included or excluded based on depth data) of the virtual avatar (e.g., 1421-2) is a first sub-portion of the first avatar feature. a second portion of the virtual avatar (e.g., 1421-1, 1421-3, 1421-4); , 1435-1, 1435-2) (e.g., portions that are included or excluded based on the depth data, i.e., included independently of the depth data) are the first avatar features (e.g., This is the second sub-part of the avatar's hair part. In some embodiments, the first sub-portion faces forward (e.g., facing the camera) and the virtual avatar is in a neutral position (e.g., when a change in the pose of the subject's face or head is detected). (e.g., as shown in FIG. 14K), in the portion (e.g., 1435-3) of the virtual avatar (e.g., 1435) located on the back of the virtual avatar (e.g., as shown in FIG. 14K). be. In some embodiments, the second sub-portion (e.g., 1435-2) is a portion of the virtual avatar that is placed on the front surface of the virtual avatar, or the virtual avatar is in a neutral position facing forward. , it is not placed on the back of the virtual avatar. In some embodiments, the first avatar feature is avatar hair, and the second sub-portion is avatar hair (e.g., 1421-1) (e.g., cut bangs), and the first sub-portion is the front part of the subject (e.g., 1422), such as the subject's neck and/or shoulders (e.g., 1422-1). The back portion of the avatar's hair (eg, the long hair on the back) is at least partially obscured.

一部の実施形態では、仮想アバター(例えば、1421、1435)は、仮想アバターの第1の部分(例えば、1421-1)を含むアバター髪部特徴(例えば、長いアバター髪部)を含む。電子デバイス(例えば、600)は、アバター髪部特徴の第2の部分のシミュレーションされた深度が、被写体の深度データに基づき、被写体の表現(例えば、首部、肩、及び/又は身体)の第3の部分(例えば、1422-1)の前又は背後にあるか否かに基づいて、アバター髪部特徴(例えば、1421-1)の第1の部分を表示し、アバター髪部特徴(例えば、1421-2)の第2の部分を条件的に表示する(例えば、アバター髪部特徴の持続的部分の表現を表示し、仮想アバターの第1の部分を深度に応じて可変的に含める(又は除外する))ことによって仮想アバターの表現を表示する。アバター髪部特徴の第1の部分及び髪部特徴の第2の部分が、被写体の首部、肩又は身体などの、被写体の表現の第3の部分の前又は背後にあるかどうかを判定する。表示する前に髪部特徴の第2の部分の可視性を判定することにより、ユーザに可視化されるアバター髪部特徴の一部を表示するだけで、ユーザデバイスインタフェースをより効率的にすることが可能になる。仮想アバターの視覚フィードバックを提供することにより、ユーザは、アバター髪部特徴が被写体の表現と共に表示されるときに、結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the virtual avatar (eg, 1421, 1435) includes an avatar hair feature (eg, long avatar hair) that includes a first portion of the virtual avatar (eg, 1421-1). The electronic device (e.g., 600) determines that the simulated depth of the second portion of the avatar hair feature is based on the depth data of the subject and that the simulated depth of the second portion of the avatar hair feature is a third portion of the subject's representation (e.g., neck, shoulders, and/or body). display the first portion of the avatar hair feature (e.g., 1421-1) based on whether it is in front of or behind the portion of the avatar hair feature (e.g., 1422-1); -2) conditionally displaying the second part of the virtual avatar (for example, displaying a representation of a persistent part of the avatar hair feature and variably including (or excluding) the first part of the virtual avatar depending on depth) )) to display the expression of the virtual avatar. It is determined whether the first portion of the avatar hair feature and the second portion of the hair feature are in front of or behind a third portion of the representation of the subject, such as the neck, shoulders, or body of the subject. By determining the visibility of the second portion of the hair feature prior to display, the user device interface may be made more efficient by displaying only a portion of the avatar hair feature that is visible to the user. It becomes possible. By providing visual feedback of the virtual avatar, the user can see the resulting image as the avatar hair features are displayed along with the subject's representation. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、仮想アバターは、仮想アバターの第1の部分(例えば、1435-4)を含むアバター首部特徴(例えば、1435-3)(例えば、馬のようなアバター(例えば、ユニコーン又は馬)の首部、例えば、アバターたてがみ)を含む。電子デバイスは、被写体の深度データに基づき、アバター首部特徴の部分のシミュレーションされた深度が、被写体の表現(首部又は肩)の第4の部分(例えば、1422-1)の前又は背後にあるか否かに基づいて、アバター首部特徴の一部を条件的に表示することによって、仮想アバター(例えば、1435)の表現を表示する(例えば、アバター首部特徴の持続的部分の表現を表示し、仮想アバターの第1の部分を深度に応じて可変的に含める(又は除外する))。アバター首部特徴の部分が、被写体の首部などの、被写体の表現の第4の部分の前又は背後にあるかどうかを判断する。表示する前に首部特徴の一部の可視性を判定することにより、ユーザに可視化されるアバター首部特徴の一部を表示するだけで、ユーザデバイスインタフェースをより効率的にすることが可能になる。仮想アバターの視覚フィードバックを提供することにより、ユーザは、アバター髪部特徴が被写体の表現と共に表示されるときに、結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the virtual avatar includes an avatar neck feature (e.g., 1435-3) that includes a first portion (e.g., 1435-4) of the virtual avatar (e.g., a horse-like avatar (e.g., a unicorn or (e.g., the avatar's mane). Based on the subject depth data, the electronic device determines whether the simulated depth of the portion of the avatar neck feature is in front of or behind the fourth portion (e.g., 1422-1) of the subject representation (neck or shoulders). Display a representation of the virtual avatar (e.g., 1435) by conditionally displaying a portion of the avatar neck feature based on whether the virtual A first portion of the avatar is variably included (or excluded) depending on depth. It is determined whether a portion of the avatar neck feature is in front of or behind a fourth portion of the representation of the subject, such as the neck of the subject. By determining the visibility of some of the neck features before displaying, it is possible to make the user device interface more efficient by displaying only the part of the avatar neck features that are visible to the user. By providing visual feedback of the virtual avatar, the user can see the resulting image as the avatar hair features are displayed along with the subject's representation. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、被写体の表現の部分(例えば、被写体の頭部)が、1つ以上のカメラに(直接的に)面する姿勢を有する(例えば、被写体の頭部がカメラに面して前方に配置される)ときには、仮想アバター(例えば、1421、1435)の第1の部分(例えば、1421-2、1435-3)は、表示されない仮想アバター(例えば、アバター首部の背後)の不明瞭な部分(例えば、1435-4)を含む。ユーザーはアバターの不明確な部分を見ることができ得ないため、アバターの不明瞭な部分は表示されない。表示する前に仮想アバターの第1の部分の可視性を判定することにより、ユーザに可視化されるアバター首部特徴の一部を表示するだけで、ユーザデバイスインタフェースをより効率的にすることが可能になる。仮想アバターの視覚フィードバックを提供することにより、ユーザは、アバター髪部特徴が被写体の表現と共に表示されるときに、結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、仮想アバターの不明瞭な部分は、被写体の首部又は頭部の背後に位置するアバターの首部の背後(例えば、1435-2、1435-3)、又は仮想アバターの部分(例えば、アバターの髪部の背後)を含む。一部の実施形態では、これによって、アバターの首部の背後(又はアバター頭部の背面上のアバターの部分、若しくは被写体の首部の背後に位置する部分)が、被写体の頭部が傾け上げられたとき(例えば、見上げる)に、被写体の首部の表現を通り抜けて突き出て表示されることを防止する。 In some embodiments, a portion of the subject's representation (e.g., the subject's head) has a pose that faces (directly) toward one or more cameras (e.g., the subject's head faces the camera). When the first portion (e.g., 1421-2, 1435-3) of the virtual avatar (e.g., 1421, 1435) is placed in front of the virtual avatar (e.g., placed in front of the Contains distinct portions (eg, 1435-4). The obscured parts of the avatar are not displayed because the user cannot see the obscured parts of the avatar. By determining the visibility of the first portion of the virtual avatar prior to display, it is possible to make the user device interface more efficient by displaying only a portion of the avatar neck features that are visible to the user. Become. By providing visual feedback of the virtual avatar, the user can see the resulting image as the avatar hair features are displayed along with the subject's representation. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the obscured portion of the virtual avatar is behind the avatar's neck (e.g., 1435-2, 1435-3) located behind the subject's neck or head, or a portion of the virtual avatar ( For example, the back of the avatar's hair). In some embodiments, this causes the back of the avatar's neck (or the portion of the avatar on the back of the avatar's head, or the portion of the avatar located behind the subject's neck) to appear as if the subject's head is tilted up. Prevents the subject's neck from appearing to protrude through the representation when the subject is photographed (for example, looking up).

一部の実施形態では、仮想アバター(例えば、1421)の表現を表示することは、仮想アバターの第1の部分(例えば、1421-1)に隣接する(例えば、及び被写体(例えば、1422-1)の表現の少なくとも一部に隣接する)仮想アバターの第3の部分(例えば、1432)の視覚的外観を、アバターの外観及び被写体の表現の外観の両方に基づく外観に変更すること(例えば、ブレンド、ぼかし、フェザリング、又は隠蔽度を徐々に変化させること)を更に含む。一部の実施形態では、アバター髪部の部分が、被写体の表示された表現の肩(1422-1)と交差する、仮想アバターの表現の部分において、アバター髪部(例えば、1432)の一部が、被写体(例えば、1422)の表現とブレンドされる。一部の実施形態では、アバター頭部の下部が被写体の首部の表示された表現(例えば、図14H)と交差する、仮想アバターの表現の部分において、アバター頭部の下部が、被写体の表現とブレンドされる(例えば、1434)。 In some embodiments, displaying a representation of the virtual avatar (e.g., 1421) may include displaying a representation of the virtual avatar (e.g., 1421-1) adjacent to (e.g., and the subject (e.g., 1422-1) changing the visual appearance of a third portion (e.g., 1432) of the virtual avatar (adjacent to at least a portion of the representation of ) to an appearance based on both the appearance of the avatar and the appearance of the representation of the subject (e.g., blending, blurring, feathering, or gradually varying the degree of occlusion). In some embodiments, the portion of the avatar hair (e.g., 1432) in the portion of the virtual avatar's representation where the portion of the avatar hair intersects the shoulder (1422-1) of the subject's displayed representation. is blended with a representation of the object (eg, 1422). In some embodiments, in the portion of the representation of the virtual avatar where the lower part of the avatar head intersects the displayed representation of the subject's neck (e.g., FIG. 14H), the lower part of the avatar head intersects with the displayed representation of the subject's neck. blended (e.g. 1434).

一部の実施形態では、電子デバイス(例えば、600)は、被写体(例えば、1422)の頭部分の姿勢の変化(例えば、被写体の頭部が側方に向く)を検出する。被写体の頭部分の姿勢の変化を検出する電子デバイスに応じて、電子デバイスは、深度データ及び姿勢の変化に基づいて、仮想アバターの表現(例えば、アバターの髪部)から除外される、仮想アバター(例えば、1421-2)の量(例えば、仮想アバターの表現に含まれるか又は除外されるかのいずれかのサイズ)を変更する(例えば、増大又は減少する)。被写体の頭部分の姿勢の変化に基づいて、表示された仮想アバターを更新することにより、仮想アバターの視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、変更は、アバター頭部(例えば、1421-3)を被写体の頭部の動きに合わせるように側方に回すときに、仮想アバター(例えば、1421)の表現に表示されるアバターの髪部の量を増加又は減少させることを含む。一部の実施形態では、アバターの第1の部分(例えば、アバターの髪部)の表示量は、アバターの一部が、姿勢の変化に応じて被写体の表現の一部によって不明瞭化されるかどうかによって変更される。例えば、アバター頭部の回転に応じて、アバター頭部の一部がユーザ首部又は肩(例えば、1422-1)によって不明瞭化されると、アバターの髪部の一部の表示量(例えば、サイズ)が減少する(例えば、頭部を回転させることで被写体の肩(例えば、1424-1)の背後にアバター髪部が配置されるので、アバター頭部を回転させることにより、被写体の肩の前に位置する以前に表示された髪部がもはや表示されなくなる)。加えて、被写体の肩、首部又は頭部の背後に以前に隠れていた頭部の部分(例えば、1424-2)が、アバター頭部が側方に回転した結果、可視化されると、アバター髪部の部分の表示量が増大する(例えば、アバターの頭部を回転させることによりアバター髪部が被写体の肩の前に配置されるため、ここで被写体の肩の背後に位置する髪部が可視化される)。 In some embodiments, the electronic device (eg, 600) detects a change in posture of a head portion of the subject (eg, 1422) (eg, the subject's head turns to the side). In response to the electronic device detecting a change in the pose of the subject's head, the electronic device detects the virtual avatar that is excluded from the representation of the virtual avatar (e.g., the hair of the avatar) based on the depth data and the change in pose. (eg, 1421-2) changes (eg, increases or decreases) the amount (eg, the size of either included or excluded from the representation of the virtual avatar); Visual feedback of the virtual avatar is provided by updating the displayed virtual avatar based on changes in the posture of the subject's head. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, changes are displayed in the representation of the virtual avatar (e.g., 1421) when the avatar head (e.g., 1421-3) is turned sideways to match the movement of the subject's head. This includes increasing or decreasing the amount of hair on the avatar. In some embodiments, the amount of display of the first portion of the avatar (e.g., the hair of the avatar) is such that the portion of the avatar is obscured by a portion of the subject's expression in response to a change in pose. It changes depending on whether For example, depending on the rotation of the avatar's head, if a portion of the avatar's head is obscured by the user's neck or shoulders (e.g., 1422-1), the amount of visibility of a portion of the avatar's hair (e.g., size) decreases (for example, by rotating the head, the avatar's hair is placed behind the subject's shoulders (for example, 1424-1), so by rotating the avatar's head, the size of the subject's shoulders decreases. The previously displayed hair located in front is no longer visible). In addition, when parts of the head that were previously hidden behind the subject's shoulders, neck, or head (e.g., 1424-2) become visible as a result of the avatar's head rotating laterally, the avatar's hair (For example, by rotating the avatar's head, the avatar's hair is placed in front of the subject's shoulders, so the hair located behind the subject's shoulders becomes visible.) ).

一部の実施形態では、デバイス(例えば、600)は、被写体の姿勢の変化を検出する(1510)。被写体(例えば、1422)の姿勢の変化を検出したこと(例えば、ユーザの肩(例えば、1422-1)上の手(例えば、1425)の動きを検出したことこと、例えば、被写体の頭部の回転又は傾きを検出したこと)に応じて、電子デバイス(例えば、600)は、姿勢の変化に基づいて、仮想アバター(例えば、1421)の表示された表現を変更する(1512)。被写体の姿勢の変化に基づいて、表示された仮想アバターを更新することにより、仮想アバターの視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、被写体の姿勢の変化を考慮に入れた深度データに基づいて、仮想アバター(例えば、1421)の第1の部分(例えば、1421-2)が深度ベース表示基準のセットを満たすとの判定に従って、電子デバイスは、仮想アバターの第1の部分(例えば、1421-2)を除外した第1の外観(例えば、図14D)(例えば、仮想アバターの第1の部分が、被写体(例えば、1425)の表現によって不明瞭化されているため、表示されていない外観)(例えば、アバターの髪部の一部が、被写体の手、首部、及び/又は肩の背後に隠れている)から、仮想アバターの第1の部分を含む第2の外観(例えば、図14E)に、仮想アバターの表現の外観を更新する(1514)。一部の実施形態では、被写体の姿勢の変化を考慮に入れた深度データに基づいて、仮想アバターの第1の部分が深度ベース表示基準のセットを満たさないとの判定に従って、電子デバイスは、仮想アバターの第1の部分を含む第3の外観(例えば、図14C)から、仮想アバターの第1の部分を除外した第4の外観(例えば、14D)に、仮想アバターの表現の外観を更新する(1516)(例えば、1424-1は、表示される髪部の量の減少を示す)。一部の実施形態では、仮想アバターの第1の部分は、被写体の動きに基づいて動的に隠される(例えば、被写体の動きに基づいて、アバターの隠れた部分を表示されるようにでき、及びアバターの表示された部分を隠されるようにできる)。 In some embodiments, the device (eg, 600) detects (1510) a change in the subject's pose. Detecting a change in the posture of the subject (e.g., 1422) (e.g., detecting a movement of the user's hand (e.g., 1425) on the user's shoulder (e.g., 1422-1), e.g., detecting a change in the subject's head In response to the detected rotation or tilt, the electronic device (e.g., 600) changes the displayed representation of the virtual avatar (e.g., 1421) based on the change in pose (1512). Visual feedback of the virtual avatar is provided by updating the displayed virtual avatar based on changes in the subject's pose. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the first portion (e.g., 1421-2) of the virtual avatar (e.g., 1421) creates a set of depth-based display criteria based on depth data that takes into account changes in the subject's pose. In accordance with the determination that the first appearance (e.g., FIG. 14D) excluding the first portion (e.g., 1421-2) of the virtual avatar (e.g., the first portion of the virtual avatar is (e.g., an appearance that is not visible because it is obscured by the expression 1425) (e.g., part of the avatar's hair is hidden behind the subject's hands, neck, and/or shoulders) ) to a second appearance (eg, FIG. 14E) that includes the first portion of the virtual avatar (1514). In some embodiments, upon determining that the first portion of the virtual avatar does not satisfy the set of depth-based display criteria based on the depth data that takes into account changes in the subject's pose, the electronic device displays the virtual updating the appearance of the representation of the virtual avatar from a third appearance (e.g., FIG. 14C) including the first portion of the avatar to a fourth appearance (e.g., 14D) excluding the first portion of the virtual avatar; (1516) (eg, 1424-1 indicates a decrease in the amount of hair displayed). In some embodiments, the first portion of the virtual avatar is dynamically hidden based on the movement of the subject (e.g., the hidden portion of the avatar can be made visible based on the movement of the subject; and the visible part of the avatar can be hidden).

一部の実施形態では、電子デバイス(例えば、600)は、被写体(例えば、1422)の表現の一部の変化(例えば、姿勢の変化(例えば、向き、回転、並進など)、例えば、表情の変化)を検出する。電子デバイスは、被写体の表現の一部において検出された変化に基づいて、仮想アバター(例えば、1421、1435)の外観を変更する(例えば、リアルタイムで、被写体の表現の一部において検出された変化に基づいて、仮想アバターの位置及び/又は表情を変更する)。被写体の表現の変化に基づいて、表示された仮想アバターを更新することにより、仮想アバターの視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (e.g., 600) causes a change in some portion of the representation of the subject (e.g., 1422), such as a change in pose (e.g., orientation, rotation, translation, etc.), e.g., in a facial expression. change). The electronic device changes the appearance of the virtual avatar (e.g., 1421, 1435) based on the detected change in the portion of the representation of the subject (e.g., in real time, the detected change in the portion of the representation of the subject). (change the position and/or facial expression of the virtual avatar based on the virtual avatar). Visual feedback of the virtual avatar is provided by updating the displayed virtual avatar based on changes in the representation of the subject. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、被写体の表現の少なくとも第5の部分(例えば、被写体の胸、首部、又は肩)上に表示される、仮想アバター(例えば、1421、1435)によって投影された影(例えば、1430、1436)の表現を表示する。このデバイスは、被写体の表現の部分の上に仮想表現によって投影された影の表現を表示して、シミュレーションされた光源で表示された仮想アバターのより現実的な表現を提供する。仮想アバターの視覚フィードバックを提供することにより、ユーザは、結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、仮想アバターによって投影された影の表現は、100%未満の不透明度を有する被写体の表現上に重ね合わせられる。一部の実施形態では、表示された仮想アバターとシミュレーションされた光源との相対位置に基づいて判定される被写体の部分は、任意選択的に、カメラの視野内で検出された光源に基づいて判定される。一部の実施形態では、影の表示された表現の1つ以上の特性(例えば、位置、強度、形状など)は、仮想アバターの形状に基づく。一部の実施形態では、表示された影の形状は、異なるアバターが異なる形状の陰を投影して見えるように、仮想アバターの形状に基づいて決定される。 In some embodiments, the electronic device (e.g., 600) displays an image on at least a fifth portion of the subject's representation (e.g., the subject's chest, neck, or shoulder) via the display device (e.g., 601). A representation of the shadow (eg, 1430, 1436) cast by the displayed virtual avatar (eg, 1421, 1435) is displayed. The device displays a representation of a shadow cast by the virtual representation over a portion of the representation of the subject to provide a more realistic representation of the virtual avatar displayed with the simulated light source. By providing visual feedback of the virtual avatar, the user can view the resulting image. By providing the user with improved visual feedback, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, In addition, it reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the representation of the shadow cast by the virtual avatar is superimposed on the representation of the subject with less than 100% opacity. In some embodiments, the portion of the subject determined based on the relative position of the displayed virtual avatar and the simulated light source is optionally determined based on the detected light source within the field of view of the camera. be done. In some embodiments, one or more characteristics (eg, location, intensity, shape, etc.) of the displayed representation of the shadow are based on the shape of the virtual avatar. In some embodiments, the shape of the displayed shadow is determined based on the shape of the virtual avatar, such that different avatars appear to cast shadows of different shapes.

一部の実施形態では、影(例えば、1430、1436)の表示された表現の1つ以上の特性(例えば、位置、強度、形状など)は、1つ以上のカメラ(例えば、602)の視野内の照明条件(例えば、周囲光の検出量、検出された光源など)に基づく。一部の実施形態では、影の位置は、カメラの視野内の光源の位置に基づいて決定される。例えば、光源(例えば、検出された光源、又はモデル化された光源)が、カメラの視野内の被写体(例えば、1422)の表現の背後に配置される場合、影は、被写体の表現に対して光源の位置とは反対の被写体の表現上に配置される。一部の実施形態では、影の強度は、1つ以上のカメラの視野内で検出された照明条件の明るさに基づいて決定される(例えば、より明るい照明条件では影がより強く(明瞭に、より暗くなど)、より暗い照明条件では強さが少なくなる)。 In some embodiments, one or more characteristics (e.g., position, intensity, shape, etc.) of the displayed representation of the shadow (e.g., 1430, 1436) are determined by the field of view of one or more cameras (e.g., 602). (e.g., detected amount of ambient light, detected light source, etc.). In some embodiments, the position of the shadow is determined based on the position of the light source within the field of view of the camera. For example, if a light source (e.g., a detected light source, or a modeled light source) is placed behind a representation of a subject (e.g., 1422) within the camera's field of view, the shadow will be Placed on the representation of the subject opposite to the position of the light source. In some embodiments, the intensity of the shadow is determined based on the brightness of the lighting conditions detected within the field of view of the one or more cameras (e.g., the shadow is stronger (clearer) in brighter lighting conditions. , darker, etc.) and less intense in darker lighting conditions).

一部の実施形態では、影(例えば、1430、1436)の表示された表現の1つ以上の特性(例えば、位置、強度、形状など)は、深度データに基づく。一部の実施形態では、(例えば、深度マップ又は深度マスクの形式の)深度データを使用して影の位置及び/又は形状が決定されて、1つ以上のカメラの視野内の被写体(例えば、1422)の表現の3次元位置決めに基づく、影エフェクトのより現実的な表現を提供する(例えば、アバターから被写体へのシミュレーションされた距離、及び光源からアバターへのシミュレーションされた距離に基づいて、アバターの影が被写体上に落ちるように見えるように)。 In some embodiments, one or more characteristics (eg, location, intensity, shape, etc.) of the displayed representation of the shadow (eg, 1430, 1436) is based on depth data. In some embodiments, the position and/or shape of a shadow is determined using depth data (e.g., in the form of a depth map or depth mask) to determine the location and/or shape of a shadow within the field of view of one or more cameras (e.g., 1422) provides a more realistic representation of shadow effects based on the three-dimensional positioning of the representation of the avatar (e.g., based on the simulated distance from the avatar to the subject and the simulated distance from the light source to the avatar) so that the shadow appears to fall on the subject).

なお、方法1500に関して上述された処理(例えば、図15A~図15B)の詳細はまた、以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1500に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、仮想アバターなどのビジュアルエフェクトが、メッセージングアプリケーションユーザインタフェースにおいて画像データに表示される。別の例では、方法900は、方法1500に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、仮想アバターなどのビジュアルエフェクトが、カメラユーザインタフェースにおいて画像データに表示される。別の例では、方法1100は、方法1500に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、仮想アバターなどのビジュアルエフェクトが、メディアユーザインタフェースにおいて画像データに表示される。別の例では、方法1300は、方法1500に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、仮想アバターなどのビジュアルエフェクトが、ライブビデオ通信セッションのためのユーザインタフェースにおいて画像データに表示される。簡潔にするために、これらの詳細は、以下では繰り返さない。 Note that the processing details described above with respect to method 1500 (eg, FIGS. 15A-15B) are also applicable in a similar manner to the methods described below. For example, method 700 optionally includes one or more of the various method characteristics described above with respect to method 1500. For example, visual effects, such as virtual avatars, are displayed on the image data in a messaging application user interface. In another example, method 900 optionally includes one or more of the various method characteristics described above with respect to method 1500. For example, visual effects, such as virtual avatars, are displayed on the image data at the camera user interface. In another example, method 1100 optionally includes one or more of the various method characteristics described above with respect to method 1500. For example, visual effects, such as virtual avatars, are displayed on the image data in the media user interface. In another example, method 1300 optionally includes one or more of the various method characteristics described above with respect to method 1500. For example, visual effects, such as virtual avatars, are displayed on the image data in a user interface for a live video communication session. For the sake of brevity, these details are not repeated below.

上述の説明は、説明の目的で、特定の実施形態を参照して説明されてきた。しかしながら、上記例示的な議論は、包括的であることを意図しておらず、又は発明を開示された簡易的な形式に限定することを意図していない。上記教示を考慮して多くの修正及び変形が可能である。技術の原理及びそれらの実際の適用を最良に説明するために実施形態が選択及び説明されてきた。それによって、他の当業者は、考えられる特定の使用に適切な様々な修正で、技術及び様々な実施形態を最良に利用することが可能である。 The above description has been described with reference to specific embodiments for purposes of explanation. However, the above exemplary discussion is not intended to be exhaustive or to limit the invention to the simplified form disclosed. Many modifications and variations are possible in light of the above teaching. The embodiments have been chosen and described in order to best explain the principles of the techniques and their practical application. Thereby, others skilled in the art will be able to make best use of the technology and the various embodiments, with various modifications appropriate to the particular use contemplated.

開示及び実施例が添付図面を参照して完全に説明されてきたが、様々な変更及び修正が当業者にとって明らかであることに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるように、開示及び実施例の範囲内に含まれるものとして理解されることになる。 Although the disclosure and embodiments have been fully described with reference to the accompanying drawings, it is noted that various changes and modifications will be apparent to those skilled in the art. Such changes and modifications are to be understood as falling within the scope of the disclosure and examples as defined by the claims.

上述のように、本技術の一態様は、他のユーザとの共有のために、様々なソースから入手可能なデータを収集及び使用することである。本開示は、場合によっては、この収集されたデータは、特定の人を一意的に特定するか、又はその人に連絡するか、若しくはその人のロケーションを特定するために用いることができる個人情報データを含んでよいことを企図している。このような個人情報データには、人口統計データ、ロケーションベースのデータ、電話番号、電子メールアドレス、ツイッターID、ホームアドレス、ユーザの健康又はフィットネスのレベル(例えば、バイタルサイン測定、服薬情報、運動情報)に関するデータ若しくは記録、誕生日、又は任意の他の識別情報若しくは個人情報を含むことができる。 As mentioned above, one aspect of the present technology is the collection and use of data available from various sources for sharing with other users. This disclosure provides that, in some cases, this collected data is personal information that uniquely identifies a particular person or can be used to contact or locate that person. It is intended that it may contain data. Such personal information data may include demographic data, location-based data, phone number, email address, Twitter ID, home address, user's health or fitness level (e.g., vital sign measurements, medication information, exercise information). ), date of birth, or any other identifying or personal information.

本開示は、この技術のそのような個人情報データを使用してユーザを利することができることを理解する。例えば、個人情報データを使用して、会話中のユーザをよりよく表現することができる。更に、ユーザを利する個人情報データに関する他の使用もまた、本開示により意図されている。例えば、健康データ及びフィットネスデータは、ユーザの全般的なウェルネスついての洞察を提供するために使用されてもよく、あるいはウェルネスの目標を追求するために技術を使用して個人に積極的なフィードバックとして使用されてもよい。 It is understood that this disclosure can use such personal information data of this technology to benefit users. For example, personal information data can be used to better represent the user in a conversation. Additionally, other uses of personal information data to benefit users are also contemplated by this disclosure. For example, health and fitness data may be used to provide insights about a user's overall wellness, or as proactive feedback to individuals using technology to pursue wellness goals. may be used.

本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶又は他の使用に応答するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守することとなることを企画する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための業界又は政府の要件を満たすか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し常に使用すべきである。このようなポリシーは、ユーザが容易にアクセスすることができ、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更に、そのような収集/共有は、ユーザに告知して同意を得た後にのみ実施すべきである。加えて、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じるべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。加えて、ポリシー及び慣行は、収集かつ/又はアクセスされる特定の種類の個人情報データに適合され、また、管轄権特有の考慮を含む、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国において、ある健康データの収集又はアクセスは、例えば、Health Insurance Portability and Accountability Act(HIPAA)なのどの、連邦法及び/又は州法によって管理されてもよく、他の国における健康データは、他の規制及び政策の影響下にあってもよく、それに従って対処されるべきである。したがって、異なるプライバシー慣行を、各国の異なる個人データの種類に対して保つべきである。 This disclosure contemplates that entities responding to the collection, analysis, disclosure, transmission, storage, or other use of such personal information data will adhere to robust privacy policies and/or practices. Specifically, such entity shall at all times implement and maintain privacy policies and practices that are generally recognized as meeting or exceeding industry or government requirements for maintaining personal information data in strict confidence. Should be used. Such policies should be easily accessible to users and updated as data collection and/or use changes. Personal information from users should be collected for the lawful and legitimate use of that entity and should not be shared or sold except for those lawful uses. Furthermore, such collection/sharing should only occur after informing the user and obtaining their consent. In addition, such entity shall protect and secure access to such Personal Information Data and ensure that others with access to such Personal Information Data comply with their privacy policies and procedures. All necessary measures should be taken to ensure that Additionally, such entities may submit themselves to third-party assessments to demonstrate their compliance with widely accepted privacy policies and practices. In addition, policies and practices should be tailored to the specific types of personal information data being collected and/or accessed and to applicable laws and standards, including jurisdiction-specific considerations. For example, in the United States, the collection or access of certain health data may be governed by federal and/or state laws, such as the Health Insurance Portability and Accountability Act (HIPAA), and health data in other countries may be regulations and policies and should be addressed accordingly. Therefore, different privacy practices should be maintained for different types of personal data in each country.

前述のことがらにもかかわらず、本開示はまた、ユーザが、個人情報データの使用又は個人情報データへのアクセスを選択的に阻止する実施形態も企図している。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、アバターを送信する場合、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択することを可能にするように構成することができる。「オプトイン」及び「オプトアウト」オプションを提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを企画している。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。 Notwithstanding the foregoing, this disclosure also contemplates embodiments in which a user selectively prevents use of or access to personal information data. That is, the present disclosure contemplates that hardware and/or software elements may be provided to prevent or block access to such personal information data. For example, when submitting an avatar, the technology may allow users to choose to "opt in" or "opt out" of participating in personal information data collection during registration for the Service or at any time thereafter. It can be configured as follows. In addition to providing "opt-in" and "opt-out" options, this disclosure contemplates providing notices regarding access or use of personal information. For example, the user may be notified at the time of downloading an app that will access the user's personal information data, and then reminded the user again just before the personal information data is accessed by the app.

更に、本開示の意図は、個人情報データを、意図しない又は不正なアクセス又は使用の危険性を最小にする方法で管理かつ取り扱うべきであることである。リスクは、データの収集を制限し、データがもはや必要ではなくなった時点でデータを削除することによって、最小化することができる。加えて、適用可能な場合には、ある健康関連アプリケーションにおいても、データ非特定化は、ユーザのプライバシーを保護するために使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって情報集約すること)及び/又は他の方法によって、容易にすることができる。 Furthermore, it is the intent of this disclosure that personal information data should be managed and handled in a manner that minimizes the risk of unintended or unauthorized access or use. Risks can be minimized by limiting data collection and deleting data when it is no longer needed. Additionally, data de-identification can also be used in certain health-related applications to protect user privacy, if applicable. De-identification may include, where appropriate, removing certain identifiers (e.g., date of birth), controlling the amount or specificity of stored data (e.g., moving location data below the address level). (e.g., by aggregating data across users), controlling how data is stored (eg, aggregating data across users), and/or other methods.

したがって、本開示は、1つ以上の様々な開示された実施形態を実施するための個人情報データの使用を広範に網羅しているが、本開示は、それらの様々な実施形態がまた、そのような個人情報データにアクセスすることを必要とせずに実施されることも可能であることも企図している。すなわち、本技術の様々な実施形態は、そのような個人情報データのすべて又は一部分の欠如により、実施不可能となるものではない。 Therefore, while this disclosure broadly covers the use of personal information data to implement one or more of the various disclosed embodiments, this disclosure also provides that those various embodiments may It is also contemplated that this may be performed without requiring access to such personal information data. That is, various embodiments of the present technology are not rendered inoperable due to the lack of all or part of such personal information data.

Claims (27)

電子デバイスであって、
表示装置と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、
前記表示装置を介して、メディアユーザインタフェースを表示し、前記メディアユーザインタフェースは、メディアアイテムの表示を含むメディア表示領域と、エフェクトアフォーダンスと、を含み、
前記エフェクトアフォーダンスに向けられたジェスチャーを検出し、
前記エフェクトアフォーダンスに向けられた前記ジェスチャーを検出することに応答して、前記メディアアイテムの表示と同時に、前記メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示し、
前記メディアアイテムが対応する深度データに関連付けられていることの確認に従って、前記複数のエフェクトオプションは、前記深度データに基づいてエフェクトを適用するための各エフェクトオプションを含み、
前記メディアアイテムが対応する深度データに関連付けられていないことの確認に従って、前記各エフェクトオプションは、前記複数のエフェクトオプションにおいて、前記深度データに基づいて1つ以上のエフェクトを適用するための起動ができない、命令を含む電子デバイス。
An electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising:
displaying a media user interface via the display device, the media user interface including a media display area including a display of media items, and an effect affordance;
detecting a gesture directed to the effect affordance;
in response to detecting the gesture directed to the effect affordance, simultaneously displaying the media item, displaying a plurality of effect options for applying an effect to the media item;
Following confirmation that the media item is associated with corresponding depth data, the plurality of effect options includes a respective effect option for applying an effect based on the depth data;
Subject to confirmation that the media item is not associated with corresponding depth data, each of the effect options is incapable of activation in the plurality of effect options to apply one or more effects based on the depth data. , an electronic device containing instructions.
前記各エフェクトオプションは、前記メディアアイテム内にアバターを表示するためのエフェクトに対応する、請求項1に記載の電子デバイス。 The electronic device of claim 1, wherein each effect option corresponds to an effect for displaying an avatar within the media item. 前記各エフェクトオプションは、前記メディアアイテム内を移動する複数の仮想オブジェクトを表示するためのエフェクトに対応する、請求項1に記載の電子デバイス。 The electronic device of claim 1, wherein each effect option corresponds to an effect for displaying a plurality of virtual objects moving within the media item. 前記メディアアイテム内を移動する前記複数の仮想オブジェクトの軌跡は、前記メディアアイテム内の少なくとも1つのオブジェクトの存在、又は前記メディアアイテムに適用されるビジュアルエフェクトに基づいて変更される、請求項3に記載の電子デバイス。 4. The trajectory of the plurality of virtual objects moving within the media item is modified based on the presence of at least one object within the media item or a visual effect applied to the media item. electronic devices. 前記各エフェクトオプションは、前記メディアアイテム内に1つ以上の選択可能なグラフィックアイコンを表示するためのエフェクトに対応する、請求項1に記載の電子デバイス。 The electronic device of claim 1, wherein each effect option corresponds to an effect for displaying one or more selectable graphic icons within the media item. 前記複数のエフェクトオプションは、前記メディアアイテムにラベルを付加するためのオプションを含む、請求項1に記載の電子デバイス。 The electronic device of claim 1, wherein the plurality of effect options includes an option for adding a label to the media item. 前記複数のエフェクトオプションは、前記メディアアイテムに1つ以上の画像フィルタを適用するためのオプションを含む、請求項1に記載の電子デバイス。 The electronic device of claim 1, wherein the plurality of effect options includes options for applying one or more image filters to the media item. 前記メディアアイテムに対応する前記深度データは、前記エフェクトアフォーダンスの以前の選択を検出した後、前記電子デバイスのカメラによって取得される、請求項1に記載の電子デバイス。 The electronic device of claim 1, wherein the depth data corresponding to the media item is obtained by a camera of the electronic device after detecting a previous selection of the effect affordance. 前記メディアアイテムは、記録された画像又はビデオであり、前記エフェクトは、前記メディアアイテムが記録された後に前記深度データに基づいて適用される、請求項1に記載の電子デバイス。 2. The electronic device of claim 1, wherein the media item is a recorded image or video, and the effect is applied based on the depth data after the media item is recorded. 表示装置と通信している電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する、非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示装置を介して、メディアユーザインタフェースを表示し、前記メディアユーザインタフェースは、メディアアイテムの表示を含むメディア表示領域と、エフェクトアフォーダンスと、を含み、
前記エフェクトアフォーダンスに向けられたジェスチャーを検出し、
前記エフェクトアフォーダンスに向けられた前記ジェスチャーを検出することに応答して、前記メディアアイテムの表示と同時に、前記メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示し、
前記メディアアイテムが対応する深度データに関連付けられていることの確認に従って、前記複数のエフェクトオプションは、前記深度データに基づいてエフェクトを適用するための各エフェクトオプションを含み、
前記メディアアイテムが対応する深度データに関連付けられていないことの確認に従って、前記各エフェクトオプションは、前記複数のエフェクトオプションにおいて、前記深度データに基づいて1つ以上のエフェクトを適用するための起動ができない、命令を含む非一時的コンピュータ可読記憶媒体。
a non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device in communication with a display device; teeth,
displaying a media user interface via the display device, the media user interface including a media display area including a display of media items, and an effect affordance;
detecting a gesture directed to the effect affordance;
in response to detecting the gesture directed to the effect affordance, simultaneously displaying the media item, displaying a plurality of effect options for applying an effect to the media item;
Following confirmation that the media item is associated with corresponding depth data, the plurality of effect options includes a respective effect option for applying an effect based on the depth data;
Subject to confirmation that the media item is not associated with corresponding depth data, each of the effect options is incapable of activation in the plurality of effect options to apply one or more effects based on the depth data. , a non-transitory computer-readable storage medium containing instructions.
前記各エフェクトオプションは、前記メディアアイテム内にアバターを表示するためのエフェクトに対応する、請求項10に記載の非一時的コンピュータ可読記憶媒体。 11. The non-transitory computer-readable storage medium of claim 10, wherein each effect option corresponds to an effect for displaying an avatar within the media item. 前記各エフェクトオプションは、前記メディアアイテム内を移動する複数の仮想オブジェクトを表示するためのエフェクトに対応する、請求項10に記載の非一時的コンピュータ可読記憶媒体。 11. The non-transitory computer-readable storage medium of claim 10, wherein each effect option corresponds to an effect for displaying a plurality of virtual objects moving within the media item. 前記メディアアイテム内を移動する前記複数の仮想オブジェクトの軌跡は、前記メディアアイテム内の少なくとも1つのオブジェクトの存在、又は前記メディアアイテムに適用されるビジュアルエフェクトに基づいて変更される、請求項12に記載の非一時的コンピュータ可読記憶媒体。 13. The trajectory of the plurality of virtual objects moving within the media item is modified based on the presence of at least one object within the media item or a visual effect applied to the media item. non-transitory computer-readable storage medium. 前記各エフェクトオプションは、前記メディアアイテム内に1つ以上の選択可能なグラフィックアイコンを表示するためのエフェクトに対応する、請求項10に記載の非一時的コンピュータ可読記憶媒体。 11. The non-transitory computer-readable storage medium of claim 10, wherein each effect option corresponds to an effect for displaying one or more selectable graphic icons within the media item. 前記複数のエフェクトオプションは、前記メディアアイテムにラベルを付加するためのオプションを含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。 11. The non-transitory computer-readable storage medium of claim 10, wherein the plurality of effect options includes an option for adding a label to the media item. 前記複数のエフェクトオプションは、前記メディアアイテムに1つ以上の画像フィルタを適用するためのオプションを含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。 11. The non-transitory computer-readable storage medium of claim 10, wherein the plurality of effect options includes options for applying one or more image filters to the media item. 前記メディアアイテムに対応する前記深度データは、前記エフェクトアフォーダンスの以前の選択を検出した後、前記電子デバイスのカメラによって取得される、請求項10に記載の非一時的コンピュータ可読記憶媒体。 11. The non-transitory computer-readable storage medium of claim 10, wherein the depth data corresponding to the media item is obtained by a camera of the electronic device after detecting a previous selection of the effect affordance. 前記メディアアイテムは、記録された画像又はビデオであり、前記エフェクトは、前記メディアアイテムが記録された後に前記深度データに基づいて適用される、請求項10に記載の非一時的コンピュータ可読記憶媒体。 11. The non-transitory computer-readable storage medium of claim 10, wherein the media item is a recorded image or video, and the effect is applied based on the depth data after the media item is recorded. 方法であって、
表示装置を有する電子デバイスにおいて、
前記表示装置を介して、メディアユーザインタフェースを表示し、前記メディアユーザインタフェースは、メディアアイテムの表示を含むメディア表示領域と、エフェクトアフォーダンスと、を含み、
前記エフェクトアフォーダンスに向けられたジェスチャーを検出し、
前記エフェクトアフォーダンスに向けられた前記ジェスチャーを検出することに応答して、前記メディアアイテムの表示と同時に、前記メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示し、
前記メディアアイテムが対応する深度データに関連付けられていることの確認に従って、前記複数のエフェクトオプションは、前記深度データに基づいてエフェクトを適用するための各エフェクトオプションを含み、
前記メディアアイテムが対応する深度データに関連付けられていないことの確認に従って、前記各エフェクトオプションは、前記複数のエフェクトオプションにおいて、前記深度データに基づいて1つ以上のエフェクトを適用するための起動ができない、方法。
A method,
In an electronic device having a display device,
displaying a media user interface via the display device, the media user interface including a media display area including a display of media items, and an effect affordance;
detecting a gesture directed to the effect affordance;
in response to detecting the gesture directed to the effect affordance, simultaneously displaying the media item, displaying a plurality of effect options for applying an effect to the media item;
Following confirmation that the media item is associated with corresponding depth data, the plurality of effect options includes a respective effect option for applying an effect based on the depth data;
Subject to confirmation that the media item is not associated with corresponding depth data, each of the effect options is incapable of activation in the plurality of effect options to apply one or more effects based on the depth data. ,Method.
前記各エフェクトオプションは、前記メディアアイテム内にアバターを表示するためのエフェクトに対応する、請求項19に記載の方法。 20. The method of claim 19, wherein each effect option corresponds to an effect for displaying an avatar within the media item. 前記各エフェクトオプションは、前記メディアアイテム内を移動する複数の仮想オブジェクトを表示するためのエフェクトに対応する、請求項19に記載の方法。 20. The method of claim 19, wherein each effect option corresponds to an effect for displaying a plurality of virtual objects moving within the media item. 前記メディアアイテム内を移動する前記複数の仮想オブジェクトの軌跡は、前記メディアアイテム内の少なくとも1つのオブジェクトの存在、又は前記メディアアイテムに適用されるビジュアルエフェクトに基づいて変更される、請求項21に記載の方法。 22. The trajectory of the plurality of virtual objects moving within the media item is modified based on the presence of at least one object within the media item or a visual effect applied to the media item. the method of. 前記各エフェクトオプションは、前記メディアアイテム内に1つ以上の選択可能なグラフィックアイコンを表示するためのエフェクトに対応する、請求項19に記載の方法。 20. The method of claim 19, wherein each effect option corresponds to an effect for displaying one or more selectable graphic icons within the media item. 前記複数のエフェクトオプションは、前記メディアアイテムにラベルを付加するためのオプションを含む、請求項19に記載の方法。 20. The method of claim 19, wherein the plurality of effect options includes an option for adding a label to the media item. 前記複数のエフェクトオプションは、前記メディアアイテムに1つ以上の画像フィルタを適用するためのオプションを含む、請求項19に記載の方法。 20. The method of claim 19, wherein the plurality of effect options includes options for applying one or more image filters to the media item. 前記メディアアイテムに対応する前記深度データは、前記エフェクトアフォーダンスの以前の選択を検出した後、前記電子デバイスのカメラによって取得される、請求項19に記載の方法。 20. The method of claim 19, wherein the depth data corresponding to the media item is obtained by a camera of the electronic device after detecting a previous selection of the effect affordance. 前記メディアアイテムは、記録された画像又はビデオであり、前記エフェクトは、前記メディアアイテムが記録された後に前記深度データに基づいて適用される、請求項19に記載の方法。 20. The method of claim 19, wherein the media item is a recorded image or video, and the effect is applied based on the depth data after the media item is recorded.
JP2023083816A 2018-05-07 2023-05-22 creative camera Active JP7349044B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023146062A JP7404587B2 (en) 2018-05-07 2023-09-08 creative camera
JP2023210355A JP2024028968A (en) 2018-05-07 2023-12-13 creative camera

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US201862668227P 2018-05-07 2018-05-07
US62/668,227 2018-05-07
US201862679934P 2018-06-03 2018-06-03
US62/679,934 2018-06-03
DKPA201870366 2018-06-12
DKPA201870367 2018-06-12
DKPA201870366 2018-06-12
DKPA201870368 2018-06-12
DKPA201870368 2018-06-12
DKPA201870367 2018-06-12
US16/110,514 2018-08-23
US16/110,514 US10375313B1 (en) 2018-05-07 2018-08-23 Creative camera
JP2021166686A JP7285291B2 (en) 2018-05-07 2021-10-11 creative camera

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021166686A Division JP7285291B2 (en) 2018-05-07 2021-10-11 creative camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023146062A Division JP7404587B2 (en) 2018-05-07 2023-09-08 creative camera

Publications (2)

Publication Number Publication Date
JP2023116485A JP2023116485A (en) 2023-08-22
JP7349044B2 true JP7349044B2 (en) 2023-09-21

Family

ID=87579418

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2021166686A Active JP7285291B2 (en) 2018-05-07 2021-10-11 creative camera
JP2023083816A Active JP7349044B2 (en) 2018-05-07 2023-05-22 creative camera
JP2023146062A Active JP7404587B2 (en) 2018-05-07 2023-09-08 creative camera
JP2023210355A Pending JP2024028968A (en) 2018-05-07 2023-12-13 creative camera

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021166686A Active JP7285291B2 (en) 2018-05-07 2021-10-11 creative camera

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023146062A Active JP7404587B2 (en) 2018-05-07 2023-09-08 creative camera
JP2023210355A Pending JP2024028968A (en) 2018-05-07 2023-12-13 creative camera

Country Status (1)

Country Link
JP (4) JP7285291B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180088787A1 (en) 2016-09-23 2018-03-29 Apple Inc. Image data for enhanced user interactions

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101528A (en) * 2011-11-09 2013-05-23 Sony Corp Information processing apparatus, display control method, and program
JP2014222439A (en) 2013-05-14 2014-11-27 ソニー株式会社 Information processing apparatus, part generating and using method, and program
JP6628354B2 (en) 2015-09-07 2020-01-08 株式会社ハイスピードボーイズ Server device, program, and communication system
US11237717B2 (en) 2015-11-04 2022-02-01 Sony Corporation Information processing device and information processing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180088787A1 (en) 2016-09-23 2018-03-29 Apple Inc. Image data for enhanced user interactions

Also Published As

Publication number Publication date
JP2023116485A (en) 2023-08-22
JP2022008997A (en) 2022-01-14
JP2024028968A (en) 2024-03-05
JP7285291B2 (en) 2023-06-01
JP7404587B2 (en) 2023-12-25
JP2023175756A (en) 2023-12-12

Similar Documents

Publication Publication Date Title
US11178335B2 (en) Creative camera
US20220070385A1 (en) Creative camera
JP6960513B2 (en) Creative camera
AU2022215297B2 (en) Creative camera
JP7349044B2 (en) creative camera
KR102357342B1 (en) Creative camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230616

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230908

R150 Certificate of patent or registration of utility model

Ref document number: 7349044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150