JP7285291B2 - creative camera - Google Patents

creative camera Download PDF

Info

Publication number
JP7285291B2
JP7285291B2 JP2021166686A JP2021166686A JP7285291B2 JP 7285291 B2 JP7285291 B2 JP 7285291B2 JP 2021166686 A JP2021166686 A JP 2021166686A JP 2021166686 A JP2021166686 A JP 2021166686A JP 7285291 B2 JP7285291 B2 JP 7285291B2
Authority
JP
Japan
Prior art keywords
avatar
camera
representation
subject
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021166686A
Other languages
Japanese (ja)
Other versions
JP2022008997A (en
Inventor
オーエス, マルセル ヴァン
ジェシカ アボウカスム,
ディビッド アール. ブラック,
ロバート チン,
グレゴリー エル. デュデイ,
キャサリン ケイ. アーネスト,
グラント ポール,
ジェイソン リックワルド,
ザ サード, ウィリアム エイ. ソレンティノ
ブライアン イー. ウォルシュ,
ジャン-フランソワ エム. アルボウズ,
リー エス. ブロウグトン,
ジャエ ウー チャン,
アラン シー. ダイ,
アーレリオ グズマン,
ニコラス ヴィ. キング,
クリストファー ジェイ. モウリオス,
ジョアンナ エム. ニューマン,
ニコラス ヴィ. スカペル,
ジョセフ-アレキサンダー ピー. ウェイル,
クリストファー アイ. ウィルソン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/110,514 external-priority patent/US10375313B1/en
Priority claimed from JP2018182607A external-priority patent/JP7073238B2/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2022008997A publication Critical patent/JP2022008997A/en
Priority to JP2023083816A priority Critical patent/JP7349044B2/en
Application granted granted Critical
Publication of JP7285291B2 publication Critical patent/JP7285291B2/en
Priority to JP2023146062A priority patent/JP7404587B2/en
Priority to JP2023210355A priority patent/JP2024028968A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00095Systems or arrangements for the transmission of the picture signal
    • H04N1/00103Systems or arrangements for the transmission of the picture signal specially adapted for radio transmission, e.g. via satellites
    • H04N1/00106Systems or arrangements for the transmission of the picture signal specially adapted for radio transmission, e.g. via satellites using land mobile radio networks, e.g. mobile telephone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3261Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal
    • H04N2201/3263Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal of a graphical motif or symbol, e.g. Christmas symbol, logo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3273Display

Description

(関連出願の相互参照)
本出願は、2018年5月7日に出願された「Creative Camera」と題する米国仮特許出願第62/668,227号に関連する。この出願の内容は、参照によりその全体が本明細書に組み込まれる。
(Cross reference to related applications)
This application is related to US Provisional Patent Application No. 62/668,227, entitled "Creative Camera," filed May 7, 2018. The contents of this application are incorporated herein by reference in their entirety.

本開示は、一般に、コンピュータユーザインタフェースに関し、より具体的には、ビジュアルエフェクトを表示するための技術に関する。 TECHNICAL FIELD This disclosure relates generally to computer user interfaces, and more particularly to techniques for displaying visual effects.

ビジュアルエフェクトを用いて、電子デバイスを使用してメディアをキャプチャ及び視聴する際のユーザエクスペリエンスを向上させる。ビジュアルエフェクトは、画像データの外観を変えることができ、又は画像内にキャプチャされた環境の理想化された、又は完全に架空の表現を表すことができる。 Visual effects are used to enhance the user experience when capturing and viewing media using electronic devices. A visual effect can change the appearance of the image data, or represent an idealized or entirely fictional representation of the environment captured in the image.

しかしながら、電子デバイスを使用してビジュアルエフェクトを表示するための一部の技術は、一般的に扱いにくく非効率である。例えば、一部の既存の技術では、複数回のキー押下又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術では、必要以上の時間が必要であり、ユーザの時間及びデバイスの電力を浪費する。後者の問題は、バッテリ動作デバイスにおいては特に重大である。 However, some techniques for displaying visual effects using electronic devices are generally cumbersome and inefficient. For example, some existing technologies use complex and time-consuming user interfaces that may involve multiple key presses or keystrokes. Existing techniques require more time than necessary, wasting user time and device power. The latter problem is particularly acute in battery operated devices.

したがって、本技術は、電子デバイスに、ビジュアルエフェクトを表示するためのより速くより効率的な方法及びインタフェースを提供する。そのような方法及びインタフェースは、ビジュアルエフェクトを表示するための他の方法を、任意選択的に補完又は置換する。そのような方法及びインタフェースは、ユーザの認知負担を軽減し、より効率的なヒューマン-マシンインタフェースを生成する。バッテリ動作コンピューティングデバイスの場合には、そのような方法及びインタフェースにより、電力が節約され、バッテリを充電する間隔が増す。 Accordingly, the present technology provides electronic devices with faster and more efficient methods and interfaces for displaying visual effects. Such methods and interfaces optionally complement or replace other methods for displaying visual effects. Such methods and interfaces reduce the cognitive burden on users and produce more efficient human-machine interfaces. In the case of battery-operated computing devices, such methods and interfaces conserve power and increase intervals between battery charging.

方法について説明する。方法は、カメラと、表示装置と、1つ以上の入力デバイスとを有する電子デバイスにおいて実行される。方法は、表示装置を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンスを含むメッセージングユーザインタフェースを表示することと、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力を検出することと、第1の入力を検出したことに応じて、キャプチャアフォーダンスを含むカメラユーザインタフェースを表示することと、1つ以上の入力デバイスを介して、キャプチャアフォーダンスに向けられた第2の入力を検出することと、第2の入力を検出したことに応じて、カメラを使用して画像データをキャプチャすることと、キャプチャアフォーダンスの表示を停止することと、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示することと、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力を検出することと、第3の入力を検出したことに応じて、キャプチャされた画像データを第1の参加者に送信する処理を開始することと、を含む。 I will explain how. The method is performed in an electronic device having a camera, a display, and one or more input devices. A method includes displaying, via a display device, a messaging user interface including a camera affordance of a message conversation including at least a first participant, and via one or more input devices directed to the camera affordance. detecting a first input; displaying a camera user interface including a capture affordance in response to detecting the first input; capturing image data using the camera in response to detecting the second input; stopping displaying the capture affordance; displaying the transmit affordance at a position within the camera user interface occupied by the camera user interface; detecting, via one or more input devices, a third input directed to the transmit affordance; and initiating a process of transmitting the captured image data to the first participant in response to detecting the .

非一時的コンピュータ可読記憶媒体について説明する。非一時的コンピュータ可読記憶媒体は、カメラと、表示装置と、1つ以上の入力デバイスとを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンスを含むメッセージングユーザインタフェースを表示し、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力を検出し、第1の入力を検出したことに応じて、キャプチャアフォーダンスを含むカメラユーザインタフェースを表示し、1つ以上の入力デバイスを介して、キャプチャアフォーダンスに向けられた第2の入力を検出し、第2の入力を検出したことに応じて、カメラを使用して画像データをキャプチャし、キャプチャアフォーダンスの表示を停止し、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示し、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力を検出し、第3の入力を検出したことに応じて、キャプチャされた画像データを第1の参加者に送信する処理を開始する、命令を含む。 A non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a camera, a display, and one or more input devices. , one or more programs display, via a display device, a messaging user interface including camera affordances of a message conversation including at least a first participant, and via one or more input devices, display camera affordances. detecting a first input directed to the capture affordance; displaying a camera user interface including a capture affordance in response to detecting the first input; A camera user that detects a second input and, in response to detecting the second input, captures image data using the camera, stops displaying the capture affordance, and was previously occupied by the capture affordance. displaying a transmit affordance at a location within the interface; detecting a third input directed to the transmit affordance via one or more input devices; and capturing a third input in response to detecting the third input Instructions are included to initiate a process of transmitting image data to the first participant.

一時的コンピュータ可読記憶媒体について説明する。一時的コンピュータ可読記憶媒体は、カメラと、表示装置と、1つ以上の入力デバイスとを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンスを含むメッセージングユーザインタフェースを表示し、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力を検出し、第1の入力を検出したことに応じて、キャプチャアフォーダンスを含むカメラユーザインタフェースを表示し、1つ以上の入力デバイスを介して、キャプチャアフォーダンスに向けられた第2の入力を検出し、第2の入力を検出したことに応じて、カメラを使用して画像データをキャプチャし、キャプチャアフォーダンスの表示を停止し、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示し、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力を検出し、第3の入力を検出したことに応じて、キャプチャされた画像データを第1の参加者に送信する処理を開始する、命令を含む。 A temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a camera, a display, and one or more input devices; One or more programs display a messaging user interface including camera affordances of a message conversation including at least the first participant via a display device and direct camera affordances via one or more input devices. detecting a first input directed to the capture affordance; displaying a camera user interface including a capture affordance in response to detecting the first input; 2, and in response to detecting a second input, capture image data using the camera, stop displaying the capture affordance, and the camera user interface previously occupied by the capture affordance. displaying the transmit affordance at a position within the , detecting a third input directed to the transmit affordance via one or more input devices, and in response to detecting the third input, the captured image Instructions are included to initiate a process of transmitting data to the first participant.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、1つ以上の入力デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示装置を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンスを含むメッセージングユーザインタフェースを表示し、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力を検出し、第1の入力を検出したことに応じて、キャプチャアフォーダンスを含むカメラユーザインタフェースを表示し、1つ以上の入力デバイスを介して、キャプチャアフォーダンスに向けられた第2の入力を検出し、第2の入力を検出したことに応じて、カメラを使用して画像データをキャプチャし、キャプチャアフォーダンスの表示を停止し、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示し、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力を検出し、第3の入力を検出したことに応じて、キャプチャされた画像データを第1の参加者に送信する処理を開始する、命令を含む。 An electronic device will be described. The electronic device includes a camera, a display device, one or more input devices, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. , wherein the one or more programs display a messaging user interface, including camera affordances, of a message conversation including at least the first participant via a display device; and via one or more input devices; detecting a first input directed to a camera affordance; displaying a camera user interface including a capture affordance in response to detecting the first input; Detecting a directed second input and, in response to detecting the second input, capturing image data using the camera, discontinuing display of the capture affordance, and retrieving data previously occupied by the capture affordance. displaying a transmit affordance at a location within the camera user interface, detecting a third input directed to the transmit affordance via one or more input devices, and in response to detecting the third input, Instructions are included to initiate a process of transmitting the captured image data to the first participant.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、1つ以上の入力デバイスと、表示装置を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンスを含むメッセージングユーザインタフェースを表示する手段と、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力を検出する手段と、第1の入力を検出したことに応じて、キャプチャアフォーダンスを含むカメラユーザインタフェースを表示する手段と、1つ以上の入力デバイスを介して、キャプチャアフォーダンスに向けられた第2の入力を検出する手段と、第2の入力を検出したことに応じて、カメラを使用して画像データをキャプチャし、キャプチャアフォーダンスの表示を停止し、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示する手段と、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力を検出する手段と、第3の入力を検出したことに応じて、キャプチャされた画像データを第1の参加者に送信する処理を開始する手段と、を含む。 An electronic device will be described. The electronic device comprises a camera, a display, one or more input devices, means for displaying, via the display, a messaging user interface including camera affordances of a message conversation including at least a first participant; means for detecting a first input directed to a camera affordance via one or more input devices; and means for displaying a camera user interface including a capture affordance in response to detecting the first input. , means for detecting, via one or more input devices, a second input directed to the capture affordance; in response to detecting the second input, capturing image data using the camera; means for stopping display of the capture affordance and displaying the transmit affordance at a position within the camera user interface previously occupied by the capture affordance; and means, in response to detecting a third input, for initiating a process of transmitting the captured image data to the first participant.

方法について説明する。方法は、カメラと表示装置とを有する電子デバイスにおいて実行される。方法は、表示装置を介してカメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、カメラを介してキャプチャされた画像データの表現を含むカメラ表示領域と、第1のカメラ表示モードに関連付けられた第1のアフォーダンスと、を含む、ことと、被写体がカメラの視野内に位置し、かつ、被写体及び背景の表現がカメラ表示領域に表示される間に、第1のアフォーダンスに向けられたジェスチャを検出することと、第1のアフォーダンス向けられたジェスチャを検出したことに応じて、第1のカメラ表示モードをアクティブ化することであって、第1のカメラ表示モードをアクティブ化することは、複数のアバターオプションのうちの選択された1つを含むアバター選択領域を表示することと、選択されたアバターオプションの表現を、カメラ表示領域内の被写体の表現上に表示することと、を含む、ことと、第1のカメラ表示モードがアクティブである間に、被写体の姿勢の変化を検出することと、被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更することと、を含む。 I will explain how. The method is performed in an electronic device having a camera and a display. The method includes displaying a camera user interface via a display device, the camera user interface associated with a camera display area containing a representation of image data captured via the camera and a first camera display mode. and directed to the first affordance while the subject is located within the field of view of the camera and a representation of the subject and background are displayed in the camera display area. Detecting the gesture and activating a first camera display mode in response to detecting a gesture directed to the first affordance, wherein activating the first camera display mode comprises: , displaying an avatar selection area including a selected one of a plurality of avatar options; and displaying a representation of the selected avatar option over a representation of the subject within the camera display area. , detecting a change in the pose of the subject while the first camera display mode is active, and responsive to detecting the change in the pose of the subject while maintaining display of the background, changing the appearance of the displayed representation of the selected avatar option based on the detected change in pose of the .

非一時的コンピュータ可読記憶媒体について説明する。非一時的コンピュータ読み可読記憶媒体は、カメラと表示装置とを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、カメラを介してキャプチャされた画像データの表現を含むカメラ表示領域と、第1のカメラ表示モードに関連付けられた第1のアフォーダンスと、を含む、カメラユーザインタフェースを表示し、被写体がカメラの視野内に位置し、かつ、被写体及び背景の表現がカメラ表示領域に表示される間に、第1のアフォーダンスに向けられたジェスチャを検出し、第1のアフォーダンス向けられたジェスチャを検出したことに応じて、第1のカメラ表示モードをアクティブ化し、第1のカメラ表示モードをアクティブ化することは、複数のアバターオプションのうちの選択された1つを含むアバター選択領域を表示することと、選択されたアバターオプションの表現を、カメラ表示領域内の被写体の表現上に表示することと、を含み、第1のカメラ表示モードがアクティブである間に、被写体の姿勢の変化を検出し、被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する、命令を含む。 A non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a camera and a display, the one or more programs comprising: displaying, via a display device, a camera user interface including a camera display area containing a representation of image data captured via the camera and a first affordance associated with a first camera display mode; Detecting a gesture directed to the first affordance and performing the gesture directed to the first affordance while the subject is positioned within the field of view of the camera and representations of the subject and background are displayed in the camera display area. In response to detecting, activating a first camera display mode, activating the first camera display mode displays an avatar selection area including a selected one of a plurality of avatar options. and displaying a representation of the selected avatar option over the representation of the subject within the camera display area, and detecting a change in pose of the subject while the first camera display mode is active. and, in response to detecting a change in the subject's pose, altering the appearance of the displayed representation of the selected avatar option based on the detected change in the subject's pose while maintaining the display of the background. , including instructions.

一時的コンピュータ可読記憶媒体について説明する。一時的コンピュータ読み可読記憶媒体は、カメラと表示装置とを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、カメラを介してキャプチャされた画像データの表現を含むカメラ表示領域と、第1のカメラ表示モードに関連付けられた第1のアフォーダンスと、を含む、カメラユーザインタフェースを表示し、被写体がカメラの視野内に位置し、かつ、被写体及び背景の表現がカメラ表示領域に表示される間に、第1のアフォーダンスに向けられたジェスチャを検出し、第1のアフォーダンス向けられたジェスチャを検出したことに応じて、第1のカメラ表示モードをアクティブ化し、第1のカメラ表示モードをアクティブ化することは、複数のアバターオプションのうちの選択された1つを含むアバター選択領域を表示することと、選択されたアバターオプションの表現を、カメラ表示領域内の被写体の表現上に表示することと、を含み、第1のカメラ表示モードがアクティブである間に、被写体の姿勢の変化を検出し、被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する、命令を含む。 A temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a camera and a display, the one or more programs displaying, via the device, a camera user interface including a camera display area containing a representation of image data captured via the camera and a first affordance associated with a first camera display mode; is within the field of view of the camera and representations of the subject and background are displayed in the camera display area; activating the first camera display mode, activating the first camera display mode displaying an avatar selection area including the selected one of the plurality of avatar options; and displaying a representation of the selected avatar option over the representation of the subject within the camera display area, and detecting a change in pose of the subject while the first camera display mode is active. , in response to detecting a change in the subject's pose, changing the appearance of the displayed representation of the selected avatar option based on the detected change in the subject's pose while maintaining the display of the background; including instructions.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示装置を介して、カメラを介してキャプチャされた画像データの表現を含むカメラ表示領域と、第1のカメラ表示モードに関連付けられた第1のアフォーダンスと、を含む、カメラユーザインタフェースを表示し、被写体がカメラの視野内に位置し、かつ、被写体及び背景の表現がカメラ表示領域に表示される間に、第1のアフォーダンスに向けられたジェスチャを検出し、第1のアフォーダンス向けられたジェスチャを検出したことに応じて、第1のカメラ表示モードをアクティブ化し、第1のカメラ表示モードをアクティブ化することは、複数のアバターオプションのうちの選択された1つを含むアバター選択領域を表示することと、選択されたアバターオプションの表現を、カメラ表示領域内の被写体の表現上に表示することと、を含み、第1のカメラ表示モードがアクティブである間に、被写体の姿勢の変化を検出し、被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する、命令を含む。 An electronic device will be described. The electronic device includes a camera, a display device, one or more processors, and memory storing one or more programs configured to be executed by the one or more processors, and one or more The program provides, via a display device, a camera user interface including a camera display area containing a representation of image data captured via the camera and a first affordance associated with a first camera display mode. displaying, detecting a gesture directed at the first affordance while the subject is within the field of view of the camera and representations of the subject and background are displayed in the camera display area; activating the first camera display mode in response to detecting the gesture, and activating the first camera display mode includes an avatar selection area including a selected one of a plurality of avatar options; and displaying a representation of the selected avatar option over the representation of the subject within the camera display area, and while the first camera display mode is active, the pose of the subject. Appearance of the displayed representation of the selected avatar option based on the detected change in the subject's pose, while maintaining the display of the background, in response to detecting a change in the subject's pose change, including instructions.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、1つ以上の入力デバイスと、表示装置を介してカメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、カメラを介してキャプチャされた画像データの表現を含むカメラ表示領域と、第1のカメラ表示モードに関連付けられた第1のアフォーダンスと、を含む、手段と、被写体がカメラの視野内に位置し、かつ、被写体及び背景の表現がカメラ表示領域に表示される間に、第1のアフォーダンスに向けられたジェスチャを検出する手段と、第1のアフォーダンス向けられたジェスチャを検出したことに応じて、第1のカメラ表示モードをアクティブ化する手段であって、第1のカメラ表示モードをアクティブ化することは、複数のアバターオプションのうちの選択された1つを含むアバター選択領域を表示することと、選択されたアバターオプションの表現を、カメラ表示領域内の被写体の表現上に表示することと、を含む、手段と、第1のカメラ表示モードがアクティブである間に、被写体の姿勢の変化を検出する手段と、被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する手段と、を含む。 An electronic device will be described. The electronic device includes a camera, a display, one or more input devices, and a means for displaying a camera user interface via the display, the camera user interface displaying image data captured via the camera. a camera display area including a representation; and a first affordance associated with a first camera display mode; means for detecting a gesture directed at the first affordance while displayed in the region; and means for activating a first camera display mode in response to detecting the gesture directed at the first affordance. and activating the first camera display mode includes displaying an avatar selection area including a selected one of the plurality of avatar options; displaying on a representation of a subject within a display area; means for detecting a change in pose of the subject while the first camera display mode is active; and responsive to the detection, means for modifying the appearance of the displayed representation of the selected avatar option based on the detected change in pose of the subject while maintaining the display of the background.

方法について説明する。方法は、表示装置を有する電子デバイスにおいて実行される。方法は、表示装置を介して、メディアアイテムの表現を含むメディア表示領域と、エフェクトアフォーダンスとを含む、メディアユーザインタフェースを表示することと、エフェクトアフォーダンスに向けられたジェスチャを検出することと、エフェクトアフォーダンス向けられたジェスチャを検出したことに応じて、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示することと、を、を含み、メディアアイテムが対応する深度データに関連付けられているとの判定に従って、複数のエフェクトオプションが、深度データに基づいてエフェクトを適用するためのそれぞれのエフェクトオプションを含み、画像データが深度データを含まないとの判定に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない、ことを含む。 I will explain how. The method is performed in an electronic device having a display. A method includes, via a display device, displaying a media user interface including a media display area including a representation of a media item and an effect affordance; detecting a gesture directed at the effect affordance; displaying multiple effect options for applying effects to the media item concurrently with the representation of the media item in response to detecting a directed gesture, and depth data to which the media item corresponds. a plurality of effect options, including a respective effect option for applying an effect based on the depth data, and a respective effect option, according to a determination that the image data does not include depth data. Including that the option is not available for activation in multiple effect options.

非一時的コンピュータ可読記憶媒体について説明する。非一時的コンピュータ読み可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、メディアアイテムの表現を含むメディア表示領域と、エフェクトアフォーダンスとを含む、メディアユーザインタフェースを表示し、エフェクトアフォーダンスに向けられたジェスチャを検出し、エフェクトアフォーダンス向けられたジェスチャを検出したことに応じて、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示する命令を含み、メディアアイテムが対応する深度データに関連付けられているとの判定に従って、複数のエフェクトオプションが、深度データに基づいてエフェクトを適用するためのそれぞれのエフェクトオプションを含み、画像データが深度データを含まないとの判定に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない、ことを含む。 A non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, the one or more programs configured to display the display device. display a media user interface including a media display area containing representations of media items and effect affordances via, detect gestures directed to effect affordances, and in response to detecting gestures directed to effect affordances comprising instructions for displaying multiple effect options for applying effects to the media item concurrently with the representation of the media item, the multiple effect options in accordance with a determination that the media item is associated with corresponding depth data; includes each effect option for applying an effect based on depth data, and each effect option is not available for activation in more than one effect option, subject to determination that the image data does not include depth data; Including.

一時的コンピュータ可読記憶媒体について説明する。一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、メディアアイテムの表現を含むメディア表示領域と、エフェクトアフォーダンスとを含む、メディアユーザインタフェースを表示し、エフェクトアフォーダンスに向けられたジェスチャを検出し、エフェクトアフォーダンス向けられたジェスチャを検出したことに応じて、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示する命令を含み、メディアアイテムが対応する深度データに関連付けられているとの判定に従って、複数のエフェクトオプションが、深度データに基づいてエフェクトを適用するためのそれぞれのエフェクトオプションを含み、画像データが深度データを含まないとの判定に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない、ことを含む。 A temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display, the one or more programs being read through the display. , a media display area including a representation of the media item, and an effect affordance, detecting a gesture directed to the effect affordance; in response to detecting the gesture directed to the effect affordance; including instructions for displaying a plurality of effect options for applying an effect to the media item concurrently with the representation of the media item, the plurality of effect options subject to determining that the media item is associated with corresponding depth data; Include each effect option for applying an effect based on the depth data, and that each effect option is not available for activation in more than one effect option, subject to the determination that the image data does not contain depth data. include.

電子デバイスについて説明する。電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示装置を介して、メディアアイテムの表現を含むメディア表示領域と、エフェクトアフォーダンスとを含む、メディアユーザインタフェースを表示し、エフェクトアフォーダンスに向けられたジェスチャを検出し、エフェクトアフォーダンス向けられたジェスチャを検出したことに応じて、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示する命令を含み、メディアアイテムが対応する深度データに関連付けられているとの判定に従って、複数のエフェクトオプションが、深度データに基づいてエフェクトを適用するためのそれぞれのエフェクトオプションを含み、画像データが深度データを含まないとの判定に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない、ことを含む。 An electronic device will be described. The electronic device includes a display device, one or more processors, and memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising: displaying, via a display device, a media user interface including a media display area containing representations of media items and effect affordances; detecting gestures directed to effect affordances; detecting gestures directed to effect affordances; optionally, including instructions for displaying multiple effect options for applying effects to the media item concurrently with the representation of the media item, and according to determining that the media item is associated with corresponding depth data; contains a respective effect option for applying an effect based on depth data, and each effect option is activated in multiple effect options according to the determination that the image data does not contain depth data. including not available.

電子デバイスについて説明する。電子デバイスは、表示装置と、1つ以上の入力デバイスと、表示装置を介して、メディアアイテムの表現を含むメディア表示領域と、エフェクトアフォーダンスとを含む、メディアユーザインタフェースを表示する手段と、エフェクトアフォーダンスに向けられたジェスチャを検出する手段と、エフェクトアフォーダンス向けられたジェスチャを検出したことに応じて、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプションを表示する手段と、を含み、メディアアイテムが対応する深度データに関連付けられているとの判定に従って、複数のエフェクトオプションが、深度データに基づいてエフェクトを適用するためのそれぞれのエフェクトオプションを含み、画像データが深度データを含まないとの判定に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない、ことを含む。 An electronic device will be described. The electronic device comprises means for displaying a media user interface, including a display, one or more input devices, a media display area containing representations of media items via the display, and an effect affordance. means for detecting a gesture directed to an effect affordance and, in response to detecting a gesture directed to an effect affordance, displaying multiple effect options for applying an effect to the media item concurrently with the representation of the media item; , wherein the plurality of effect options includes respective effect options for applying an effect based on the depth data, according to a determination that the media item is associated with corresponding depth data, and the image data is the depth data. each effect option is not available for activation in a plurality of effect options.

方法について説明する。方法は、表示装置を有する電子デバイスにおいて実行される。方法は、表示装置を介して、ライブビデオ通信アプリケーションのライブビデオ通信ユーザインタフェースを表示することであって、ライブビデオ通信ユーザインタフェースが、ライブビデオ通信セッションに参加する被写体の表現と、第1のアフォーダンスとを含む、ことと、第1のアフォーダンスに向けられたジェスチャを検出することと、第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、カメラエフェクトモードをアクティブ化し、ライブビデオ通信セッションに参加する被写体の表現のサイズを増大させることと、を含む。 I will explain how. The method is performed in an electronic device having a display. The method includes displaying, via a display device, a live video communications user interface of a live video communications application, the live video communications user interface including a representation of a subject participating in a live video communications session and a first affordance. detecting a gesture directed at the first affordance; activating a camera effects mode in response to detecting the gesture directed at the first affordance; and performing a live video communication session. and increasing the size of the representation of the subject participating in the.

非一時的コンピュータ可読記憶媒体について説明する。非一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ライブビデオ通信アプリケーションの、ライブビデオ通信セッションに参加する被写体の表現と、第1のアフォーダンスとを含むライブビデオ通信ユーザインタフェースを、表示装置を介して表示し、第1のアフォーダンスに向けられたジェスチャを検出し、第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、カメラエフェクトモードをアクティブ化し、ライブビデオ通信セッションに参加する被写体の表現のサイズを増大させる、命令を含む。 A non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display, the one or more programs being a live video communication application. displaying, via a display device, a live video communication user interface including a representation of a subject participating in a live video communication session and a first affordance of, detecting a gesture directed at the first affordance; Instructions are included for activating a camera effects mode and increasing the size of a representation of a subject participating in a live video communication session in response to detecting a gesture directed at one affordance.

一時的コンピュータ可読記憶媒体について説明する。一時的コンピュータ読み可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ライブビデオ通信アプリケーションの、ライブビデオ通信セッションに参加する被写体の表現と、第1のアフォーダンスとを含むライブビデオ通信ユーザインタフェースを、表示装置を介して表示し、第1のアフォーダンスに向けられたジェスチャを検出し、第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、カメラエフェクトモードをアクティブ化し、ライブビデオ通信セッションに参加する被写体の表現のサイズを増大させる、命令を含む。 A temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display, the one or more programs being a live video communication application. displaying, via a display device, a live video communication user interface including a representation of a subject participating in a live video communication session and a first affordance of, detecting a gesture directed at the first affordance; Instructions are included for activating a camera effects mode and increasing the size of a representation of a subject participating in a live video communication session in response to detecting a gesture directed at one affordance.

電子デバイスについて説明する。電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、ライブビデオ通信アプリケーションの、ライブビデオ通信セッションに参加する被写体の表現と、第1のアフォーダンスとを含む、ライブビデオ通信ユーザインタフェースを、表示装置を介して表示し、第1のアフォーダンスに向けられたジェスチャを検出するし、第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、カメラエフェクトモードをアクティブ化し、ライブビデオ通信セッションに参加する被写体の表現のサイズを増大させる、命令を含む。 An electronic device will be described. The electronic device includes a display device, one or more processors, and memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising: Displaying, via a display device, a live video communications user interface including a representation of a subject participating in a live video communications session and a first affordance of a live video communications application, and gesturing toward the first affordance. and, in response to detecting a gesture directed at the first affordance, activate a camera effects mode and increase the size of the representation of the subject participating in the live video communication session.

電子デバイスについて説明する。電子デバイスは、表示装置と、1つ以上の入力デバイスと、表示装置を介して、ライブビデオ通信アプリケーションのライブビデオ通信ユーザインタフェースを表示する手段であって、ライブビデオ通信ユーザインタフェースが、ライブビデオ通信セッションに参加する被写体の表現と、第1のアフォーダンスとを含む、手段と、第1のアフォーダンスに向けられたジェスチャを検出する手段と、第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、カメラエフェクトモードをアクティブ化し、ライブビデオ通信セッションに参加する被写体の表現のサイズを増大させる、手段と、を含む。 An electronic device will be described. The electronic device comprises a display, one or more input devices, and means for displaying, via the display, a live video communications user interface of a live video communications application, the live video communications user interface means for detecting a gesture directed at the first affordance; and in response to detecting the gesture directed at the first affordance. for activating the camera effects mode and increasing the size of the representation of the subject participating in the live video communication session.

方法について説明する。方法は、カメラと表示装置とを有する電子デバイスにおいて実行される。方法は、表示装置を介して、1つ以上のカメラを介してキャプチャされた画像データの表現を表示することであって、表現が被写体の表現を含み、かつ、画像データが被写体の深度データを含む深度データに対応する、ことと、表示装置を介して、被写体の表現の少なくとも一部の代わりに表示される仮想アバターの表現を表示することとであって、仮想アバターは、被写体の深度データに基づいて決定される、被写体の表現に対してシミュレーションされた深度に配置される、ことと、を含み、仮想アバターの表現を表示することは、深度データに基づいて、仮想アバターの第1の部分が、深度ベース表示基準であって、仮想アバターの第1の部分が被写体の対応する第1の部分の前にあるシミュレーションされた深度を有することを、被写体の深度データが示すという要求を含む、深度ベース表示基準のセットを満たすとの判定に従って、深度ベース表示基準が満たされるように、仮想アバターの表現の一部として、被写体の第1の部分の代わりに表示される仮想アバターの第1の部分の表現を含めることと、深度データに基づいて、仮想アバターの第1の部分が、被写体の第1の部分に対する深度ベース表示基準のセットを満たさないとの判定に従って、仮想アバターの表現から、仮想アバターの第1の部分の表現を除外し、仮想アバターの第1の部分によって占有されていたであろう領域に、被写体の第1の部分を表示することと、を含む。 I will explain how. The method is performed in an electronic device having a camera and a display. The method is to display, via a display device, a representation of image data captured via one or more cameras, the representation including a representation of an object, and the image data including depth data of the object. and displaying, via a display device, a representation of a virtual avatar displayed in place of at least a portion of the representation of the subject, the virtual avatar representing the depth data of the subject. positioned at a simulated depth relative to the representation of the subject, wherein displaying the representation of the virtual avatar is based on the depth data at a first depth of the virtual avatar Portions are depth-based display criteria, including a request that the depth data of the subject indicates that the first portion of the virtual avatar has a simulated depth that is in front of the corresponding first portion of the subject. , the first portion of the virtual avatar displayed in place of the first portion of the subject as part of the representation of the virtual avatar such that the depth-based display criteria are satisfied, according to the determination that the set of depth-based display criteria are satisfied. and determining, based on the depth data, that the first portion of the virtual avatar does not meet a set of depth-based presentation criteria for the first portion of the subject. , excluding the representation of the first portion of the virtual avatar and displaying the first portion of the subject in an area that would have been occupied by the first portion of the virtual avatar.

非一時的コンピュータ可読記憶媒体について説明する。非一時的コンピュータ読み可読記憶媒体は、カメラと表示装置とを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、1つ以上のカメラを介してキャプチャされた画像データの表現を表示し、表現が被写体の表現を含み、かつ、画像データが被写体の深度データを含む深度データに対応し、表示装置を介して、被写体の表現の少なくとも一部の代わりに表示される仮想アバターの表現を表示する命令を含み、仮想アバターは、被写体の深度データに基づいて決定された被写体の表現に対してシミュレーションされた深度に配置され、仮想アバターの表現を表示することは、深度データに基づいて、仮想アバターの第1の部分が、深度ベース表示基準であって、仮想アバターの第1の部分が被写体の対応する第1の部分の前にあるシミュレーションされた深度を有することを、被写体の深度データが示すという要求を含む、深度ベース表示基準のセットを満たすとの判定に従って、深度ベース表示基準が満たされるように、仮想アバターの表現の一部として、被写体の第1の部分の代わりに表示される仮想アバターの第1の部分の表現を含めることと、深度データに基づいて、仮想アバターの第1の部分が、被写体の第1の部分に対する深度ベース表示基準のセットを満たさないとの判定に従って、仮想アバターの表現から、仮想アバターの第1の部分の表現を除外し、仮想アバターの第1の部分によって占有されていたであろう領域に、被写体の第1の部分を表示することと、を含む。 A non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a camera and a display, the one or more programs comprising: displaying, via a display device, a representation of image data captured via one or more cameras, the representation comprising a representation of a subject, and the image data corresponding to depth data comprising depth data of the subject; comprising instructions for displaying, via a display device, a representation of a virtual avatar displayed in place of at least a portion of the representation of the subject, the virtual avatar relative to the representation of the subject determined based on the depth data of the subject; Positioned at the simulated depth and displaying a representation of the virtual avatar is based on the depth data, a first portion of the virtual avatar is depth-based display criteria and a first portion of the virtual avatar is a subject. Depth-based display criteria are satisfied according to a determination to satisfy a set of depth-based display criteria including a requirement that the depth data of the subject indicate that it has a simulated depth that is in front of the corresponding first portion of including as part of a representation of the virtual avatar a representation of the first portion of the virtual avatar displayed in place of the first portion of the subject; does not satisfy the set of depth-based display criteria for the first portion of the subject, excluding the representation of the first portion of the virtual avatar from the representation of the virtual avatar; and displaying the first portion of the subject in the area that would have been occupied by the portion.

一時的コンピュータ可読記憶媒体について説明する。一時的コンピュータ可読記憶媒体は、カメラと表示装置とを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示装置を介して、1つ以上のカメラを介してキャプチャされた画像データの表現を表示し、表現が被写体の表現を含み、かつ、画像データが被写体の深度データを含む深度データに対応し、表示装置を介して、被写体の表現の少なくとも一部の代わりに表示される仮想アバターの表現を表示する命令を含み、仮想アバターは、被写体の深度データに基づいて決定された被写体の表現に対してシミュレーションされた深度に配置され、仮想アバターの表現を表示することは、深度データに基づいて、仮想アバターの第1の部分が、深度ベース表示基準であって、仮想アバターの第1の部分が被写体の対応する第1の部分の前にあるシミュレーションされた深度を有することを、被写体の深度データが示すという要求を含む、深度ベース表示基準のセットを満たすとの判定に従って、深度ベース表示基準が満たされるように、仮想アバターの表現の一部として、被写体の第1の部分の代わりに表示される仮想アバターの第1の部分の表現を含めることと、深度データに基づいて、仮想アバターの第1の部分が、被写体の第1の部分に対する深度ベース表示基準のセットを満たさないとの判定に従って、仮想アバターの表現から、仮想アバターの第1の部分の表現を除外し、仮想アバターの第1の部分によって占有されていたであろう領域に、被写体の第1の部分を表示することと、を含む。 A temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a camera and a display, the one or more programs being executed by the display. display a representation of image data captured via one or more cameras, the representation comprising a representation of an object and the image data corresponding to depth data comprising depth data of the object; display a representation of the virtual avatar displayed in place of at least a portion of the representation of the subject, the virtual avatar being simulated against the representation of the subject determined based on the depth data of the subject. displaying a representation of the virtual avatar based on the depth data, wherein a first portion of the virtual avatar is depth-based display criteria, and a first portion of the virtual avatar is subject correspondence; Depth-based display criteria are satisfied according to a determination to satisfy a set of depth-based display criteria including requiring that the depth data of the subject indicate that it has a simulated depth prior to the first portion that including as part of a representation of the virtual avatar a representation of the first portion of the virtual avatar displayed in place of the first portion of the subject; and based on the depth data, the first portion of the virtual avatar. does not satisfy a set of depth-based display criteria for the first portion of the subject, excluding the representation of the first portion of the virtual avatar from the representation of the virtual avatar, and and displaying a first portion of the subject in the area that would have been occupied.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示装置を介して、1つ以上のカメラを介してキャプチャされた画像データの表現を、表示し、表現が被写体の表現を含み、かつ、画像データが被写体の深度データを含む深度データに対応し、表示装置を介して、被写体の表現の少なくとも一部の代わりに表示される仮想アバターの表現を表示する命令を含み、仮想アバターは、被写体の深度データに基づいて決定された被写体の表現に対してシミュレーションされた深度に配置され、仮想アバターの表現を表示することは、深度データに基づいて、仮想アバターの第1の部分が、深度ベース表示基準であって、仮想アバターの第1の部分が被写体の対応する第1の部分の前にあるシミュレーションされた深度を有することを、被写体の深度データが示すという要求を含む、深度ベース表示基準のセットを満たすとの判定に従って、深度ベース表示基準が満たされるように、仮想アバターの表現の一部として、被写体の第1の部分の代わりに表示される仮想アバターの第1の部分の表現を含めることと、深度データに基づいて、仮想アバターの第1の部分が、被写体の第1の部分に対する深度ベース表示基準のセットを満たさないとの判定に従って、仮想アバターの表現から、仮想アバターの第1の部分の表現を除外し、と、仮想アバターの第1の部分によって占有されていたであろう領域に、被写体の第1の部分を表示することと、を含む。 An electronic device will be described. The electronic device includes a camera, a display device, one or more processors, and memory storing one or more programs configured to be executed by the one or more processors, and one or more The program displays, via the display device, a representation of image data captured via one or more cameras, the representation comprising a representation of a subject, and the image data comprising depth data of the subject. and includes instructions for displaying, via a display device, a representation of a virtual avatar displayed in place of at least a portion of the representation of the subject, the virtual avatar representing the subject determined based on the depth data of the subject. Displaying a representation of the virtual avatar positioned at a simulated depth relative to the representation may be performed based on the depth data such that a first portion of the virtual avatar is a depth-based display criterion and a first portion of the virtual avatar is a depth-based display criterion. depth-based display criteria, including the requirement that the depth data of the subject indicate that the portion of the depth-based display has a simulated depth that is in front of the corresponding first portion of the subject. including, as part of the representation of the virtual avatar, a representation of the first portion of the virtual avatar displayed in place of the first portion of the subject, such that the display criteria are met; excluding the representation of the first portion of the virtual avatar from the representation of the virtual avatar pursuant to a determination that the first portion of the avatar does not meet a set of depth-based display criteria for the first portion of the subject; displaying the first portion of the subject in an area that would have been occupied by the first portion of the virtual avatar.

電子デバイスについて説明する。電子デバイスは、カメラと、表示装置と、表示装置を介して、1つ以上のカメラを介してキャプチャされた画像データの表現を表示する手段であって、表現が被写体の表現を含み、かつ、画像データが被写体の深度データを含む深度データに対応する、手段と、表示装置を介して、被写体の表現の少なくとも一部の代わりに表示される仮想アバターの表現を表示する手段であって、仮想アバターは、被写体の深度データに基づいて決定された被写体の表現に対してシミュレーションされた深度に配置される、手段と、を含み、仮想アバターの表現を表示することは、深度データに基づいて、仮想アバターの第1の部分が、深度ベース表示基準であって、仮想アバターの第1の部分が被写体の対応する第1の部分の前にあるシミュレーションされた深度を有することを、被写体の深度データが示すという要求を含む、深度ベース表示基準のセットを満たすとの判定に従って、深度ベース表示基準が満たされるように、仮想アバターの表現の一部として、被写体の第1の部分の代わりに表示される仮想アバターの第1の部分の表現を含めることと、深度データに基づいて、仮想アバターの第1の部分が、被写体の第1の部分に対する深度ベース表示基準のセットを満たさないとの判定に従って、仮想アバターの表現から、仮想アバターの第1の部分の表現を除外し、仮想アバターの第1の部分によって占有されていたであろう領域に、被写体の第1の部分を表示することと、を含む。 An electronic device will be described. The electronic device is a camera, a display, and means for displaying, via the display, a representation of image data captured via one or more cameras, the representation comprising a representation of a subject, and means for displaying, via a display device, a representation of a virtual avatar displayed in place of at least a portion of the representation of the subject, wherein the image data corresponds to the depth data comprising depth data of the subject; the avatar is positioned at a simulated depth relative to the representation of the subject determined based on the depth data of the subject, and displaying the representation of the virtual avatar comprises: Depth data of the subject, wherein the first portion of the virtual avatar is depth-based display criteria, and that the first portion of the virtual avatar has a simulated depth in front of the corresponding first portion of the subject; is displayed in place of the first portion of the subject as part of the representation of the virtual avatar such that the depth-based display criteria are satisfied, according to a determination that the set of depth-based display criteria are satisfied, including a request that the and according to determining, based on the depth data, that the first portion of the virtual avatar does not meet a set of depth-based display criteria for the first portion of the subject. , excluding the representation of the first portion of the virtual avatar from the representation of the virtual avatar and displaying the first portion of the subject in an area that would have been occupied by the first portion of the virtual avatar; including.

これらの機能を実行するための実行可能命令は、任意選択的に、非一時的コンピュータ可読記憶媒体、又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。これらの機能を実行するための実行可能命令は、任意選択的に、一時的コンピュータ可読記憶媒体、又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。 Executable instructions for performing these functions are optionally contained on a non-transitory computer-readable storage medium or other computer program product configured to be executed by one or more processors. Executable instructions for performing these functions are optionally contained on a temporary computer-readable storage medium or other computer program product configured to be executed by one or more processors.

このため、ビジュアルエフェクトを表示するための、より速く、より効率的な方法及びインタフェースがデバイスに提供され、それによって、そのようなデバイスの有効性、効率、及びユーザ満足度が増す。そのような方法及びインタフェースは、ビジュアルエフェクトを表示するための他の方法を補完又は置換できる。 Thus, devices are provided with faster, more efficient methods and interfaces for displaying visual effects, thereby increasing the effectiveness, efficiency, and user satisfaction of such devices. Such methods and interfaces can complement or replace other methods for displaying visual effects.

説明される様々な実施形態を良好に理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきである。ここで、類似の参照番号は、それらの図全体を通じて、対応する部分を指す。 For a better understanding of the various described embodiments, reference should be made to the following detailed description in conjunction with the following drawings. Here, like reference numerals refer to corresponding parts throughout the figures.

一部の実施形態に係る、タッチ感知ディスプレイを備えるポータブル多機能デバイスを示すブロック図である。1 is a block diagram illustrating a portable multifunction device with a touch sensitive display, according to some embodiments; FIG.

一部の実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。FIG. 4 is a block diagram illustrating exemplary components for event processing, according to some embodiments;

一部の実施形態に係る、タッチスクリーンを有するポータブル多機能デバイスを示す。1 illustrates a portable multifunction device with a touch screen, according to some embodiments;

一部の実施形態に係る、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。1 is a block diagram of an exemplary multifunction device with a display and a touch sensitive surface, according to some embodiments; FIG.

一部の実施形態に係る、ポータブル多機能デバイス上のアプリケーションのメニュー用の例示的なユーザインタフェースを示す図である。[0014] Figure 4 illustrates an exemplary user interface for a menu of applications on a portable multifunction device, according to some embodiments;

一部の実施形態に係る、ディスプレイから分離したタッチ感知面を備える多機能デバイスのための例示的なユーザインタフェースを示す図である。[0014] Figure 4 illustrates an exemplary user interface for a multifunction device with a touch-sensitive surface separate from the display, according to some embodiments;

一部の実施形態に係る、パーソナル電子デバイスを示す図である。1 illustrates a personal electronic device, according to some embodiments; FIG.

一部の実施形態に係る、パーソナル電子デバイスを示すブロック図である。1 is a block diagram illustrating a personal electronic device, according to some embodiments; FIG.

メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application; メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a messaging application;

メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図6A~図6BQのユーザインタフェースを使用して、図7Aの処理を含む、以下で説明する処理を示す。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a messaging application; The user interfaces of FIGS. 6A-6BQ are used to illustrate the processes described below, including the process of FIG. 7A. メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図6A~図6BQのユーザインタフェースを使用して、図7Bの処理を含む、以下で説明する処理を示す。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a messaging application; The user interfaces of FIGS. 6A-6BQ are used to illustrate the processes described below, including the process of FIG. 7B.

カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application;

カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a camera application;

メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。クトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; FIG. 3 shows an exemplary user interface for displaying a project; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in media item viewing mode;

メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 10 is a flow diagram illustrating a method for displaying visual effects in a media item viewing mode; メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 10 is a flow diagram illustrating a method for displaying visual effects in a media item viewing mode;

ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0012] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0012] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0010] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] Figure 4 illustrates an example user interface for displaying visual effects in a live video communication session;

ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a live video communication session; ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying visual effects in a live video communication session;

カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。FIG. 10 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す図である。[0014] FIG. 4 illustrates an exemplary user interface for displaying visual effects in a camera application;

カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a camera application; カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for displaying visual effects in a camera application;

以下の説明では、例示的な方法、パラメータなどが記載される。しかし、そのような説明の目的は、本開示の範囲を制限することではなく、例示的な実施形態の説明を提供することであることを理解されたい。 The following description describes exemplary methods, parameters, and the like. It should be understood, however, that the purpose of such description is not to limit the scope of this disclosure, but to provide description of example embodiments.

ビジュアルエフェクトを表示するための効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。例えば、ビジュアルエフェクトを表示するためのプログラムがすでに存在するが、これらのプログラムは、ユーザが様々なアプリケーションにおいてビジュアルエフェクトを表示することができる、以下の技術に比べて非効率で使いにくい。かかる技術によって、アプリケーションにおいてビジュアルエフェクトを表示するユーザの認知負担を軽減し、それによって生産性を向上させることができる。更に、そのような技術は、通常であれば冗長なユーザ入力に対して浪費される、プロセッサ及びバッテリの電力を低減することができる。 What is needed is an electronic device that provides an efficient method and interface for displaying visual effects. For example, programs already exist for displaying visual effects, but these programs are inefficient and difficult to use compared to the following techniques that allow users to display visual effects in a variety of applications. Such techniques can reduce a user's cognitive burden of displaying visual effects in an application, thereby increasing productivity. In addition, such techniques can reduce processor and battery power that would otherwise be wasted on redundant user input.

以下、図1A~図1B、図2、図3、図4A~図4B、及び図5A~図5Bは、イベント通知を管理する技術を実行するための例示的なデバイスの説明を提供する。 1A-1B, 2, 3, 4A-4B, and 5A-5B, below, provide descriptions of exemplary devices for implementing techniques for managing event notifications.

図6A~図6BQは、メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。図7A及び図7Bは、一部の実施形態に係る、メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図6A~図6BQのユーザインタフェースを使用して、図7A及び図7Bの処理を含む、以下で説明する処理を示す。 6A-6BQ illustrate exemplary user interfaces for displaying visual effects in a messaging application. 7A and 7B are flow diagrams illustrating methods for displaying visual effects in a messaging application, according to some embodiments. The user interfaces of FIGS. 6A-6BQ are used to illustrate the processes described below, including the processes of FIGS. 7A and 7B.

図8A~図8BQは、カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。図9A及び図9Bは、一部の実施形態に係る、カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図8A~図8BQのユーザインタフェースを使用して、図9A及び図9Bの処理を含む、以下で説明する処理を示す。 8A-8BQ illustrate exemplary user interfaces for displaying visual effects in a camera application. 9A and 9B are flow diagrams illustrating methods for displaying visual effects in a camera application, according to some embodiments. The user interfaces of FIGS. 8A-8BQ are used to illustrate the processes described below, including the processes of FIGS. 9A and 9B.

図10A~図10ALは、カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。図11A及び図11Bは、一部の実施形態に係る、メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図10A~図10ALのユーザインタフェースを使用して、図11A及び図11Bのプロセスを含む、以下で説明する処理を示す。 10A-10AL show exemplary user interfaces for displaying visual effects in a camera application. 11A and 11B are flow diagrams illustrating methods for displaying visual effects in a media item viewing mode, according to some embodiments. The user interfaces of FIGS. 10A-10AL are used to illustrate the processes described below, including the processes of FIGS. 11A and 11B.

図12A~図12APは、ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。図13A及び図13Bは、一部の実施形態に係る、ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図12A~図12APのユーザインタフェースを使用して、図13A及び13Bのプロセスを含む、以下で説明するプロセスを示す。 12A-12AP illustrate exemplary user interfaces for displaying visual effects in a live video communication session. 13A and 13B are flow diagrams illustrating methods for displaying visual effects in a live video communication session, according to some embodiments. The user interfaces of FIGS. 12A-12AP are used to illustrate the processes described below, including the processes of FIGS. 13A and 13B.

図14A~図14Mは、カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。図15A及び図15Bは、一部の実施形態に係る、カメラアプリケーションにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。図14A~図14Mのユーザインタフェースを使用して、図15A及び図15Bのプロセスを含む、以下で説明するプロセスを示す。 14A-14M show exemplary user interfaces for displaying visual effects in a camera application. 15A and 15B are flow diagrams illustrating methods for displaying visual effects in a camera application, according to some embodiments. The user interfaces of FIGS. 14A-14M are used to illustrate the processes described below, including the processes of FIGS. 15A and 15B.

以下の説明では、さまざまな要素を説明するために「第1」、「第2」などの用語が使用されるが、これらの要素はこれらの用語によって限定されるべきではない。これらの用語は、1つの要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1のタッチは第2のタッチと称することができ、同様に、第2のタッチは第1のタッチと称し得る。第1のタッチ及び第2のタッチは共にタッチであるが、同じタッチではない。 Although the following description uses the terms "first", "second", etc. to describe various elements, these elements should not be limited by these terms. These terms are only used to distinguish one element from another. For example, a first touch could be termed a second touch, and, similarly, a second touch could be termed a first touch, without departing from the scope of various described embodiments. The first touch and the second touch are both touches, but not the same touch.

本明細書で説明される様々な実施形態の説明で使用される用語は、特定の実施形態を説明することのみを目的とするものであって、限定することを意図するものではない。説明される様々な実施形態の説明及び添付の特許請求の範囲で使用されるように、単数形「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形もまた含むことが意図される。本明細書で使用されるように、用語「and/or(及び/又は)」は、関連する列挙された項目のうちの1つ以上の任意のすべての可能な組合せを指し、かつこれを含むことをもまた理解されたい。用語「includes(含む)、「including(含む)」、「comprises(含む)」、及び/又は「comprising(含む)」は、本明細書で使用されるとき、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。 The terminology used in the description of the various embodiments described herein is for the purpose of describing particular embodiments only and is not intended to be limiting. As used in the description of the various embodiments described and in the appended claims, the singular forms "a," "an," and "the" do not clearly indicate to the contrary the context To the extent possible, it is also intended to include plural forms. As used herein, the term "and/or" refers to and includes any and all possible combinations of one or more of the associated listed items. It should also be understood that The terms "includes," "including," "comprises," and/or "comprising," as used herein, refer to the features, integers, steps, specify the presence of acts, elements and/or components but do not exclude the presence or addition of one or more other features, integers, steps, acts, elements, components and/or groups thereof will be further understood.

任意選択的に、用語「if(~場合に)」は、文脈に応じて「when(~時に)」、「upon(~すると)」、「in response to determining(~という判定に応じて)」、又は「in response to detecting(~を検出したことに応じて)」を意味すると解釈される。同様に、語句「if it is determined(~と判定される場合)」又は「if(a stated condition or event)is detected((述べられる条件又はイベント)が検出される場合)」は、任意選択で、文脈に依存して「upon determining(~と判定すると)」、「in response to determining(~と判定したことに応じて)」、「upon detecting(the stated condition or event)((述べられる条件又はイベント)を検出すると)」、又は「in response to detecting(the stated condition or event)((述べられる条件又はイベント)を検出したことに応じて)」を意味するものと解釈される。 Optionally, the term "if" is changed to "when", "upon", "in response to determining" depending on the context. , or to mean "in response to detecting". Similarly, the phrases "if it is determined" or "if (a stated condition or event) is detected" can optionally be , "upon determining", "in response to determining", "upon detecting (the stated condition or event)" depending on the context or "in response to detecting (the stated condition or event)".

電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用するための関連するプロセスの実施形態を説明する。一部の実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、モバイル電話機などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態には、California州CupertinoのApple Inc.のiPhone(登録商標)、iPod Touch(登録商標)及びiPad(登録商標)デバイスが挙げられるが、これらに限定されない。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたラップトップ又はタブレットコンピュータなどの他のポータブル電子デバイスも、任意選択的に、使用される。一部の実施形態では、デバイスがポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたデスクトップコンピュータであることもまた理解されたい。 Embodiments of electronic devices, user interfaces for such devices, and associated processes for using such devices are described. In some embodiments, the device is a portable communication device such as a mobile phone that also includes PDA functionality and/or other functionality such as music player functionality. Exemplary embodiments of portable multifunction devices include Apple Inc. of Cupertino, Calif.; iPhone(R), iPod Touch(R) and iPad(R) devices. Other portable electronic devices such as laptops or tablet computers with touch-sensitive surfaces (eg, touch screen displays and/or touch pads) are also optionally used. It should also be appreciated that in some embodiments the device is not a portable communication device, but a desktop computer with a touch-sensitive surface (eg, touchscreen display and/or touchpad).

以下の議論では、ディスプレイ及びタッチ感知面を含む電子デバイスが説明される。しかしながら、電子デバイスが物理キーボード、マウス、及び/又はジョイスティックなどの、1つ以上の他の物理ユーザインタフェースデバイスを任意選択的に含むことを理解されたい。 In the discussion that follows, electronic devices that include displays and touch-sensitive surfaces are described. However, it should be understood that the electronic device optionally includes one or more other physical user interface devices such as physical keyboards, mice and/or joysticks.

このデバイスは、一般的に、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。 The device is commonly used in drawing applications, presentation applications, word processing applications, website creation applications, disc authoring applications, spreadsheet applications, gaming applications, telephony applications, video conferencing applications, e-mail applications, instant messaging applications, training It supports various applications such as one or more of a support application, a photo management application, a digital camera application, a digital video camera application, a web browsing application, a digital music player application and/or a digital video player application.

本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調節及び/又は変更される。このように、デバイスの共通の(タッチ感知面などの)物理アーキテクチャは、ユーザにとって直観的かつ透過的なユーザインタフェースを備える様々なアプリケーションを、任意選択的にサポートする。 Various applications running on the device optionally use at least one common physical user interface device, such as a touch-sensitive surface. One or more functions of the touch-sensitive surface and corresponding information displayed on the device are optionally adjusted and/or changed from application to application and/or within each application. In this way, the common physical architecture of the device (such as the touch-sensitive surface) optionally supports a variety of applications with user interfaces that are intuitive and transparent to the user.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、一部の実施形態による、タッチ感知ディスプレイシステム112を備えるポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれる場合があり、「タッチ感知ディスプレイシステム」として既知であるか又は呼ばれる場合もある。デバイス100は、(1つ以上のコンピュータ可読記憶媒体を任意選択的に含む)メモリ102、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力制御デバイス116、及び外部ポート124を含む。デバイス100は、1つ以上の光センサ164を任意選択的に含む。デバイス100は、デバイス100(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出するための、1つ以上の接触強度センサ165を任意選択的に含む。デバイス100は、デバイス100上に触知出力を生成する(例えば、デバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などの、タッチ感知面上に触知出力を生成する)ための、1つ以上の触知出力生成器167を、任意選択的に含む。これらの構成要素は、1つ以上の通信バス又は信号ライン103を介して任意選択的に通信する。 Attention is now directed to embodiments of portable devices with touch-sensitive displays. FIG. 1A is a block diagram illustrating portable multifunction device 100 with touch-sensitive display system 112, according to some embodiments. The touch-sensitive display 112 is sometimes referred to as a "touch screen" for convenience, and is sometimes known or referred to as a "touch-sensitive display system." Device 100 includes memory 102 (optionally including one or more computer readable storage media), memory controller 122, one or more processing units (CPUs) 120, peripherals interface 118, RF circuitry 108, audio circuitry 110 , speaker 111 , microphone 113 , input/output (I/O) subsystem 106 , other input control devices 116 , and external ports 124 . Device 100 optionally includes one or more photosensors 164 . Device 100 optionally includes one or more contact intensity sensors 165 for detecting the intensity of contact on device 100 (eg, a touch-sensitive surface such as touch-sensitive display system 112 of device 100). device 100 to generate tactile output on device 100 (e.g., on a touch-sensitive surface such as touch-sensitive display system 112 of device 100 or touch pad 355 of device 300); One or more tactile output generators 167 are optionally included. These components optionally communicate via one or more communication buses or signal lines 103 .

本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指接触)の力若しくは圧力(単位面積当りの力)、又はタッチ感知面上の接触の力若しくは圧力の代替物(代用物)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、何百もの(例えば、少なくとも256個の)別個の値を含む値範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組合せを使用して判定(又は、測定)される。例えば、タッチ感知面の下に又はこれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々な点における力を測定するために使用される。一部の実装形態では、複数の力センサからの力測定値は、接触の力の推定値を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触領域のサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化が、タッチ感知面上の接触の力又は圧力の代替物として、任意選択的に用いられる。一部の実装形態では、接触の力又は圧力に対する代替的測定値は、強度閾値を超えているかを判定するために直接使用される(例えば、強度閾値は、代替的測定値に対応する単位で説明される)。一部の実装形態では、接触の力又は圧力に対する代替的測定値は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超えているかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。接触の強度をユーザ入力の属性として使用することによって、アフォーダンスを表示するための(例えば、タッチ感知ディスプレイ上で)、及び/又は、ユーザ入力を受信するための(例えば、タッチ感知ディスプレイ、タッチ感知面、又はノブ若しくはボタンなどの物理的/機械的制御部を介して)、面積が制限されている、低減されたサイズのデバイス上で別途ユーザによってアクセスすることができないことがある追加的なデバイス機能へのユーザのアクセスが可能となる。 As used herein and in the claims, the term "strength" of contact on the touch-sensitive surface refers to the force or pressure (force per unit area) of contact (e.g., finger contact) on the touch-sensitive surface. ), or a substitute for contact force or pressure on a touch-sensitive surface. The intensity of contact has a value range that includes at least four distinct values, and more typically includes hundreds (eg, at least 256) distinct values. The strength of contact is optionally determined (or measured) using various techniques and various sensors or combinations of sensors. For example, one or more force sensors under or adjacent to the touch-sensitive surface are optionally used to measure force at various points on the touch-sensitive surface. In some implementations, force measurements from multiple force sensors are combined (eg, weighted average) to determine a contact force estimate. Similarly, the stylus' pressure-sensitive tip is optionally used to determine the pressure of the stylus on the touch-sensitive surface. Alternatively, the size and/or change in the contact area detected on the touch-sensitive surface, the capacitance and/or change in the touch-sensitive surface proximate to the contact, and/or the resistance and/or changes in the touch-sensitive surface proximate to the contact. /or variations thereof are optionally used as a substitute for contact force or pressure on the touch-sensitive surface. In some implementations, the alternative measurement for contact force or pressure is used directly to determine if an intensity threshold has been exceeded (e.g., the intensity threshold is in units corresponding to the alternative measurement). explained). In some implementations, the alternative measurement for contact force or pressure is converted to an estimated force or pressure, and the estimated force or pressure is used to determine if the intensity threshold is exceeded. (eg, the intensity threshold is the pressure threshold measured in units of pressure). for displaying affordances (e.g., on touch-sensitive displays) and/or for receiving user input (e.g., touch-sensitive displays, touch-sensitive Additional devices that may not otherwise be accessible by the user on a reduced size device that has a limited area (via physical/mechanical controls such as faces or knobs or buttons). User access to functionality is enabled.

本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの前の位置に対するデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)のデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又はデバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素がタッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況において、物理的変位によって生成された触知出力は、デバイス又はデバイスの構成要素の物理的特性における認識された変化に相当する触感として、ユーザによって解釈される。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、任意選択的に、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として解釈される。一部の場合では、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触知感を感じる。別の実施例として、タッチ感知面の移動は、任意選択的に、タッチ感知面の平滑度において変化がないときでさえ、ユーザによってタッチ感知面の「粗さ」として解釈又は感知される。ユーザによるそのようなタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。よって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」、「ダウンクリック」、「粗さ」)に対応するものとして説明されるとき、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの説明された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。 As used herein and in the claims, the term "tactile output" refers to the physical displacement of the device relative to its previous position, the configuration of the device, to be detected by the user in the user's sense of touch. Refers to the physical displacement of an element (eg, touch-sensitive surface) relative to another component of a device (eg, housing), or the displacement of a component relative to the device's center of mass. Tactile output produced by physical displacement, e.g., in situations where a device or device component is in contact with a touch-sensitive surface of a user (e.g., a finger, palm, or other portion of a user's hand) is interpreted by the user as a tactile sensation corresponding to a perceived change in the physical properties of the device or device component. For example, movement of a touch-sensitive surface (eg, a touch-sensitive display or trackpad) is optionally interpreted by the user as a "down-click" or "up-click" of a physical actuator button. In some cases, a user may "down-click" or "up-click" even when there is no physical actuator button movement associated with the touch-sensitive surface that is physically pressed (e.g., displaced) by the user's motion. A tactile sensation such as a "click" is felt. As another example, movement of the touch-sensitive surface is optionally interpreted or perceived by the user as "roughness" of the touch-sensitive surface, even when there is no change in the smoothness of the touch-sensitive surface. A user's interpretation of such touches depends on the user's personal sensory perception, but there are many sensory perceptions of touch that are common to the majority of users. Thus, when a tactile output is described as corresponding to a particular sensory perception of a user (e.g., "up-click", "down-click", "roughness"), the generated Tactile output corresponds to physical displacement of the device, or components of the device, that produce the described sensory perception of a typical (or average) user.

デバイス100は、ポータブル多機能デバイスの一実施例に過ぎず、デバイス100は、示されているものよりも多くの構成要素又は少ない構成要素を任意選択的に有し、2つ以上の構成要素を任意選択的に組み合せて、又は構成要素の異なる構成若しくは配置を任意選択的に有することを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア又はハードウェア及びソフトウェアの双方の組み合わせで実装される。 Device 100 is but one example of a portable multifunction device, and device 100 optionally has more or fewer components than those shown and may include two or more components. It should be understood to optionally have different configurations or arrangements of components in any combination or arrangement. The various components shown in FIG. 1A are implemented in hardware, software, or a combination of both hardware and software, including one or more signal processing circuits and/or application specific integrated circuits.

メモリ102は、高速ランダムアクセスメモリを任意選択的に含み、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリもまた任意選択的に含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。 Memory 102 optionally includes high speed random access memory and optionally also non-volatile memory such as one or more magnetic disk storage devices, flash memory devices or other non-volatile solid state memory devices. Memory controller 122 optionally controls access to memory 102 by other components of device 100 .

周辺機器インタフェース118を使用して、本デバイスの入力及び出力周辺機器を、CPU120及びメモリ102に接続することができる。1つ以上のプロセッサ120は、デバイス100のための様々な機能を実行するため並びにデータを処理するために、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる、又は実行する。一部の実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、チップ104などの単一チップ上に任意選択的に実装される。一部の他の実施形態では、それらは別々のチップ上に任意選択的に実装される。 Peripheral interface 118 may be used to connect input and output peripherals of the device to CPU 120 and memory 102 . One or more processors 120 operate or execute various software programs and/or instruction sets stored in memory 102 to perform various functions for device 100 and to process data. . In some embodiments, peripherals interface 118, CPU 120, and memory controller 122 are optionally implemented on a single chip, such as chip 104. FIG. In some other embodiments, they are optionally implemented on separate chips.

RF(radio requency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、及びメモリなどを含むがこれらに限定されない、それらの機能を実行するための周知の回路を任意選択的に含む。RF回路108は任意選択で、ワールドワイドウェブ(WWW)とも称されるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)及び/若しくはメトロポリタンエリアネットワーク(MAN)などの無線ネットワークなどのネットワークと、他のデバイスと無線通信によって通信する。RF回路108は、近距離通信無線などによる近距離通信(NFC)(near field communication)フィールドを検出するための周知の回路を任意選択的に含む。無線通信は、複数の通信規格、通信プロトコル、及び通信技術のうちのいずれかを、任意選択的に使用し、それらの通信規格、通信プロトコル、及び通信技術としては、移動通信用のグローバルシステム(Global System for Mobile Communications、GSM(登録商標))、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケット接続(high-speed downlink packet access、HSDPA)、高速アップリンクパケット接続(high-speed uplink packet access、HSUPA)、Evolution,Data-Only(EV-DO)、HSPA、HSPA+、2重セルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離無線通信(near field communication、NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetooth(登録商標)Low Energy(BTLE)、Wireless Fidelity(Wi-Fi)(登録商標)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/又はIEEE 802.11ac)、ボイスオーバーインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX、電子メール用のプロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/又はポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能メッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンス利用拡張向けセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、及び/又はショートメッセージサービス(Short Message Service、SMS)、あるいは本文書の出願日現在までにまだ開発されていない通信プロトコルを含めた任意の他の好適な通信プロトコルが挙げられるが、これらに限定されない。 Radio frequency (RF) circuitry 108 transmits and receives RF signals, also called electromagnetic signals. RF circuitry 108 converts electrical signals to electromagnetic signals or vice versa to communicate with communication networks and other communication devices via electromagnetic signals. RF circuitry 108 includes an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, a CODEC chipset, a Subscriber Identity Module (SIM) card, memory, and the like. Optionally include, but are not limited to, well-known circuitry for performing those functions. The RF circuit 108 is optionally the Internet, also referred to as the World Wide Web (WWW), intranets, and/or wireless networks such as cellular telephone networks, wireless local area networks (LAN) and/or metropolitan area networks (MAN), and the like. network and other devices wirelessly. RF circuitry 108 optionally includes well-known circuitry for detecting a near field communication (NFC) field, such as by a near field communication radio. Wireless communication optionally uses any of a number of communication standards, protocols and technologies, including the Global System for Mobile Communications ( Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high-speed downlink packet access (HSDPA), high-speed uplink packet access (HSDPA) speed uplink packet access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA+, Dual-Cell HSPA (Dual-Cell HSPA, DC-HSPDA), Long term evolution (LTE), Near near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access , TDMA), Bluetooth®, Bluetooth® Low Energy (BTLE), Wireless Fidelity (Wi-Fi)® (e.g., IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, IEEE 802.11n and/or IEEE 802.11ac), voice over Internet Protocol (VoIP), Wi-MAX, protocols for email (e.g., Internet message access protocol, IMAP ) and/or post office protocol (POP)), instant messaging (e.g., extensible messaging and presence protocol (XMPP), session initiation protocol for enhanced instant messaging and presence usage (Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS)), and/or Short Message Service (SMS), or as of the filing date of this document Any other suitable communication protocol including, but not limited to, communication protocols not yet developed in

オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118から音声データを受信し、その音声データを電気信号に変換し、その電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。オーディオ回路110はまた、マイクロフォン113により音波から変換された電気信号を受信する。オーディオ回路110は、電気信号を音声データに変換し、音声データを処理のために周辺機器インタフェース118に送信する。音声データは任意選択で、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、並びに/又はメモリ102及び/若しくはRF回路108へ送信される。一部の実施形態では、オーディオ回路110はヘッドセットジャック(例えば、図2の212)を更に含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば、片耳又は両耳用のヘッドホン)及び入力(例えば、マイクロフォン)の双方を有するヘッドセットなどの、取り外し可能なオーディオ入出力周辺機器と、の間のインタフェースを提供する。 Audio circuitry 110 , speaker 111 , and microphone 113 provide an audio interface between the user and device 100 . Audio circuitry 110 receives audio data from peripherals interface 118 , converts the audio data to an electrical signal, and transmits the electrical signal to speaker 111 . The speaker 111 converts the electrical signal into human audible sound waves. Audio circuitry 110 also receives electrical signals converted from sound waves by microphone 113 . Audio circuitry 110 converts the electrical signals to audio data and transmits the audio data to peripherals interface 118 for processing. Audio data is optionally retrieved from memory 102 and/or RF circuitry 108 and/or transmitted to memory 102 and/or RF circuitry 108 by peripherals interface 118 . In some embodiments, audio circuitry 110 further includes a headset jack (eg, 212 in FIG. 2). The headset jack connects audio circuitry 110 and detachable audio input/output peripherals, such as output-only headphones or headsets that have both an output (e.g., monaural or binaural headphones) and an input (e.g., a microphone). provides an interface between

I/Oサブシステム106は、周辺機器インタフェース118に、タッチスクリーン112及び他の入力制御デバイス116などのデバイス100の入出力周辺機器を結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力若しくは制御デバイスのための1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、電気信号を、他の入力制御デバイス116から受信/他の入力制御デバイス116に送信する。他の入力制御デバイス116は、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイアル、スライダスイッチ、ジョイスティック、クリックホイールなどを任意選択的に含む。一部の代替的実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに連結される(又は、いずれにも連結されない)。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロフォン113の音量調節のためのアップ/ダウンボタンを任意選択的に含む。1つ以上のボタンは、プッシュボタン(例えば、図2の206)を任意選択的に含む。 I/O subsystem 106 couples input/output peripherals of device 100 , such as touch screen 112 and other input control devices 116 , to peripherals interface 118 . I/O subsystem 106 optionally includes one or more input controllers 160 for display controller 156, light sensor controller 158, intensity sensor controller 159, tactile feedback controller 161, and other input or control devices. include. One or more input controllers 160 receive/send electrical signals from/to other input control devices 116 . Other input control devices 116 optionally include physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, and the like. In some alternative embodiments, input controller(s) 160 is optionally coupled to any of a keyboard, an infrared port, a USB port, and a pointer device such as a mouse (or not connected to either). One or more buttons (eg, 208 in FIG. 2) optionally include up/down buttons for volume control of speaker 111 and/or microphone 113 . The one or more buttons optionally include push buttons (eg, 206 in FIG. 2).

2005年12月23日に出願された、米国特許第7,657,849号である米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」(この特許は、その全体が本明細書において参照により組み込まれる)に記載されているように、任意選択的に、プッシュボタンの素早い押圧により、タッチスクリーン112のロックを解除するか、又はデバイスのロック解除にタッチスクリーン上のジェスチャを用いる処理を任意選択的に開始する。プッシュボタン(例えば、206)をより長く押圧することにより、任意選択的にデバイス100の電源をオンオフする。ボタンのうちの1つ以上の機能は、任意選択的に、ユーザカスタマイズ可能である。タッチスクリーン112は、仮想ボタン又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。 U.S. patent application Ser. No. 11/322,549, "Unlocking a Device by Performing Gestures on an Unlock Image," filed Dec. 23, 2005, U.S. Pat. No. 7,657,849; Optionally, a quick press of a push button unlocks the touch screen 112 or unlocks the device to unlock the touch screen, as described in the entirety of which is incorporated herein by reference. Optionally initiate a process using the above gesture. A longer press on the push button (eg, 206) optionally powers the device 100 on and off. The functionality of one or more of the buttons is optionally user customizable. Touch screen 112 is used to implement virtual buttons or soft buttons and one or more soft keyboards.

タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、電気信号を、タッチスクリーン112から受信及び/又はタッチスクリーン112に送信する。タッチスクリーン112は、ユーザに視覚出力を表示する。視覚出力は、グラフィック、テキスト、アイコン、ビデオ及びこれらの任意の組み合わせ(総称して「グラフィック」と称する)を任意選択的に含む。一部の実施形態では、任意選択的に、視覚出力の一部又はすべてはユーザインタフェースオブジェクトに対応する。 Touch-sensitive display 112 provides an input and output interface between the device and the user. Display controller 156 receives and/or sends electrical signals to touchscreen 112 . Touch screen 112 displays visual output to the user. Visual output optionally includes graphics, text, icons, video, and any combination thereof (collectively referred to as "graphics"). In some embodiments, optionally some or all of the visual output corresponds to user interface objects.

タッチスクリーン112は、触覚及び/又は触知接触に基づくユーザからの入力を受け付けるタッチ感知面、センサ、若しくはセンサのセットを有している。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)、タッチスクリーン112上で接触(及び任意の接触の移動又は中断)を検出し、その検出された接触をタッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)との対話に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。 Touch screen 112 has a touch-sensitive surface, sensor, or set of sensors that accepts input from a user based on tactile and/or tactile contact. Touchscreen 112 and display controller 156 (together with any associated modules and/or instruction sets in memory 102) detect contact (and any movement or interruption of contact) on touchscreen 112 and into interactions with user interface objects (eg, one or more softkeys, icons, web pages, or images) displayed on touch screen 112 . In an exemplary embodiment, the contact point between touch screen 112 and the user corresponds to the user's finger.

タッチスクリーン112は任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術が使用される。タッチスクリーン112及びディスプレイコントローラ156は、静電容量技術、抵抗性技術、赤外線技術、及び表面超音波技術、並びに、タッチスクリーン112との1つ以上の接触点を判定するための他の近接センサアレイ又は他の要素を含むが、これらに限定されない、現在公知の若しくは後日に開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及び任意の移動又はその中断を、任意選択的に検出する。例示的な実施形態では、California州CupertinoのApple Inc.によるiPhone(登録商標)及びiPod Touch(登録商標)において見られるような、投影型相互静電容量感知技術が使用されている。 The touch screen 112 optionally uses LCD (Liquid Crystal Display) technology, LPD (Light Emitting Polymer Display) technology or LED (Light Emitting Diode) technology, although in other embodiments other display technologies are used. The touchscreen 112 and display controller 156 use capacitive, resistive, infrared, and surface ultrasonic technologies, as well as other proximity sensor arrays for determining one or more points of contact with the touchscreen 112. or other elements, optionally detecting contact and any movement or interruption thereof using any of a number of now-known or later-developed touch-sensing technologies. to detect. In an exemplary embodiment, Apple Inc. of Cupertino, Calif. Projected mutual-capacitance sensing technology is used, such as that found in the iPhone® and iPod Touch® by Apple.

タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、任意選択的に、以下の米国特許、第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/又は第6,677,932号(Westerman)、及び/又は米国特許出願公開第2002/0015024(A1)号に記載されているマルチタッチ感知タッチパッドに類似する。これらの文献は、それぞれその全体が本明細書において参照により組み込まれている。しかし、タッチスクリーン112は、デバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは、視覚出力を提供しない。 The touch-sensitive display in some embodiments of the touch screen 112 optionally includes the following U.S. Pat. /or similar to the multi-touch sensing touchpads described in Westerman 6,677,932 and/or US Patent Application Publication No. 2002/0015024A1. Each of these documents is incorporated herein by reference in its entirety. However, the touchscreen 112 displays visual output from the device 100, whereas the touch-sensitive touchpad does not provide visual output.

タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、以下の出願で説明されている。(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の同第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の同第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の同第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の同第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の同第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の同第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の同第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の同第11/367,749号、「Multi-Functional Hand-Held Device」。これらの出願のすべては、全体が参照により本明細書に組み込まれる。 Touch sensitive displays in some embodiments of touch screen 112 are described in the following applications. (1) U.S. Patent Application Serial No. 11/381,313, filed May 2, 2006, entitled "Multipoint Touch Surface Controller"; Multipoint Touchscreen," (3) 10/903,964, filed Jul. 30, 2004; "Gestures For Touch Sensitive Input Devices," (4) 11/048, filed Jan. 31, 2005, 264, "Gestures For Touch Sensitive Input Devices," (5) Serial No. 11/038,590, filed Jan. 18, 2005, "Mode-Based Graphical User Interfaces For Touch Sensitive Input De vices”, (6) 2005 11/228,758, filed September 16, 2005, "Virtual Input Device Placement On A Touch Screen User Interface," (7) 11/228,700, filed September 16, 2005, " Operation Of A Computer With A Touch Screen Interface," (8) Serial No. 11/228,737, filed September 16, 2005, "Activating Virtual Keys Of A Touch-Screen Virtual Keyboard." , and (9) 2006 Serial No. 11/367,749, filed March 3, "Multi-Functional Hand-Held Device." All of these applications are incorporated herein by reference in their entireties.

タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。一部の実施形態では、タッチスクリーンは約160dpiのビデオ解像度を有する。ユーザは、スタイラス、指などの任意の好適な物体又は付属器を使用して、タッチスクリーン112と任意選択的に接触する。一部の実施形態では、ユーザインタフェースは、主として指に基づく接触及びジェスチャと作用するように設計され、タッチスクリーン上の指の接触面積が広いことに起因して、スタイラスを基準とした入力よりも精度が低いことがある。一部の実施形態では、デバイスは、指に基づく粗い入力を正確なポインタ/カーソル位置又はユーザの望むアクションを実行するためのコマンドに変換する。 Touch screen 112 optionally has a video resolution greater than 100 dpi. In some embodiments, the touch screen has a video resolution of approximately 160 dpi. A user optionally contacts touchscreen 112 using any suitable object or accessory, such as a stylus, finger, or the like. In some embodiments, the user interface is designed to work primarily with finger-based contacts and gestures, and due to the larger finger contact area on the touch screen, is more flexible than stylus-based input. Accuracy may be low. In some embodiments, the device converts coarse finger-based input into precise pointer/cursor positions or commands to perform user-desired actions.

一部の実施形態では、タッチスクリーンに加えて、デバイス100は、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを任意選択的に含む。一部の実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面又はタッチスクリーンによって形成されたタッチ感知面の拡張部である。 In some embodiments, in addition to the touchscreen, device 100 optionally includes a touchpad for activating or deactivating certain functions. In some embodiments, a touchpad is a touch-sensitive area of a device that displays no visual output, unlike a touchscreen. The touchpad is optionally a touch-sensitive surface separate from the touchscreen 112 or an extension of the touch-sensitive surface formed by the touchscreen.

デバイス100はまた、様々な構成要素に電力を供給するための電力システム162を含む。電力システム162は任意選択で、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配と関連付けられた任意の他の構成要素を含む。 Device 100 also includes a power system 162 for powering the various components. Power system 162 optionally includes a power management system, one or more power sources (e.g., batteries, alternating current (AC)), a recharging system, power failure detection circuitry, power converters or inverters, power status indicators (e.g., light emitting diodes ( LEDs)), and any other components associated with the generation, management, and distribution of power within a portable device.

デバイス100はまた任意選択で、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に接続された光センサを示す。光センサ164は、電荷結合デバイス(CCD)又は相補的金属酸化物半導体(CMOS)フォトトランジスタを、任意選択的に含む。光センサ164は、1つ以上のレンズを通して投影された、環境からの光を受光し、その光を、画像を表現するデータに変換する。撮像モジュール143(カメラモジュールとも称する)と併用して、光センサ164は、静止画像又はビデオを任意選択的にキャプチャする。一部の実施形態では、タッチスクリーンディスプレイを静止画像及び/又はビデオ画像取得のためのビューファインダとして有効化するように、光センサは、デバイスの前面のタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。一部の実施形態では、任意選択的に、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見るのと同時に、そのユーザの画像をテレビ会議のために得るように、デバイスの前面に光センサが配置されている。一部の実施形態では、光センサ164の位置は、ユーザによって(例えば、デバイス筐体内のレンズ及びセンサを回転させることによって)変更することができ、それにより、テレビ会議並びに静止画像及び/又はビデオ画像の取得の双方のために、単一の光センサ164を、タッチスクリーンディスプレイと共に使用する。 Device 100 also optionally includes one or more photosensors 164 . FIG. 1A shows a photosensor connected to photosensor controller 158 in I/O subsystem 106 . Photosensor 164 optionally includes a charge coupled device (CCD) or complementary metal oxide semiconductor (CMOS) phototransistor. Optical sensor 164 receives light from the environment projected through one or more lenses and converts the light into data representing an image. In conjunction with imaging module 143 (also referred to as a camera module), optical sensor 164 optionally captures still images or video. In some embodiments, the optical sensor is opposite the touchscreen display 112 on the front of the device to enable the touchscreen display as a viewfinder for still and/or video image capture. It is located on the back of 100. In some embodiments, optionally, a light is placed on the front of the device so that a user can see other videoconference participants on the touchscreen display at the same time that the user's image is obtained for the videoconference. A sensor is placed. In some embodiments, the position of optical sensor 164 can be changed by the user (eg, by rotating the lens and sensor within the device housing), thereby enabling teleconferencing and still and/or video A single photosensor 164 is used in conjunction with the touch screen display for both image acquisition.

デバイス100はまた、1つ以上の深度カメラセンサ175を任意選択的に含む。図1Aは、I/Oサブシステム106内のカメラコントローラ169に結合された、深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内のオブジェクト(例えば、顔)の3次元モデルを生成する。一部の実施形態では、撮像モジュール143(カメラモジュールとも呼ばれる)と共に深度カメラセンサ175を任意選択的に使用して、撮像モジュール143によってキャプチャされた画像の異なる部分の深度マップを判定する。一部の実施形態では、深度カメラセンサがデバイス100の前面に配置され、ユーザが、タッチスクリーンディスプレイ上で他のテレビ会議参加者を見ている間に、かつ、深度マップデータを用いて自撮りをキャプチャできるように、深度情報を有するユーザの画像を、テレビ会議のために任意選択的に取得することができる。一部の実施形態では、深度カメラセンサ175は、デバイスの背面、又はデバイス100の背面及び前面に配置される。一部の実施形態では、深度カメラ175の位置をユーザが(例えば、デバイス筐体内のレンズ及びセンサを回転させることによって)変更することができ、深度カメラセンサ175を、テレビ会議並びに静止画像及び/又はビデオ画像の取得の両方のために、タッチスクリーンディスプレイと共に使用することができる。 Device 100 also optionally includes one or more depth camera sensors 175 . FIG. 1A shows a depth camera sensor coupled to camera controller 169 within I/O subsystem 106 . Depth camera sensor 175 receives data from the environment and produces a three-dimensional model of an object (eg, face) in the scene from a viewpoint (eg, depth camera sensor). In some embodiments, depth camera sensor 175 is optionally used in conjunction with imaging module 143 (also referred to as a camera module) to determine depth maps of different portions of the image captured by imaging module 143 . In some embodiments, a depth camera sensor is placed on the front of the device 100 so that the user can take a selfie while looking at other videoconference participants on the touch screen display and using the depth map data. An image of the user with depth information can optionally be acquired for video conferencing so that the . In some embodiments, depth camera sensor 175 is placed on the back of the device, or on the back and front of device 100 . In some embodiments, the position of the depth camera 175 can be changed by the user (e.g., by rotating the lens and sensor within the device housing), and the depth camera sensor 175 can be used for teleconferencing and still images and/or Or it can be used with a touch screen display, both for capturing video images.

一部の実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ、光センサ、深度カメラセンサ)からのシーン内のオブジェクトの距離に関する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、その対応する2次元ピクセルが配置される、視点のZ軸内の位置を規定する。一部の実施形態では、深度マップは、各ピクセルが値(例えば、0~255)によって定義されるピクセルから構成される。例えば、「0」値は、「3次元」シーンにおける最も離れた位置に配置されるピクセルを表し、「255」値は、「3次元」シーンにおける視点(例えば、カメラ、光センサ、深度カメラセンサ)に最も近いピクセルを表す。他の実施形態では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。一部の実施形態では、深度マップは、深度カメラの視点における関心あるオブジェクトの様々な特徴の相対的深度(例えば、ユーザの顔の目、鼻、口、耳の相対的深度)についての情報を含む。一部の実施形態では、深度マップは、z方向の関心あるオブジェクトの輪郭をデバイスが判定することを可能にする情報を含む。 In some embodiments, a depth map (eg, depth map image) contains information (eg, values) about the distance of objects in a scene from a viewpoint (eg, camera, light sensor, depth camera sensor). In one embodiment of the depth map, each depth pixel defines the position within the Z-axis of the viewpoint at which its corresponding two-dimensional pixel is located. In some embodiments, the depth map consists of pixels where each pixel is defined by a value (eg, 0-255). For example, a '0' value represents the farthest located pixel in a '3D' scene, and a '255' value represents a point of view (e.g., camera, light sensor, depth camera sensor) in a '3D' scene. ) represents the closest pixel. In other embodiments, the depth map represents the distance between objects in the scene and the plane of the viewpoint. In some embodiments, the depth map provides information about the relative depths of various features of the object of interest (e.g., the relative depths of the eyes, nose, mouth, and ears on the user's face) at the perspective of the depth camera. include. In some embodiments, the depth map contains information that allows the device to determine the contour of the object of interest in the z-direction.

デバイス100はまた、1つ以上の接触強度センサ165を任意選択的に含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された、接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に含む。接触強度センサ165は、周辺環境から接触強度情報(例えば、圧力情報又は圧力情報の代用物)を受信する。一部の実施形態において、少なくとも1つの接触強度センサが、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又は、それに近接している。一部の実施形態では、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 also optionally includes one or more contact intensity sensors 165 . FIG. 1A shows a contact intensity sensor coupled to intensity sensor controller 159 within I/O subsystem 106 . Contact intensity sensor 165 may include one or more piezoresistive strain gauges, capacitive force sensors, electrical force sensors, piezoelectric force sensors, optical force sensors, capacitive touch-sensitive surfaces, or other intensity sensors (e.g., on the touch-sensitive surface). optionally a sensor used to measure the force (or pressure) of the contact. Contact intensity sensor 165 receives contact intensity information (eg, pressure information or a proxy for pressure information) from the surrounding environment. In some embodiments, at least one contact intensity sensor is located on or in close proximity to the touch-sensitive surface (eg, touch-sensitive display system 112). In some embodiments, at least one contact intensity sensor is located on the back side of device 100 , opposite touch screen display 112 located on the front side of device 100 .

デバイス100はまた、1つ以上の近接センサ166を任意選択的に含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。あるいは、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に接続される。近接センサ166は、任意選択的に、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、同第11/240,788号、「Proximity Detector In Handheld Device」、同第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、同第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されるように任意選択的に実行してもよく、これらはその全体が参照により本明細書に組み込まれる。一部の実施形態において、多機能デバイスがユーザの耳の近くに配置されている場合(例えば、ユーザが電話通話を行っている場合)、近接センサは、タッチスクリーン112をオフにし無効にする。 Device 100 also optionally includes one or more proximity sensors 166 . FIG. 1A shows proximity sensor 166 coupled to peripherals interface 118 . Alternatively, proximity sensor 166 is optionally connected to input controller 160 within I/O subsystem 106 . Proximity sensor 166 is optionally disclosed in U.S. patent application Ser. 620,702, "Using Ambient Light Sensor To Augment Proximity Sensor Output," ibid. 11/586,862, "Automated Response To And Sensing Of User Activity In Porta ble Devices," and ibid. 11/638,251; It may optionally be performed as described in "Methods And Systems For Automatic Configuration Of Peripherals", which are hereby incorporated by reference in their entirety. In some embodiments, the proximity sensor turns off and disables the touchscreen 112 when the multifunction device is placed near the user's ear (eg, when the user is making a phone call).

デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に連結された触知出力生成器を示す。触知出力生成器167は、スピーカ又は他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などの、エネルギを直線運動に変換する電気機械デバイスを、任意選択的に含む。接触強度センサ165は、触覚フィードバックモジュール133から触覚フィードバック生成命令を受信し、デバイス100のユーザが感知できる触知出力をデバイス100上で生成する。一部の実施形態において、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は横方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。一部の実施形態において、少なくとも1つの触知出力生成器センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 also optionally includes one or more tactile output generators 167 . FIG. 1A shows a tactile output generator coupled to haptic feedback controller 161 within I/O subsystem 106 . Tactile output generator 167 may be one or more electroacoustic devices such as speakers or other audio components and/or motors, solenoids, electroactive polymers, piezoelectric actuators, electrostatic actuators or other tactile output generating configurations. Optionally includes an electromechanical device that converts energy into linear motion, such as an element (eg, a component that converts an electrical signal to a tactile output on the device). Contact intensity sensor 165 receives haptic feedback generation instructions from haptic feedback module 133 and generates a tactile output on device 100 that can be sensed by a user of device 100 . In some embodiments, at least one tactile output generator is located on or proximate to a touch-sensitive surface (eg, touch-sensitive display system 112) and optionally , vertically (eg, into/out of the surface of device 100) or laterally (eg, back and forth in the same plane as the surface of device 100) to generate tactile output. In some embodiments, at least one tactile output generator sensor is located on the back of device 100 , opposite touch screen display 112 located on the front of device 100 .

デバイス100はまた、1つ以上の加速度計168を任意選択的に含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。あるいは、加速度計168は、I/Oサブシステム106内の入力コントローラ160に任意選択的に結合される。加速度計168は、任意選択的に、米国特許出願公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び同第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」で説明されるように機能するものであり、これらの文献の双方は、全体が参照により本明細書に組み込まれる。一部の実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、縦長表示又は横長表示でタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の位置及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。 Device 100 also optionally includes one or more accelerometers 168 . FIG. 1A shows accelerometer 168 coupled to peripherals interface 118 . Alternatively, accelerometer 168 is optionally coupled to input controller 160 within I/O subsystem 106 . Accelerometer 168 is optionally disclosed in U.S. Patent Application Publication No. 20050190059, "Acceleration-based Theft Detection System for Portable Electronic Devices," and U.S. Patent Application Publication No. 20060017692, "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer , both of which are incorporated herein by reference in their entireties. In some embodiments, information is displayed on the touch screen display in portrait or landscape orientation based on analysis of data received from one or more accelerometers. In addition to accelerometer(s) 168, device 100 includes a magnetometer and a GPS (or GLONASS or other global navigation system) for obtaining information about the position and orientation (e.g., longitudinal or lateral) of device 100. system) optionally includes a receiver.

一部の実施形態では、メモリ102に記憶されたソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System)(GPS)モジュール(又は命令セット)135及びアプリケーション(又は命令セット)136を含む。更に、一部の実施形態において、図1A及び図3に示すように、メモリ102(図1A)又はメモリ370(図3)は、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、以下の1つ以上を含む:現在アクティブ状態のアプリケーションがある場合、どのアプリケーションがアクティブかを示す、アクティブアプリケーション状態、どのアプリケーション、ビュー又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占領しているかを示す、表示状態、デバイスの様々なセンサ及び入力制御デバイス116から取得される情報を含む、センサ状態、並びに、デバイスの位置及び/又は姿勢に関する位置情報。 In some embodiments, the software components stored in memory 102 include operating system 126, communication module (or instruction set) 128, touch/motion module (or instruction set) 130, graphics module (or instruction set) 132, , a text input module (or instruction set) 134 , a Global Positioning System (GPS) module (or instruction set) 135 and an application (or instruction set) 136 . Additionally, in some embodiments, memory 102 (FIG. 1A) or memory 370 (FIG. 3) stores device/global internal state 157, as shown in FIGS. 1A and 3 . Device/global internal state 157 includes one or more of the following: an active application state indicating which application, if any, is currently active; which application, view or other information is displayed on the touch screen display 112; display state, sensor state, including information obtained from the device's various sensors and input control device 116, and location information about the device's position and/or orientation.

オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するための様々なソフトウェアコンポーネント及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。 operating system 126 (e.g., Darwin®, RTXC®, LINUX®, UNIX®, OS X®, iOS®, WINDOWS®, or Embedded operating systems such as VxWorks®) include various software components and/or drivers for controlling and managing common system tasks (e.g., memory management, storage device control, power management, etc.), It facilitates communication between various hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えば、ユニバーサルシリアルバス(Universal Serial Bus)(USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えば、インターネット、無線LANなど)を通して間接的に、他のデバイスに連結するように適応している。一部の実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じか、若しくは同様のマルチピン(例えば、30ピン)コネクタ、及び/又は互換性のあるマルチピン(例えば、30ピン)コネクタである。 Communication module 128 facilitates communication with other devices via one or more external ports 124 and includes various software components for processing data received by RF circuitry 108 and/or external ports 124 . include. External port 124 (e.g., Universal Serial Bus (USB), FIREWIRE®, etc.) connects to other devices directly or indirectly through a network (e.g., Internet, wireless LAN, etc.). adapted to connect to In some embodiments, the external port is a multi-pin (e.g., 30-pin) connector the same as or similar to the 30-pin connector used on the iPod® (trademark of Apple Inc.) device, and/or Or a compatible multi-pin (eg, 30-pin) connector.

接触/動きモジュール130は、(ディスプレイコントローラ156と連携して)タッチスクリーン112及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を任意選択的に検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したか否かを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データにより表される接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、並びに/又は加速度(大きさ及び/又は方向における変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。一部の実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。 Contact/motion module 130 (in conjunction with display controller 156) optionally detects contact with touchscreen 112 and other touch-sensitive devices (eg, touchpads or physical click wheels). The contact/motion module 130 determines whether contact has occurred (e.g., detecting a finger-down event), the strength of the contact (e.g., the force or pressure of the contact, or alternatives to the force or pressure of the contact). determining whether there is movement of the contact and tracking movement across the touch-sensitive surface (e.g., detecting one or more events of dragging a finger); Contains various software components for performing various operations related to detecting contact, such as determining whether contact has stopped (e.g., detecting a finger-up event or interruption of contact). . Contact/motion module 130 receives contact data from the touch-sensitive surface. Determining movement of the contact point represented by the set of contact data optionally includes speed (magnitude), velocity (magnitude and direction), and/or acceleration (magnitude and/or or change in direction). These operations are optionally applied to single contacts (eg, single-finger contacts) or multiple simultaneous contacts (eg, “multi-touch”/multiple-finger contacts). In some embodiments, contact/motion module 130 and display controller 156 detect contact on the touchpad.

一部の実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するための(例えば、ユーザがアイコン上で「クリック」したか否かを判定するための)、1つ以上の強度閾値のセットを使用する。一部の実施形態では、強度閾値の少なくともサブセットは、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によっては判定されず、デバイス100の物理ハードウェアを変更することなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイのハードウェアを変更することなく、広範囲の予め定義された閾値のうちのいずれかに設定されてもよい。加えて、一部の実装形態では、デバイスのユーザは、強度閾値のセットのうちの1つ以上を調整するためのソフトウェア設定が提供される(例えば、個々の強度閾値を調整することによって、及び/又はシステムレベルのクリック「強度」パラメータで一度に複数の強度閾値を調整することによって)。 In some embodiments, the contact/motion module 130 is configured to: One or more sets of intensity thresholds are used. In some embodiments, at least a subset of the intensity thresholds are determined according to software parameters (e.g., the intensity thresholds are not determined by the activation threshold of a particular physical actuator, but rather by changing the physical hardware of device 100). can be adjusted without For example, the mouse "click" threshold of a trackpad or touchscreen display may be set to any of a wide range of predefined thresholds without changing the hardware of the trackpad or touchscreen display. Additionally, in some implementations, the user of the device is provided with software settings for adjusting one or more of the sets of intensity thresholds (e.g., by adjusting individual intensity thresholds and or by adjusting multiple intensity thresholds at once in the system-level click "intensity" parameter).

接触/動きモジュール130は、ユーザによるジェスチャ入力を任意選択的に検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターン(例えば、検出される接触の異なる動き、タイミング、及び/又は強度)を有する。このように、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指のタップジェスチャを検出することは、(例えば、アイコンの位置での)指を下ろすイベントを検出し、続いてその指を下ろすイベントと同じ位置(又は、実質的に同じ位置)で指を上げる(リフトオフ)イベントを検出することを含む。別の実施例として、タッチ感知面上での指のスワイプジェスチャを検出することは、指を下ろすイベントを検出し、続いて、1つ以上の、指をドラッグするイベントを検出し、その後、続いて指を上げる(リフトオフ)イベントを検出することを含む。 Contact/motion module 130 optionally detects gesture input by the user. Different gestures on the touch-sensitive surface have different contact patterns (eg, different movements, timing, and/or strength of detected contact). Thus, gestures are optionally detected by detecting specific touch patterns. For example, detecting a finger tap gesture involves detecting a finger down event (e.g., at an icon position) followed by a finger down event at the same (or substantially the same) location as the finger down event. including detecting lift-off events. As another example, detecting a finger swipe gesture on the touch-sensitive surface includes detecting a finger down event, followed by detecting one or more finger dragging events, followed by and detecting finger lift (lift-off) events.

グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含む、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、様々な既知のソフトウェア構成要素を含む。本明細書で使用されるとき、用語「グラフィック」は、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含むがこれらに限定はされない、ユーザに対して表示することができる任意のオブジェクトを含む。 The graphics module 132 includes components for changing the visual effects (e.g., brightness, transparency, saturation, contrast, or other visual characteristics) of displayed graphics on the touch screen 112 or other display. It includes various known software components for rendering and displaying graphics. As used herein, the term "graphics" includes, but is not limited to, text, web pages, icons (such as user interface objects including soft keys), digital images, videos, animations, etc. Contains any object that can be displayed against.

一部の実施形態では、グラフィックモジュール132は、使用予定のグラフィックを表すデータを記憶する。各グラフィックは任意選択で、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データと共に表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次いで、ディスプレイコントローラ156に出力する画面の画像データを生成する。 In some embodiments, graphics module 132 stores data representing graphics to be used. Each graphic is optionally assigned a corresponding code. Graphics module 132 receives, from an application or the like, one or more codes specifying graphics to be displayed along with coordinate data and other graphics property data, if desired, and then outputs to display controller 156 . Generate screen image data.

触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、デバイス100上の1つ以上の位置で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成する様々なソフトウェア構成要素を含む。 Haptic feedback module 133 is used by tactile output generator(s) 167 to generate tactile outputs at one or more locations on device 100 in response to user interaction with device 100 . Contains various software components that generate instructions.

テキスト入力モジュール134は任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。 Text input module 134 is optionally a component of graphics module 132 and is used for various applications (e.g., contacts 137, email 140, IM 141, browser 147, and any other application requiring text input). ) to provide a soft keyboard for entering text.

GPSモジュール135は、デバイスの位置を判定し、この情報を、様々なアプリケーションでの使用のために提供する(例えば、位置に基づく電話での使用のために電話138へ、写真/ビデオメタデータとしてカメラ143へ、並びに、天気ウィジェット、ローカルイエローページウィジェット及び地図/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションへ)。 GPS module 135 determines the location of the device and provides this information for use in various applications (e.g., to phone 138 for location-based telephony use, as photo/video metadata). to the camera 143 and to applications that provide location-based services such as weather widgets, local yellow pages widgets and maps/navigation widgets).

アプリケーション136は、以下のモジュール(若しくは命令セット)、又はそれらのサブセット若しくはスーパーセットを任意選択的に含む。
●連絡先モジュール137(場合により、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●天気ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを統合した、ビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、及び/又は
●オンラインビデオモジュール155。
Application 136 optionally includes the following modules (or instruction sets), or subsets or supersets thereof.
- the contacts module 137 (sometimes called an address book or contact list);
a telephone module 138;
a teleconferencing module 139,
- email client module 140;
an instant messaging (IM) module 141;
training support module 142,
- a camera module 143 for still and/or video images;
an image management module 144;
● video player module,
● music player module,
the browser module 147,
a calendar module 148;
Of the weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, dictionary widget 149-5 and other widgets obtained by the user, and user created widgets 149-6 Widget module 149, optionally including one or more of
- a widget creator module 150 for creating user-created widgets 149-6;
a search module 151,
- a video and music player module 152, which integrates a video player module and a music player module;
memo module 153,
• a map module 154; and/or • an online video module 155;

任意選択的にメモリ102内に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。 Examples of other applications 136 that are optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA enabled applications, encryption, digital Rights management, speech recognition, and speech reproduction are included.

タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、連絡先モジュール137は、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレスブック又は連絡先リストを管理するために任意選択的に用いられ、それには、アドレスブックに名前(単数又は複数)を加えること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前と関連付けること、画像を名前と関連付けること、名前を分類かつ並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始する及び/又は容易にすること、などが含まれる。 In conjunction with touch screen 112 , display controller 156 , touch module 130 , graphics module 132 , and text input module 134 , contact module 137 may be stored in application internal state 192 of contact module 137 (eg, in memory 102 or memory 370 ). is optionally used to manage an address book or contact list, including adding name(s) to the address book, deleting name(s) from the address book , phone number(s), email address(es), address(es), or other information with names; associate images with names; sort and sort names; Providing a phone number or email address to initiate and/or facilitate communication by phone 138, videoconferencing module 139, email 140, or IM 141, and the like.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電話モジュール138は、任意選択的に、電話番号に対応する一連の文字を入力し、連絡先モジュール137内の1つ以上の電話番号にアクセスし、入力された電話番号を修正し、対応する電話番号をダイアルし、会話を行い、そして、会話が完了した際に接続を切るか又は電話を切るために、使用する。上述のように、無線通信は、複数の通信規格、プロトコル、及び技術のうちのいずれかを任意選択的に使用する。 In conjunction with RF circuitry 108, audio circuitry 110, speaker 111, microphone 113, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, telephone module 138 optionally includes , enter a series of characters corresponding to a phone number, access one or more phone numbers in the contacts module 137, modify the entered phone number, dial the corresponding phone number, and have a conversation. , and to disconnect or hang up when the conversation is complete. As noted above, wireless communications optionally use any of a number of communication standards, protocols, and techniques.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連携して、テレビ会議モジュール139は、ユーザの指示に従って、ユーザと1人以上の他の参加者との間のテレビ会議を開始し、遂行し、終了するための、実行可能な命令を含む。 RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, light sensor 164, light sensor controller 158, touch/motion module 130, graphics module 132, text input module 134, contact module 137. , and telephony module 138, the videoconferencing module 139 executes, according to the user's instructions, for starting, conducting, and terminating a videoconference between the user and one or more other participants. Includes possible instructions.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電子メールクライアントモジュール140は、ユーザの指示に応じて、電子メールを作成し、送信し、受信し、管理するための、実行可能な命令を含む。画像管理モジュール144と連携して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールを作成及び送信することを非常に容易にする。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, email client module 140 composes emails in response to user instructions. contains executable instructions for transmitting, receiving, and managing In conjunction with image management module 144 , email client module 140 greatly facilitates creating and sending emails with still or video images captured by camera module 143 .

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字列を入力したり、入力済の文字を修正したり、(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、若しくはIMPSを使用して)対応するインスタントメッセージを送信したり、インスタントメッセージを受信したり、及び受信したインスタントメッセージを閲覧したりする、実行可能な命令を含む。一部の実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるような、グラフィック、写真、音声ファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書において使用するとき、「インスタントメッセージング」とは、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)の双方を指す。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, instant messaging module 141 can input text strings corresponding to instant messages, modify already entered characters (e.g., using Short Message Service (SMS) or Multimedia Message Service (MMS) protocols for telephone-based instant messaging, or XMPP for Internet-based instant messaging) , SIMPLE, or IMPS), receive instant messages, and view received instant messages. In some embodiments, instant messages sent and/or received are optionally graphic, photo, audio files, as supported by MMS and/or Enhanced Messaging Service (EMS). , video files, and/or other attachments. As used herein, "instant messaging" refers to telephone-based messages (e.g., messages sent using SMS or MMS) and internet-based messages (e.g., using XMPP, SIMPLE, or IMPS). (messages sent as

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154及び音楽プレーヤモジュールと連携して、トレーニングサポートモジュール142は、(例えば、時間、距離及び/又はカロリー消費目標を有する)トレーニングを作成する、トレーニングセンサ(スポーツデバイス)と通信することと、トレーニングセンサデータを受信することと、トレーニングをモニタするために使用されるセンサを較正することと、トレーニングのための音楽を選択し、再生することと、トレーニングデータを表示し、記憶し、送信すること。 In conjunction with RF circuit 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, GPS module 135, map module 154 and music player module, training support module 142 ( communication with training sensors (sports devices), receiving training sensor data, sensors used to monitor training select and play music for training; display, store and transmit training data.

タッチスクリーン112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連携して、カメラモジュール143は、静止画像若しくは(ビデオストリームを含む)ビデオをキャプチャしてメモリ102にそれらを記憶する、静止画像若しくはビデオの特性を変更する、又はメモリ102から静止画像若しくはビデオを削除する、実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, light sensor(s) 164, light sensor controller 158, touch/motion module 130, graphics module 132, and image management module 144, camera module 143 captures still images or It contains executable instructions to capture videos (including video streams) and store them in memory 102 , change characteristics of still images or videos, or delete still images or videos from memory 102 .

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134及びカメラモジュール143と連携して、画像管理モジュール144は、静止画像及び/又はビデオ画像を配置し、修正し(例えば、編集し)又は別の方法で操作し、ラベルを付け、削除し、(例えば、デジタルスライドショー又はアルバムにおいて)提示し、記憶するための、実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and camera module 143, image management module 144 arranges and modifies still and/or video images. Contains executable instructions to (eg, edit) or otherwise manipulate, label, delete, present (eg, in a digital slideshow or album), and store.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及び、テキスト入力モジュール134と連携して、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページにリンクされた添付及び他のファイルを検索し、リンク付けし、受信し、表示することを含むユーザの指示に従い、インターネットを閲覧する実行可能な命令を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, browser module 147 can display web pages, portions thereof, and web pages. Contains executable instructions for browsing the Internet following user instructions including retrieving, linking, receiving and displaying linked attachments and other files.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、カレンダモジュール148は、ユーザの指示に従い、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダ項目、to doリストなど)を作成し、表示し、変更し、記憶する実行可能な命令を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, email client module 140, and browser module 147, calendar module 148 can and executable instructions for creating, displaying, modifying, and storing calendars and data associated with calendars (eg, calendar items, to-do lists, etc.) in accordance with the .

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と併せて、ウィジェットモジュール149は、ユーザによって任意選択的にダウンロードされて使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。一部の実施形態では、ウィジェットは、HTML(Hypertext Markup Language)(ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets)(カスケーディングスタイルシート)ファイル及びJavaScriptファイルを含む。一部の実施形態では、ウィジェットは、XML(拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。 In conjunction with RF circuit 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, widget module 149 is optionally downloaded and used by the user. (eg weather widget 149-1, stock quotes widget 149-2, calculator widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5), or mini-applications created by users (eg , user created widget 149-6). In some embodiments, widgets include Hypertext Markup Language (HTML) files, Cascading Style Sheets (CSS) files, and JavaScript files. In some embodiments, widgets include XML (extensible markup language) files and JavaScript files (eg, Yahoo! widgets).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、ウィジェットクリエータモジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定箇所をウィジェットに変える)ために、ユーザによって使用する。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, widget creator module 150 optionally creates widgets. (eg, turn user-specified portions of a web page into widgets).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、検索モジュール151は、ユーザの指示に従い、1つ以上の検索基準(例えば、1つ以上のユーザ指定の検索語句)と一致する、メモリ102内のテキスト、音楽、音、画像、ビデオ、及び/又は他のファイルを検索するための、実行可能な命令を含む。 In conjunction with touch screen 112 , display controller 156 , touch/motion module 130 , graphics module 132 , and text input module 134 , search module 151 follows user instructions and provides one or more search criteria (e.g., one or more user-specified search terms) to search for text, music, sounds, images, videos, and/or other files in memory 102 that match the search terms.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びにビデオを(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示又は別の方法で再生するための実行可能な命令を含む。一部の実施形態では、デバイス100は、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を任意選択的に含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108 and browser module 147, video and music player module 152 can display MP3 or AAC files, etc. and video (on touch screen 112 or via external port 124). contains executable instructions for displaying, presenting or otherwise reproducing (on a connected external display). In some embodiments, device 100 optionally includes the functionality of an MP3 player, such as an iPod (trademark of Apple Inc.).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、メモモジュール153は、ユーザの指示に従って、メモ、to doリストなどを作成し、管理するための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, notes module 153 is used to create and manage notes, to-do lists, etc., according to user instructions. contains executable instructions for

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、地図モジュール154は、任意選択的に、ユーザの指示に従い、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の位置又はその近くの店舗及び他の見所のデータ、並びに他の位置ベースのデータ)を受信し、表示し、変更し、及び記憶するために、使用する。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, GPS module 135, and browser module 147, map module 154 optionally: receive, display, and modify maps and data associated with maps (e.g., driving directions, store and other points of interest data at or near a particular location, and other location-based data) at the user's direction; to store and store.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140及びブラウザモジュール147と連携して、オンラインビデオモジュール155は、ユーザがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、閲覧し、(例えば、ストリーミング及び/又はダウンロードにより)受信し、(例えば、タッチスクリーン上で又は外部ポート124を介して接続された外部のディスプレイ上で)再生し、特定のオンラインビデオへのリンクを含む電子メールを送信し、別の方法で管理することが可能となる命令を含む。一部の実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションの追加の説明は、2007年6月20日に出願された米国特許仮出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日に出願された米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」に見出すことができ、これらの出願の内容はその全体が本明細書において参照により組み込まれている。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108, text input module 134, email client module 140 and browser module 147, online video Module 155 indicates that the user is using H.264. 264, etc., to access, view, receive (eg, by streaming and/or downloading), and receive (eg, on a touch screen or externally connected via the external port 124) (on your display), send emails containing links to specific online videos, and otherwise manage them. In some embodiments, instant messaging module 141 is used rather than email client module 140 to send links to specific online videos. Additional description of online video applications can be found in U.S. Provisional Patent Application No. 60/936,562, "Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos," filed Jun. 20, 2007, and 2007 U.S. patent application Ser. is incorporated herein by reference.

上記で特定されたモジュール及びアプリケーションのそれぞれは、1つ以上の上記の機能を実行する実行可能な命令セット及び本出願に記載の方法(例えば、コンピュータにより実装される方法及び本明細書に記載の他の情報処理方法)に対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、それゆえ、様々な実施形態では、任意選択的に、これらのモジュールの様々な部分集合を組み合わせるか、又は他の方式で再編成する。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わせて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)とする。一部の実施形態では、メモリ102は、上記で特定されたモジュール及びデータ構造のサブセットを任意選択的に記憶する。更に、メモリ102は、上述していない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the modules and applications identified above may comprise a set of executable instructions and methods described herein (e.g., computer-implemented methods and methods described herein) that perform one or more of the functions described above. other information processing methods). These modules (eg, instruction sets) need not be implemented as separate software programs, procedures, or modules, and thus various embodiments optionally include various subsets of these modules. are combined or otherwise reorganized. For example, a video player module is optionally combined with a music player module into a single module (eg, video and music player module 152 of FIG. 1A). In some embodiments, memory 102 optionally stores a subset of the modules and data structures identified above. In addition, memory 102 optionally stores additional modules and data structures not described above.

一部の実施形態では、デバイス100は、デバイス上で予め定義された機能の組の動作がタッチスクリーン及び/又はタッチパッドを通じて排他的に実行されるデバイスである。デバイス100の動作のための主要な入力制御デバイスとしてタッチスクリーン及び/又はタッチパッドを使用することによって、デバイス100上の物理的な入力制御デバイス(プッシュボタン、ダイアルなど)の数が任意選択で削減される。 In some embodiments, device 100 is a device on which operations of a predefined set of functions are performed exclusively through a touchscreen and/or touchpad. Optionally reducing the number of physical input control devices (pushbuttons, dials, etc.) on device 100 by using a touchscreen and/or touchpad as the primary input control device for operation of device 100 be done.

タッチスクリーン及び/又はタッチパッドを通じて排他的に実行される予め定義された機能のセットは、ユーザインタフェース間のナビゲーションを任意選択的に含む。一部の実施形態では、タッチパッドは、ユーザによってタッチされると、デバイス100上で表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。そのような実施形態では、「メニューボタン」はタッチパッドを使用して実装される。一部の他の実施形態では、メニューボタンは、タッチパッドの代わりに、物理プッシュボタン又は他の物理入力制御デバイスである。 A predefined set of functions performed exclusively through a touchscreen and/or touchpad optionally includes navigation between user interfaces. In some embodiments, the touchpad navigates device 100 from any user interface displayed on device 100 to a main menu, home menu, or root menu when touched by a user. In such embodiments, the "menu button" is implemented using a touchpad. In some other embodiments, the menu buttons are physical push buttons or other physical input control devices instead of touchpads.

図1Bは、一部の実施形態に従った、イベント処理のための例示的な構成要素を示すブロック図である。一部の実施形態では、メモリ102(図1A)又はメモリ370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)及び対応するアプリケーション136-1(例えば、上述のアプリケーション137~151、155、380~390のうちのいずれか)を含む。 FIG. 1B is a block diagram illustrating exemplary components for event processing, according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or memory 370 (FIG. 3) includes event sorter 170 (eg, within operating system 126) and corresponding applications 136-1 (eg, applications 137-151, 155, any of 380-390).

イベントソート部170は、イベント情報を受信し、イベント情報が配信されるアプリケーション136-1及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソート部170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。一部の実施形態では、アプリケーション136-1には、アプリケーションがアクティブ又は実行中のときに、タッチ感知ディスプレイ112上に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192が含まれる。一部の実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーション(単数又は複数)が現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。 Event sorting unit 170 receives event information and determines application 136-1 to which event information is delivered and application view 191 of application 136-1. Event sorter 170 includes event monitor 171 and event dispatcher module 174 . In some embodiments, application 136-1 has application internal state 192 that indicates the current application view(s) displayed on touch-sensitive display 112 when the application is active or running. included. In some embodiments, device/global internal state 157 is used by event sorter 170 to determine which application(s) is currently active, and application internal state 192 contains event information. is used by event sorter 170 to determine the application view 191 to which the event is delivered.

一部の実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用される再開情報、アプリケーション136-1によって表示されているか又は表示の準備がされている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを可能にするための状態待ち行列、及びユーザが行った前のアクションのリドゥ/アンドゥ待ち行列、のうちの1つ以上などの追加の情報を含む。 In some embodiments, application internal state 192 indicates resume information used when application 136-1 resumes execution, information being displayed or prepared for display by application 136-1. one of user interface state information, a state queue for allowing the user to return to a previous state or view of the application 136-1, and a redo/undo queue of previous actions taken by the user. Include additional information such as:

イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイ112上のユーザタッチ)についての情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を通じて)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。 Event monitor 171 receives event information from peripherals interface 118 . Event information includes information about sub-events (eg, user touches on touch-sensitive display 112 as part of a multi-touch gesture). Peripherals interface 118 transmits information it receives from I/O subsystem 106 or sensors such as proximity sensor 166, accelerometer(s) 168, and/or microphone 113 (through audio circuitry 110). Information that peripherals interface 118 receives from I/O subsystem 106 includes information from touch-sensitive display 112 or a touch-sensitive surface.

一部の実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118はイベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回るかつ/又は所定の期間よりも長い入力を受信すること)が存在するときのみ、イベント情報を送信する。 In some embodiments, event monitor 171 sends requests to peripherals interface 118 at predetermined intervals. In response, peripherals interface 118 transmits event information. In other embodiments, peripherals interface 118 transmits event information only when there is a significant event (eg, receiving input above a predetermined noise threshold and/or for longer than a predetermined period of time). .

いくつかの実施形態では、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。 In some embodiments, event sorter 170 also includes hit view determination module 172 and/or active event recognizer determination module 173 .

ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示した際に、1つ以上のビュー内のどこにおいてサブイベントが発生したかを判定するためのソフトウェア手続きを提供する。ビューは、制御部及びユーザがディスプレイ上で見ることが可能な他の要素で構成される。 Hit view determination module 172 provides software procedures for determining where in one or more views a sub-event occurred when touch-sensitive display 112 displayed more than one view. A view is made up of controls and other elements that the user can see on the display.

アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書においてアプリケーションビュー又はユーザインタフェースウィンドウと呼ばれる場合があるビューのセットであり、それらの中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに任意選択的に対応する。例えば、タッチが検出される最下位レベルのビューは任意選択で、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントの組は任意選択で、タッチに基づくジェスチャを開始する初期のタッチのヒットビューに少なくとも部分的に基づいて判定される。 Another aspect of the user interface associated with an application is a set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and touch-based gestures occur. The application view (of the respective application) in which the touch is detected optionally corresponds to a program level within the application's program hierarchy or view hierarchy. For example, the lowest-level view where touches are detected is optionally called the hit view, and the set of events recognized as appropriate input is optionally the initial touch that initiates a touch-based gesture. is determined based at least in part on the hit views of the .

ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層において編成された複数のビューを有するとき、ヒットビュー判定モジュール172は、サブイベントを処理するべき階層内の最下位のビューとしてヒットビューを特定する。ほとんどの状況では、ヒットビューは、最初のサブイベント(例えば、イベント又は潜在的なイベントを形成するサブイベントのシーケンスにおける最初のサブイベント)が発生する最下位レベルのビューである。ヒットビューがヒットビュー判定モジュール172によって特定されると、ヒットビューは、それがヒットビューとして特定された、同じタッチ又は入力ソースに関連するすべてのサブイベントを一般的に受信する。 The hit view determination module 172 receives information related to sub-events of touch-based gestures. When an application has multiple views organized in a hierarchy, hit view determination module 172 identifies the hit view as the lowest view in the hierarchy that should process the sub-event. In most situations, the hit view is the lowest level view where the first sub-event occurs (eg, the first sub-event in the sequence of sub-events forming the event or potential event). When a hit view is identified by hit view determination module 172, the hit view typically receives all sub-events associated with the same touch or input source for which it was identified as the hit view.

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。一部の実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含むすべてのビューはアクティブに関わっているビューであると判定し、したがって、すべてのアクティブに関わっているビューは、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントがある特定のビューに関連付けられた領域に完全に限定されたとしても、階層の上位のビューは、依然としてアクティブに関わっているビューであり続ける。 Active event recognizer determination module 173 determines which view(s) in the view hierarchy should receive a particular sequence of sub-events. In some embodiments, active event recognizer determination module 173 determines that only hit views should receive a particular sequence of sub-events. In another embodiment, the active event recognizer determination module 173 determines that all views containing the physical location of the sub-event are actively participating views, thus all actively participating views are: Determine that a particular sequence of sub-events should be received. In other embodiments, even if a touch sub-event is completely localized to a region associated with a particular view, the view higher up the hierarchy remains the actively involved view.

イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えば、イベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。一部の実施形態では、イベントディスパッチャモジュール174は、対応するイベント受信部182により取得されるイベント情報をイベント待ち行列に記憶する。 Event dispatcher module 174 dispatches event information to an event recognizer (eg, event recognizer 180). In embodiments that include active event recognizer determination module 173 , event dispatcher module 174 distributes event information to event recognizers determined by active event recognizer determination module 173 . In some embodiments, the event dispatcher module 174 stores event information obtained by the corresponding event receiver 182 in an event queue.

一部の実施形態では、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136-1が、イベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュール、又は接触/動きモジュール130などの、メモリ102に記憶された別のモジュールの一部である。 In some embodiments, operating system 126 includes event sorter 170 . Alternatively, application 136 - 1 includes event sorter 170 . In yet other embodiments, event sorter 170 is a standalone module or part of another module stored in memory 102 , such as contact/motion module 130 .

一部の実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインタフェースの対応するビュー内で発生するタッチイベントを処理する命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1のそれぞれのアプリケーションビュー191は、1つ以上のイベント認識部180を含む。一般的には、対応するアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット又はアプリケーション136-1がメソッド及び他の性質をそれから継承する上位レベルのオブジェクトなどの、別々のモジュールの一部である。一部の実施形態では、対応するイベントハンドラ190は、データアップデーター176、オブジェクトアップデーター177、GUIアップデーター178及び/又はイベントソータ170から受信されたイベントデータ179、のうちの1つ以上を含む。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176、オブジェクトアップデーター177、又はGUIアップデーター178を任意選択的に、利用若しくは呼び出す。あるいは、アプリケーションビュー191のうちの1つ以上は、1つ以上の対応するイベントハンドラ190を含む。また、一部の実施形態では、データアップデーター176、オブジェクトアップデーター177及びGUIアップデーター178のうちの1つ以上は、対応するアプリケーションビュー191に含まれる。 In some embodiments, application 136-1 includes multiple event handlers 190 and one or more application views 191, each containing instructions for handling touch events that occur within a corresponding view of the application's user interface. include. Each application view 191 of application 136 - 1 includes one or more event recognizers 180 . Typically, the corresponding application view 191 includes multiple event recognizers 180 . In other embodiments, one or more of event recognizers 180 are part of separate modules, such as higher-level objects from which user interface kit or application 136-1 inherits methods and other properties. be. In some embodiments, the corresponding event handler 190 includes one or more of data updater 176, object updater 177, GUI updater 178 and/or event data 179 received from event sorter 170. . Event handler 190 optionally utilizes or calls data updater 176 , object updater 177 , or GUI updater 178 to update application internal state 192 . Alternatively, one or more of application views 191 include one or more corresponding event handlers 190 . Also, in some embodiments, one or more of data updater 176 , object updater 177 and GUI updater 178 are included in the corresponding application view 191 .

対応するイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、イベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。一部の実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択でサブイベント配信命令を含む)の少なくともサブセットも含む。 A corresponding event recognizer 180 receives event information (eg, event data 179) from the event sorter 170 and identifies events from the event information. The event recognizer 180 includes an event receiver 182 and an event comparator 184 . In some embodiments, event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188 (optionally including sub-event delivery instructions).

イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの動きについての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択で、サブイベントの速さ及び方向を含む。一部の実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへの、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ばれる)についての対応する情報を含む。 The event receiver 182 receives event information from the event sorter 170 . Event information includes information about sub-events, such as touches or touch movements. Depending on the sub-event, the event information also includes additional information such as the location of the sub-event. When the sub-event involves touch movement, the event information optionally also includes the speed and direction of the sub-event. In some embodiments, the event includes rotation of the device from one orientation to another (e.g., portrait to landscape or vice versa), and the event information is the device's current orientation ( contains corresponding information about the pose of the device).

イベント比較部184は、イベント情報を予め定義されたイベント又はサブイベント定義と比較し、比較に基づいて、イベント又はサブイベントを判定し、又はイベント若しくはサブイベントの状態を判定若しくは更新する。一部の実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えば、イベント1(187-1)、イベント2(187-2)などのイベントの定義(例えば、予め定義された一連のサブイベント)を含む。一部の実施形態では、イベント187におけるサブイベントは、例えば、タッチの始め、タッチの終わり、タッチの移動、タッチの停止及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階の間の表示されたオブジェクト上の第1のタッチ(タッチの開始)、所定の段階の間の第1のリフトオフ(タッチの終了)、所定の段階の間の表示オブジェクト上の第2のタッチ(タッチの開始)、及び所定の段階の間の第2のリフトオフ(タッチの終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグ操作である。このドラッグ操作は、例えば、所定の段階の間の表示オブジェクト上でのタッチ(又は、接触)、タッチ感知ディスプレイ112を横断するタッチの移動、及びタッチのリフトオフ(タッチの終了)を含む。一部の実施形態において、イベントはまた、1つ以上の関連付けられたイベントハンドラ190に関する情報も含む。 The event comparator 184 compares the event information to predefined event or sub-event definitions and determines an event or sub-event or determines or updates the status of an event or sub-event based on the comparison. In some embodiments, event comparator 184 includes event definitions 186 . Event definitions 186 include definitions of events (eg, a predefined series of sub-events), eg, event 1 (187-1), event 2 (187-2), and so on. In some embodiments, sub-events in event 187 include, for example, beginning of touch, end of touch, movement of touch, stop of touch, and multiple touches. In one embodiment, the definition for event 1 (187-1) is a double tap on a displayed object. A double-tap is, for example, the first touch on a displayed object during a given phase (beginning of a touch), the first lift-off during a given phase (end of a touch), the Including a second touch on the display object (onset of touch) and a second lift-off during a predetermined phase (end of touch). In another example, the definition of event 2 (187-2) is a drag operation on a displayed object. This drag operation includes, for example, a touch (or contact) on a display object during predetermined stages, movement of the touch across the touch-sensitive display 112, and lift-off of the touch (finishing the touch). In some embodiments, the event also includes information about one or more associated event handlers 190 .

一部の実施形態において、イベント定義187は、それぞれのユーザインタフェースオブジェクトに関するイベントの定義を含む。一部の実施形態において、イベント比較部184は、サブイベントに関連付けられたユーザインタフェースオブジェクトを判定するヒットテストを実行する。例えば、3つのユーザインタフェースオブジェクトがタッチ感知ディスプレイ112上に表示されるアプリケーションビューにおいて、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定するためのヒットテストを行う。表示されたそれぞれのオブジェクトが、対応するイベントハンドラ190と関連付けられている場合、イベント比較部は、ヒットテストの結果を使用して、どのイベントハンドラ190がアクティブ化されるべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトと関連付けられたイベントハンドラを選択する。 In some embodiments, event definitions 187 include definitions of events for respective user interface objects. In some embodiments, event comparator 184 performs hit testing to determine user interface objects associated with sub-events. For example, in an application view in which three user interface objects are displayed on touch-sensitive display 112, when a touch is detected on touch-sensitive display 112, event comparator 184 determines which of the three user interface objects is displayed. Hit test to determine if it is associated with a touch (sub-event). If each displayed object is associated with a corresponding event handler 190, the event comparator uses the results of the hit test to determine which event handler 190 should be activated. For example, the event comparator 184 selects the event handlers associated with the sub-events and objects that trigger the hit test.

一部の実施形態では、対応するイベント(187)についての定義はまた、一連のサブイベントがイベント認識部のイベントタイプに対応するか否かが判定される後まで、イベント情報の配信を遅延させる遅延アクションを含む。 In some embodiments, the definition for the corresponding event (187) also delays the delivery of event information until after it has been determined whether a series of sub-events corresponds to the event recognizer's event type. Includes delayed action.

対応するイベント認識部180が、一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断したとき、対応するイベント認識部180は、イベント不可能、イベント失敗又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部がもしあれば、そのイベント認識部が進行中のタッチに基づくジェスチャのサブイベントの追跡及び処理を続行する。 When the corresponding event recognizer 180 determines that the sequence of sub-events does not match any of the events in the event definition 186, the corresponding event recognizer 180 enters an event-unable, event-failed, or event-completed state; After that, ignore the next sub-event of the touch-based gesture. In this situation, if there is another event recognizer that remains active for the hit view, that event recognizer will continue to track and process the ongoing touch-based gesture sub-events.

一部の実施形態では、対応するイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ及び/又はリストを有するメタデータ183を含む。一部の実施形態では、メタデータ183は、イベント認識部が相互にどのように対話するか又は対話することが可能とされているかについて示す構成可能なプロパティ、フラグ、及び/又はリストを含む。一部の実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。 In some embodiments, the corresponding event recognizer 180 has configurable properties, flags and/or properties that indicate to actively participating event recognizers how the event delivery system should perform sub-event delivery. Contains metadata 183 with a list. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate how event recognizers interact or are allowed to interact with each other. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate whether sub-events are delivered to various levels in the view hierarchy or program hierarchy.

一部の実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントと関連付けられたイベントハンドラ190をアクティブ化する。一部の実施形態では、それぞれのイベント認識部180は、イベントと関連付けられたイベント情報をイベントハンドラ190に配信する。イベントハンドラ190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。一部の実施形態では、イベント認識部180は、認識されたイベントと関連付けられたフラグを投入し、フラグと関連付けられたイベントハンドラ190は、フラグを捕らえ、予め定義された処理を実行する。 In some embodiments, each event recognizer 180 activates event handlers 190 associated with the event when one or more specific sub-events of the event are recognized. In some embodiments, each event recognizer 180 delivers event information associated with the event to event handlers 190 . Activating the event handler 190 is separate from sending (and deferring sending) the sub-event to each hit view. In some embodiments, event recognizer 180 populates flags associated with recognized events, and event handlers 190 associated with the flags catch the flags and perform predefined processing.

一部の実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベントハンドラに、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベントに又はアクティブに関与しているビューと関連付けられたイベントハンドラは、イベント情報を受信し、予め定義された処理を実行する。 In some embodiments, event delivery instructions 188 include sub-event delivery instructions to deliver event information about the sub-event without activating event handlers. Instead, sub-event delivery instructions deliver event information to event handlers associated with a sequence of sub-events or to actively participating views. An event handler associated with a sequence of sub-events or views that are actively involved receives the event information and performs predefined processing.

一部の実施形態では、データアップデーター176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データアップデーター176は、連絡先モジュール137で使用される電話番号を更新するか、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。一部の実施形態において、オブジェクトアップデーター177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデーター177は、新たなユーザインタフェースオブジェクトを作成するか、又はユーザインタフェースオブジェクトの位置を更新する。GUIアップデーター178は、GUIを更新する。例えば、GUIアップデーター178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送信する。 In some embodiments, data updater 176 creates and updates data used by application 136-1. For example, the data updater 176 updates phone numbers used by the contacts module 137 or stores video files used by the video player module. In some embodiments, object updater 177 creates and updates objects used by application 136-1. For example, object updater 177 creates new user interface objects or updates the positions of user interface objects. GUI updater 178 updates the GUI. For example, GUI updater 178 prepares display information and sends the display information to graphics module 132 for display on a touch-sensitive display.

一部の実施形態では、イベントハンドラ(単数又は複数)190は、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178を含むか、又はそれらへのアクセスを有する。一部の実施形態では、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, event handler(s) 190 includes or has access to data updater 176 , object updater 177 , and GUI updater 178 . In some embodiments, data updater 176 , object updater 177 , and GUI updater 178 are included in a single module of each application 136 - 1 or application view 191 . In other embodiments, they are contained in two or more software modules.

タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の議論はまた、入力デバイスで多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、そのすべてがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、単一若しくは複数のキーボードの押圧若しくは保持に任意選択的に連携されたマウスの移動及びマウスボタンの押圧、タッチパッド上でのタップ、ドラッグ、スクロールなどの接触移動、ペンスタイラス入力、デバイスの移動、口頭による指示検出された眼球運動、バイオメトリック入力、並びに/又はそれらのいずれかの組合せは、任意選択的に、認識されることになるイベントを定義するサブイベントに対応する入力として利用される。 The foregoing discussion of event handling of a user's touch on a touch-sensitive display also applies to other forms of user input for operating multifunction device 100 with input devices, all of which are on touch screens. It should be understood that it is not initiated. mouse movement and mouse button presses, optionally coupled to single or multiple keyboard presses or holds; contact movements such as tapping, dragging, scrolling on a touchpad; pen stylus input; Movements, verbal instructions, detected eye movements, biometric inputs, and/or any combination thereof are optionally utilized as inputs corresponding to sub-events that define the event to be recognized. be.

図2は、一部の実施形態に係る、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、ユーザインタフェース(user interface)(UI)200内に1つ以上のグラフィックを、任意選択的に表示する。本実施形態、並びに後述する実施形態において、ユーザは、例えば、1本以上の指202(図には、正確な縮尺率では描かれていない)又は1つ以上のスタイラス203(図には、正確な縮尺率では描かれていない)を用いて、グラフィック上でジェスチャを行うことにより、グラフィックのうちの1つ以上を選択することができる。一部の実施形態では、ユーザが1つ以上のグラフィックとの接触を断った際に、その1つ以上のグラフィックの選択が生じる。一部の実施形態では、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上方向へ及び/又は下方向へ)、並びに/又は、デバイス100と接触した指のローリング(右から左へ、左から右へ、上方向へ及び/若しくは下方向へ)を、任意選択的に含む。一部の実現形態又は状況では、グラフィックとの不測の接触は、グラフィックを選択しない。例えば、選択に対応するジェスチャがタップであるとき、アプリケーションアイコンの上をスイープするスワイプジェスチャは任意選択で、対応するアプリケーションを選択しない。 FIG. 2 illustrates portable multifunction device 100 having touch screen 112, according to some embodiments. The touch screen optionally displays one or more graphics within a user interface (UI) 200 . In this embodiment, as well as those described below, the user may, for example, use one or more fingers 202 (not shown to scale) or one or more styluses 203 (not shown to scale). not drawn to scale) can be used to select one or more of the graphics by making a gesture on the graphic. In some embodiments, selection of one or more graphics occurs when the user breaks contact with the one or more graphics. In some embodiments, the gesture is one or more taps, one or more swipes (left to right, right to left, up and/or down), and/or Rolling (right-to-left, left-to-right, upwards and/or downwards) of the fingers in contact is optionally included. In some implementations or situations, accidental contact with a graphic does not select the graphic. For example, a swipe gesture that sweeps over an application icon is optional and does not select the corresponding application when the gesture corresponding to selection is a tap.

デバイス100はまた、「ホーム」又はメニューボタン204などの、1つ以上の物理ボタンも任意選択的に含む。前述のように、メニューボタン204は、デバイス100上で任意選択的に、実行するアプリケーションのセット内の任意のアプリケーション136へのナビゲーションに任意選択的に、使用される。あるいは、一部の実施形態では、メニューボタンは、タッチスクリーン112に表示されたGUIにおけるソフトキーとして実装されている。 Device 100 also optionally includes one or more physical buttons, such as “home” or menu button 204 . As mentioned above, menu button 204 is optionally used to navigate to any application 136 in the set of applications that are optionally running on device 100 . Alternatively, in some embodiments, menu buttons are implemented as softkeys in a GUI displayed on touch screen 112 .

一部の実施形態において、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスへの電源をオン/オフしてデバイスをロックするためのプッシュボタン206、音量調整ボタン(単数又は複数)208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、ボタンを押し下げて、既定の時間にわたってボタンを押し下げた状態で保持することによってデバイス上の電源をオン/オフし、ボタンを押し下げて、既定の時間が経過する前にボタンを解放することによってデバイスをロックし、及び/又は、デバイスのロックを解除する、若しくは、ロック解除処理を開始するように、任意選択的に用いられる。代替実施形態では、デバイス100はまた、マイクロフォン113を通して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力を受ける。デバイス100はまた、タッチスクリーン112上の接触の強度を検出するための1つ以上の接触強度センサ165、及び/又は、デバイス100のユーザに対する触知出力を生成するための1つ以上の触知出力生成器167も、任意選択的に含む。 In some embodiments, the device 100 includes a touch screen 112, a menu button 204, push buttons 206 for powering the device on/off and locking the device, volume control button(s) 208, subscription It includes a Person Identity Module (SIM) card slot 210, a headset jack 212, and an external port 124 for docking/charging. The push button 206 turns on/off power on the device by depressing the button and holding the button down for a predetermined time, depressing the button and releasing the button before the predetermined time elapses. is optionally used to lock and/or unlock the device or initiate an unlocking process. In an alternative embodiment, device 100 also receives verbal input through microphone 113 to activate or deactivate some functions. Device 100 may also include one or more contact intensity sensors 165 to detect the intensity of contact on touch screen 112 and/or one or more tactile sensors to generate tactile output to the user of device 100 . An output generator 167 is also optionally included.

図3は、一部の実施形態に従った、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。一部の実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク若しくは他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続するための1つ以上の通信バス320を一般的に含む。通信バス320は、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることがある)を、任意選択的に含む。デバイス300は、一般的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インタフェース330を含む。I/Oインタフェース330はまた、キーボード及び/又はマウス(又は他のポインティングデバイス)350並びにタッチパッド355、デバイス300上に触知出力を生成するための(例えば、図1Aを参照して上述された触知出力生成器(単数又は複数)167と同様の)触知出力生成器357、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ及び/又は図1Aを参照して上述された接触強度センサ(単数又は複数)165と同様の接触強度センサ)を任意選択的に含む。メモリ370は、DRAM、SRAM、DDR RAM又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、また、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを任意選択的に含む。メモリ370は、CPU(単数又は複数)310からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。一部の実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102に記憶されたプログラム、モジュール及びデータ構造、又はそれらのサブセットに類似する、プログラム、モジュール及びデータ構造を記憶する。更に、メモリ370は、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を任意選択的に記憶する。例えば、デバイス300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388及び/又はスプレッドシートモジュール390を任意選択的に記憶するが、ポータブル多機能デバイス100(図1A)のメモリ102は、これらのモジュールを任意選択的に記憶しない。 FIG. 3 is a block diagram of an exemplary multifunction device with a display and touch-sensitive surface, according to some embodiments; Device 300 need not be portable. In some embodiments, device 300 is a laptop computer, desktop computer, tablet computer, multimedia playback device, navigation device, educational device (such as a children's learning toy), gaming system, or control device (e.g., home controller for commercial use or business use). Device 300 generally includes one or more processing units (CPUs) 310, one or more network or other communication interfaces 360, memory 370, and one or more communication buses 320 for interconnecting these components. include Communication bus 320 optionally includes circuitry (sometimes called a chipset) that interconnects and controls communications between system components. Device 300 includes input/output (I/O) interface 330 including display 340, which is typically a touch screen display. I/O interface 330 also includes a keyboard and/or mouse (or other pointing device) 350 and touchpad 355 for generating tactile output on device 300 (e.g., as described above with reference to FIG. 1A). tactile output generator 357 (similar to tactile output generator(s) 167), sensor 359 (e.g., light sensor, acceleration sensor, proximity sensor, touch sensitive sensor, and/or as described above with reference to FIG. 1A); optional contact intensity sensor(s) similar to 165). Memory 370 includes high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory devices, and also one or more magnetic disk storage devices, optical disk storage devices, flash memory devices or other non-volatile memory devices. Optionally includes non-volatile memory such as a non-volatile solid state storage device. Memory 370 optionally includes one or more storage devices located remotely from CPU(s) 310 . In some embodiments, memory 370 stores programs, modules and data structures similar to those stored in memory 102 of portable multifunction device 100 (FIG. 1A), or a subset thereof. do. Additionally, memory 370 optionally stores additional programs, modules, and data structures not present in memory 102 of portable multifunction device 100 . For example, memory 370 of device 300 optionally stores drawing module 380, presentation module 382, word processing module 384, website creation module 386, disc authoring module 388 and/or spreadsheet module 390, although portable multiple Memory 102 of functional device 100 (FIG. 1A) optionally does not store these modules.

上記で特定された図3の要素のそれぞれは任意選択的に、前述のメモリデバイスのうち1つ以上に記憶される。上記で特定されたモジュールのうちのそれぞれは、上述した機能を実行する命令セットに対応する。上記で特定されたモジュール又はプログラム(例えば、命令セット)は、任意選択的に、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、それゆえ、様々な実施形態では、これらのモジュールの様々なサブセットを組み合わせるか、又は他の方式で再編成する。一部の実施形態では、メモリ370は、上記で特定されたモジュール及びデータ構造のサブセットを任意選択的に記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the above-identified elements of FIG. 3 are optionally stored in one or more of the aforementioned memory devices. Each of the modules identified above corresponds to a set of instructions that perform the functions described above. The modules or programs (e.g., instruction sets) identified above need not optionally be implemented as separate software programs, procedures, or modules; thus, in various embodiments, these modules combine or otherwise rearrange various subsets of . In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. In addition, memory 370 optionally stores additional modules and data structures not described above.

ここで、例えばポータブル多機能デバイス100上に、任意選択的に実装されるユーザインタフェースの実施形態に着目する。 Attention is now directed to embodiments of user interfaces that are optionally implemented, for example, on portable multifunction device 100 .

図4Aは、一部の実施形態に係る、ポータブル多機能デバイス100上のアプリケーションのメニューに関する例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。一部の実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー及びWi-Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetooth(登録商標)インジケータ405、
●バッテリ状態インジケータ406、
●下記などの、頻繁に利用されるアプリケーション用のアイコンを含むトレー408、
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされる、ブラウザモジュール147用のアイコン420、及び
○「iPod」とラベル付けされる、iPod(登録商標)(Apple Inc.の商標)モジュール152とも称されるビデオ及び音楽プレーヤモジュール152用のアイコン422、及び
●下記などの、他のアプリケーション用のアイコン、
○「メッセージ」とラベル付けされるIMモジュール141のためのアイコン424、
○「カレンダ」とラベル付けされる、カレンダモジュール148用のアイコン426、
○「写真」とラベル付けされる、画像管理モジュール144用のアイコン428、
○「カメラ」とラベル付けされる、カメラモジュール143用のアイコン430、
○「オンラインビデオ」とラベル付けされる、オンラインビデオモジュール155用のアイコン432、
○「株価」とラベル付けされる、株価ウィジェット149-2用のアイコン434、
○「地図」とラベル付けされる、地図モジュール154用のアイコン436、
○「天気」とラベル付けされる、天気ウィジェット149-1用のアイコン438、
○「時計」とラベル付けされる、アラーム時計ウィジェット149-4用のアイコン440、
○「トレーニングサポート」とラベル付けされる、トレーニングサポートモジュール142用のアイコン442、
○「メモ」とラベル付けされる、メモモジュール153用のアイコン444、及び
○デバイス100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、「設定」とラベル付けされる、設定アプリケーション若しくはモジュール用のアイコン446。
FIG. 4A illustrates an exemplary user interface for a menu of applications on portable multifunction device 100, according to some embodiments. A similar user interface is optionally implemented on device 300 . In some embodiments, user interface 400 includes the following elements, or subsets or supersets thereof.
- signal strength indicator(s) 402 for wireless communication(s) such as cellular and Wi-Fi signals;
Time 404,
- Bluetooth(R) indicator 405,
- battery status indicator 406;
• a tray 408 containing icons for frequently used applications, such as;
o an icon 416 for the phone module 138, labeled "phone", optionally including an indicator 414 of the number of missed calls or voicemail messages;
o an icon 418 for the email client module 140, labeled "Mail", optionally including an indicator 410 of the number of unread emails;
o icon 420 for browser module 147, labeled "browser"; and o video and music, also referred to as iPod® (trademark of Apple Inc.) module 152, labeled "iPod". icon 422 for player module 152; and icons for other applications, such as:
o icon 424 for IM module 141 labeled "message";
o icon 426 for calendar module 148, labeled "calendar";
o an icon 428 for the image management module 144, labeled "Photos";
o icon 430 for camera module 143, labeled "Camera";
o icon 432 for online video module 155, labeled "online video";
o icon 434 for stock price widget 149-2, labeled "stock price";
o icon 436 for map module 154, labeled "Map";
o icon 438 for weather widget 149-1, labeled "weather";
o icon 440 for alarm clock widget 149-4, labeled "Clock";
o icon 442 for training support module 142, labeled "training support";
o Icon 444 for notes module 153, labeled "Notes"; and o Settings application or module, labeled "Settings", that provides access to settings for device 100 and its various applications 136. icon 446 for.

図4Aに示されるアイコンのラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152用のアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる。他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。一部の実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。一部の実施形態では、特定のアプリケーションアイコンのラベルは、特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。 Note that the icon labels shown in FIG. 4A are merely exemplary. For example, icon 422 for video and music player module 152 is labeled "music" or "music player." Other labels are optionally used for various application icons. In some embodiments, the label for each application icon includes the name of the application corresponding to each application icon. In some embodiments, the label of a particular application icon is different than the name of the application corresponding to the particular application icon.

図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)から分離するタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を備えるデバイス(例えば、図3のデバイス300)上の、例示的なユーザインタフェースを示す。デバイス300はまた、タッチ感知面451上の接触の強度を検出するための1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)及び/又はデバイス300のユーザに対して触知出力を生成するための1つ以上の触知出力生成器357を任意選択的に含む。 FIG. 4B shows an exemplary display on a device (eg, device 300 of FIG. 3) with a touch-sensitive surface 451 (eg, tablet or touchpad 355 of FIG. 3) separate from display 450 (eg, touchscreen display 112). user interface. Device 300 may also include one or more contact intensity sensors (eg, one or more of sensors 359 ) for detecting the intensity of contact on touch-sensitive surface 451 and/or a tactile sensor for a user of device 300 . Optionally includes one or more tactile output generators 357 for generating output.

以下の実施例のうちのいくつかはタッチスクリーンディスプレイ112上での入力(タッチ感知面とディスプレイとが組み合わされている場合)を参照して説明されるが、一部の実施形態では、デバイスは、図4Bに示されるように、ディスプレイとは別個のタッチ感知面上での入力を検出する。一部の実施形態では、このタッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bの453)に対応する主軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、タッチ感知面451との接触(例えば、図4Bの460及び462)を、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bでは、460は468に対応し、462は470に対応する)にて検出する。このように、タッチ感知面がディスプレイから分離するものである場合、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されたユーザ入力(例えば、接触460及び462、並びにそれらの移動)が、多機能デバイスのディスプレイ(例えば、図4Bでの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。 Although some of the examples below are described with reference to input on the touch screen display 112 (where the touch sensitive surface and display are combined), in some embodiments the device , as shown in FIG. 4B, detects input on a touch-sensitive surface separate from the display. In some embodiments, this touch-sensitive surface (eg, 451 in FIG. 4B) has a major axis (eg, 452 in FIG. 4B) that corresponds to a major axis (eg, 453 in FIG. 4B) on the display (eg, 450). have According to these embodiments, the device directs contact with touch-sensitive surface 451 (eg, 460 and 462 in FIG. 4B) to positions corresponding to respective locations on the display (eg, 460 and 468 in FIG. 4B). , and 462 corresponds to 470). Thus, if the touch-sensitive surface is separate from the display, user input (e.g., contacts 460 and 462 and their movement) detected by the device on the touch-sensitive surface (e.g., 451 in FIG. 4B) is used by the device to manipulate the user interface on the multifunction device's display (eg, 450 in FIG. 4B). It should be appreciated that similar methods are optionally used for other user interfaces described herein.

更に加えて、以下の実施例は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャ)を参照して説明されるが、一部の実施形態では、それらの指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスに基づく入力又はスタイラス入力)で置き換えられることを理解されたい。例えば、スワイプジェスチャは、マウスクリックと任意選択的に置き換えられ(例えば、接触の代わりに)、その後、スワイプの経路に沿って(例えば、接触の移動の代わりに)カーソルの移動が行われる。別の実施例として、タップジェスチャは任意選択で、カーソルがタップジェスチャの位置の上に位置する間のマウスクリックと置き換えられる(例えば、接触の検出、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスは任意選択で同時に使用され、又はマウス及び指の接触が任意選択で同時に使用されることを理解されたい。 Additionally, although the following examples are described primarily with reference to finger input (e.g., finger contact, finger tap gesture, finger swipe gesture), in some embodiments those finger inputs It should be appreciated that one or more of the inputs may be replaced with input from another input device (eg, mouse-based or stylus input). For example, a swipe gesture is optionally replaced with a mouse click (eg, instead of contact) followed by cursor movement along the path of the swipe (eg, instead of contact movement). As another example, the tap gesture is optionally replaced with a mouse click while the cursor is positioned over the location of the tap gesture (e.g., instead of detecting contact followed by stopping detecting contact). . Similarly, when multiple user inputs are detected simultaneously, it should be understood that multiple computer mice are optionally used simultaneously, or mouse and finger contact are optionally used simultaneously.

図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。一部の実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~図4B)に関して記載した特徴のうちの一部又はすべてを含むことができる。一部の実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以後、タッチスクリーン504とする、を有する。タッチスクリーン504の代わりに、又はそれに追加して、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及びデバイス300と同様に、一部の実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出するための1つ以上の強度センサを有する。タッチスクリーン504(又は、タッチ感知面)の1つ以上の強度センサは、タッチの強度を表現する出力データを提供することができる。デバイス500のユーザインタフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチは、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。 FIG. 5A shows an exemplary personal electronic device 500. As shown in FIG. Device 500 includes body 502 . In some embodiments, device 500 can include some or all of the features described with respect to devices 100 and 300 (eg, FIGS. 1A-4B). In some embodiments, device 500 has a touch-sensitive display screen 504 , hereinafter touchscreen 504 . Alternatively, or in addition to touchscreen 504, device 500 has a display and a touch-sensitive surface. Similar to device 100 and device 300, in some embodiments, touch screen 504 (or touch-sensitive surface) optionally includes a 1D sensor for detecting the strength of contact (eg, touch) being applied. have one or more intensity sensors. One or more intensity sensors of touch screen 504 (or touch-sensitive surface) can provide output data representing the intensity of the touch. The user interface of device 500 can respond to touches based on the intensity of the touch, meaning that different intensity touches can invoke different user interface actions on device 500 .

タッチ強度を検出して処理するための例示的な技術は、例えば、関連出願である、2013年5月8日出願の「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」と題された国際特許出願第PCT/US2013/040061号(国際公開第2013/169849号として公開)、及び2013年11月11日出願の「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」と題された同第PCT/US2013/069483号(国際公開第2014/105276号として公開)にみられ、これらの文献のそれぞれは、全体が参照により本明細書に組み込まれる。 Exemplary techniques for detecting and processing touch strength are described, for example, in related application "Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application," filed May 8, 2013. International Patent Application PCT / US2013 / 040061 (released as international open to 2013/169849) and "Device, Method, And GRAPHICAL USER Interfac". E for TRANSITIONG BETWEEN TOUCH INPUT TO PCT/US2013/069483 (published as International Publication No. WO 2014/105276) entitled "Display Output Relationships", each of which is hereby incorporated by reference in its entirety.

一部の実施形態では、デバイス500は、1つ以上の入力機構506及び入力機構508を有する。入力機構506及び508は、含まれる場合には、物理的なものとすることができる。物理入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。一部の実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。かかるアタッチメント機構は、含まれる場合には、例えば、デバイス500を、帽子、アイウェア、イヤリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計バンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどに、取り付けることを可能にする。これらのアタッチメント機構は、ユーザによってデバイス500が着用されることを可能にし得る。 In some embodiments, device 500 has one or more input mechanisms 506 and 508 . Input mechanisms 506 and 508, if included, may be physical. Examples of physical input mechanisms include push buttons and rotatable mechanisms. In some embodiments, device 500 has one or more attachment mechanisms. Such attachment mechanisms, if included, may, for example, attach device 500 to hats, eyewear, earrings, necklaces, shirts, jackets, bracelets, watch bands, chains, pants, belts, shoes, purses, backpacks, etc. allow to install. These attachment mechanisms may allow device 500 to be worn by a user.

図5Bは、例示的なパーソナル電子デバイス500を示す。一部の実施形態では、デバイス500は、図1A、図1B及び図3に関して記載した構成要素の一部又はすべてを含むことができる。デバイス500は、I/O部514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/O部514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に、強度センサ524(例えば、接触強度センサ)と、を有し得る。更に、I/O部514は、Wi-Fi、Bluetooth(登録商標)、近距離通信(NFC)、セルラー及び/又は他の無線通信技術を使用して、アプリケーション及びオペレーティングシステムのデータを受信するための通信ユニット530に接続し得る。デバイス500は、入力機構506及び/又は入力機構508を含むことができる。入力機構506は、任意選択的に、例えば、回転可能入力デバイス、又は押下可能かつ回転可能な入力デバイスである。入力機構508は、任意選択的に、一部の実施例では、ボタンである。 FIG. 5B shows an exemplary personal electronic device 500. As shown in FIG. In some embodiments, device 500 can include some or all of the components described with respect to FIGS. 1A, 1B and 3. FIG. Device 500 has a bus 512 operably coupling I/O section 514 to one or more computer processors 516 and memory 518 . The I/O section 514 can be connected to a display 504, which can have a touch sensing component 522 and, optionally, an intensity sensor 524 (eg, a contact intensity sensor). Additionally, I/O unit 514 may be used to receive application and operating system data using Wi-Fi, Bluetooth®, Near Field Communication (NFC), cellular and/or other wireless communication technologies. communication unit 530 of the. Device 500 may include input mechanism 506 and/or input mechanism 508 . Input mechanism 506 is optionally, for example, a rotatable input device or a depressible and rotatable input device. Input mechanism 508 is optionally a button in some examples.

入力機構508は、任意選択的に、一部の実施例では、マイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538及び/又はこれらの組み合わせなどの、様々なセンサを含むものであり、それらのすべては、I/O部514に動作可能に接続できる。 Input mechanism 508 is optionally, in some implementations, a microphone. Personal electronic device 500 optionally includes various sensors such as GPS sensor 532, accelerometer 534, orientation sensor 540 (eg, compass), gyroscope 536, motion sensor 538, and/or combinations thereof. , all of which are operably connectable to I/O section 514 .

パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶するための1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、それらの命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、コンピュータプロセッサに、プロセス700、900、1100、1300及び1500(図7A~図7B、図9A~図9B、図11A~図11B、図13A~図13B、及び図15A~図15B)を含む、以下に説明する技術を実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置若しくはデバイスによって、又はこれらと関連して使用するためのコンピュータ実行可能命令を有形的に収容又は記憶することができる、任意の媒体とすることができる。一部の例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。一部の例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体には、磁気的記憶装置、光学的記憶装置及び/又は半導体記憶装置を挙げることができるが、これらに限定されない。そのような記憶装置の例には、磁気ディスク、CD、DVD又はBlu-ray技術に基づく光ディスク、及び、フラッシュ、ソリッドステートドライブなどの永続的ソリッドステートメモリが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の構成要素又は追加的構成要素を、複数の構成で含み得る。 Memory 518 of personal electronic device 500 may include one or more non-transitory computer-readable storage media for storing computer-executable instructions, which are executed by one or more computer processors 516. 7A-7B, 9A-9B, 11A-11B, 13A-13B, and 15A-15B, to a computer processor, for example. ), the techniques described below can be implemented. A computer-readable storage medium can be any medium capable of tangibly containing or storing computer-executable instructions for use by or in connection with an instruction-execution system, apparatus, or device. In some examples, the storage medium is temporary computer-readable storage medium. In some examples, the storage medium is non-transitory computer-readable storage medium. Non-transitory computer-readable storage media can include, but are not limited to, magnetic storage devices, optical storage devices, and/or semiconductor storage devices. Examples of such storage devices include magnetic disks, optical disks based on CD, DVD or Blu-ray technology, and persistent solid state memories such as flash, solid state drives. Personal electronic device 500 is not limited to the components and configuration of FIG. 5B, but may include other or additional components in multiple configurations.

本明細書において使用するとき、用語「アフォーダンス」は、デバイス100、300及び/又は500(図1A、図3及び図5A~図5B)のディスプレイ画面上に任意選択的に表示されるユーザ対話式のグラフィックユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン及びテキスト(例えば、ハイパーリンク)はそれぞれ、任意選択的に、アフォーダンスを構成する。 As used herein, the term “affordance” refers to a user-interactive Refers to a graphic user interface object in the . For example, images (eg, icons), buttons and text (eg, hyperlinks) each optionally constitute affordances.

本明細書において使用するとき、用語「フォーカスセレクタ」は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の位置マーカを含む一部の実現例において、タッチ感知面(例えば、図3のタッチパッド355、又は図4Bのタッチ感知面451)上で入力(例えば、押圧入力)が検出された時に、カーソルが特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の上にある時、カーソルは「フォーカスセレクタ」として機能し、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接的な対話を可能にする、タッチスクリーンディスプレイ(例えば、図1Aでのタッチ感知ディスプレイシステム112、又は図4Aでのタッチスクリーン112)を含む一部の実現例では、タッチスクリーン上で検出される接触が「フォーカスセレクタ」としての役割を果たすことにより、入力(例えば、接触による押圧入力)が、タッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の位置で検出されると、その特定のユーザインタフェース要素が、検出された入力に従って調節される。一部の実現形態では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、(例えば、タブキー又は矢印キーを使用してフォーカスを1つのボタンから別のボタンに移動させることによって)ユーザインタフェースの1つの領域からユーザインタフェースの別の領域にフォーカスが移動され、それらの実現形態では、フォーカスセレクタは、ユーザインタフェースの異なる領域の間のフォーカスの移動に従って移動する。フォーカスセレクタによってとられる具体的な形態とは関わりなく、フォーカスセレクタは、全般的に、ユーザの意図したユーザインタフェースとの対話を通信するために(例えば、ユーザが対話することを意図しているユーザインタフェースの要素をデバイスに示すことによって)、ユーザによって制御されるユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)である。例えば、押圧入力がタッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で検出されたときに、対応するボタンの上にあるフォーカスセレクタ(例えば、カーソル、接触又は選択ボックス)の位置は、(デバイスのディスプレイ上に示されている他のユーザインタフェース要素ではなく)対応するボタンをユーザがアクティブ化しようとしていることを示すものである。 As used herein, the term "focus selector" refers to an input element that indicates the current portion of the user interface with which the user is interacting. In some implementations that include a cursor or other position marker, an input (eg, press input) is detected on a touch-sensitive surface (eg, touchpad 355 of FIG. 3 or touch-sensitive surface 451 of FIG. 4B) Sometimes, when the cursor is over a particular user interface element (e.g., button, window, slider, or other user interface element), the cursor acts as a "focus selector" and the particular user interface element is detected. adjusted according to the input. Some implementations include a touchscreen display (eg, touch-sensitive display system 112 in FIG. 1A or touchscreen 112 in FIG. 4A) that allows direct interaction with user interface elements on the touchscreen display. In an example, a touch detected on a touchscreen acts as a "focus selector" such that input (e.g., press input from touch) is directed to a specific user interface element (e.g., button, window, slider, or other user interface element), that particular user interface element is adjusted according to the detected input. In some implementations, without corresponding cursor movement or contact movement on the touch screen display (e.g., by using the tab or arrow keys to move focus from one button to another) Focus is moved from one area of the user interface to another area of the user interface, and in those implementations the focus selector moves according to the movement of focus between the different areas of the user interface. Regardless of the specific form taken by the focus selector, it is generally used to communicate the user's intended interaction with the user interface (e.g., the user interface with which the user intends to interact). A user interface element (or touch on a touch screen display) that is controlled by the user (by presenting the element of the interface to the device). For example, when a press input is detected on a touch-sensitive surface (e.g., a touchpad or touchscreen), the position of the focus selector (e.g., cursor, touch or selection box) over the corresponding button is indicates that the user is activating the corresponding button (rather than other user interface elements shown on the display of the user).

本明細書及び特許請求の範囲において使用するとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく接触の特性を指す。一部の実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、予め定義された数の強度サンプル、あるいは予め定義されたイベントに対する(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度における増大を検出する前若しくは後、及び/又は接触の強度における減少を検出する前若しくは後)予め定められた時間期間の間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)に収集された強度サンプルのセットに任意選択的に基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均値(mean value)、接触の強度の平均値(average value)、接触の強度の上位10%値、接触の強度の最大値の半分の値、接触の強度の最大値の90%の値など、のうちの1つ以上に基づく。一部の実施形態では、特性強度を判定するために、(例えば、特性強度が経時的な接触の強度の平均であるとき)接触の持続期間が使用される。一部の実施形態では、動作がユーザによって実行されたか否かを判定するために、特性強度を1つ以上の強度閾値のセットと比較する。例えば、1つ以上の強度閾値のセットは、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この実施例では、第1の閾値を越えない特性強度を有する接触の結果として第1の動作が実行され、第1の強度閾値を越え、第2の強度閾値を越えない特性強度を有する接触の結果として第2の動作が実行され、第2の閾値を越える特性強度を有する接触の結果として第3の動作が実行される。一部の実施形態では、特性強度と1つ以上の閾値との間の比較が、第1の動作又は第2の動作のいずれを実行するかを判定するために使用されるのではなく、1つ以上の動作を実行するか否か(例えば、各動作を実行するのか、又は各動作の実行を見合わせるのか)を判定するために使用される。 As used herein and in the claims, the term "characteristic strength" of contact refers to a characteristic of contact based on one or more strengths of contact. In some embodiments, the characteristic intensity is based on multiple intensity samples. The characteristic intensity can be a predefined number of intensity samples, or for a predefined event (e.g., after detecting contact, before detecting lift-off of the contact, before or after detecting the start of movement of the contact, before detecting the end of the contact, before or after detecting an increase in the intensity of the contact, and/or before or after detecting a decrease in the intensity of the contact) for a predetermined time period (e.g., 0.05, 0 .1, 0.2, 0.5, 1, 2, 5, 10 seconds). The characteristic strength of contact is optionally a maximum strength of contact, a mean value of strength of contact, an average value of strength of contact, an average value of strength of contact, a top 10% value of strength of contact, a contact based on one or more of half the maximum strength of the contact, 90% of the maximum strength of contact, and so on. In some embodiments, the duration of contact is used to determine the characteristic strength (eg, when the characteristic strength is the average strength of contact over time). In some embodiments, the characteristic intensity is compared to a set of one or more intensity thresholds to determine if the action was performed by the user. For example, the set of one or more intensity thresholds optionally includes a first intensity threshold and a second intensity threshold. In this example, the first action is performed as a result of a contact having a characteristic intensity that does not exceed the first threshold, and the contact having a characteristic intensity that exceeds the first intensity threshold and does not exceed the second intensity threshold. A second action is performed as a result, and a third action is performed as a result of a contact having a characteristic strength exceeding a second threshold. In some embodiments, rather than the comparison between the characteristic strength and one or more thresholds being used to determine whether to perform the first action or the second action, It is used to determine whether to perform one or more actions (eg, to perform each action or to forgo each action).

一部の実施形態では、特性強度を判定する目的で、ジェスチャの一部が特定される。例えば、タッチ感知面は、任意選択的に、接触の強度が増加する、開始位置から遷移して終了位置まで達する連続的なスワイプ接触を受け取る。この実施例では、終了位置における接触の特性強度は、任意選択的に、連続的なスワイプ接触全体ではなく、そのスワイプ接触の一部分のみ(例えば、終了位置におけるスワイプ接触の部分のみ)に基づく。一部の実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムをそのスワイプ接触の強度に適用する。例えば、平滑化アルゴリズムは任意選択で、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。一部の状況では、それらの平滑化アルゴリズムは、特性強度を判定する目的で、スワイプ接触の強度における小幅な上昇又は低下を除去する。 In some embodiments, a portion of the gesture is identified for purposes of determining characteristic strength. For example, the touch-sensitive surface optionally receives successive swipe contacts transitioning from a starting position to an ending position with increasing strength of the contact. In this example, the characteristic strength of a contact at the end location is optionally based on only a portion of that swipe contact (eg, only the portion of the swipe contact at the end location) rather than the entire continuous swipe contact. In some embodiments, a smoothing algorithm is optionally applied to the strength of the swipe contact prior to determining the characteristic strength of the contact. For example, the smoothing algorithms optionally include one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and/or an exponential smoothing algorithm. In some situations, those smoothing algorithms remove small increases or decreases in the strength of swipe contacts for the purpose of determining characteristic strength.

タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押圧強度閾値、深い押圧強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けする。一部の実施形態では、軽い押圧強度閾値は、物理マウスのボタン又はトラックパッドをクリックすることと一般的に関連付けられた操作をデバイスが実行する強度に対応する。一部の実施形態では、深い押圧強度閾値は、物理マウスのボタン又はトラックパッドをクリックすることと典型的に関連付けられた操作とは異なる操作をデバイスが実行する強度に対応する。一部の実施形態では、軽い押圧強度閾値を下回る(例えば、かつ、それを下回ると接触がもはや検出されないわずかな接触検出強度閾値を上回る)特性強度で接触が検出される場合、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従って、フォーカスセレクタを移動させる。概して、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の異なるセット間で一貫している。 The intensity of contact on the touch-sensitive surface is optionally scaled to one or more intensity thresholds, such as a touch detection intensity threshold, a light press intensity threshold, a deep press intensity threshold, and/or one or more other intensity thresholds. characterize against. In some embodiments, the light pressure intensity threshold corresponds to the intensity with which the device performs operations commonly associated with clicking a physical mouse button or trackpad. In some embodiments, the deep press intensity threshold corresponds to the intensity at which the device performs operations that differ from those typically associated with clicking a physical mouse button or trackpad. In some embodiments, if touch is detected with a characteristic intensity below a light pressure intensity threshold (e.g., and above a slight touch detection intensity threshold below which touch is no longer detected), the device detects a light pressure. A focus selector is moved according to the movement of the contact on the touch-sensitive surface without performing the actions associated with the pressure intensity threshold or the deep pressure intensity threshold. Generally, unless otherwise stated, these intensity thresholds are consistent across different sets of user interface diagrams.

軽い押圧強度閾値を下回る強度から、軽い押圧強度閾値と深い押圧強度閾値との間の強度への接触の特性強度の増大は、「軽い押圧」入力と呼ばれる場合がある。深い押圧強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への接触の特性強度の増大は、「深い押圧」入力と呼ばれる場合がある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれる場合がある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれる場合がある。一部の実施形態では、接触検出強度閾値はゼロである。一部の実施形態では、接触検出強度閾値はゼロより大きい。 Increasing the characteristic strength of a contact from an intensity below the light pressure threshold to an intensity between the light pressure threshold and the deep pressure threshold may be referred to as a "light pressure" input. Increasing the characteristic strength of a contact from an intensity below the deep pressure threshold to an intensity above the deep pressure threshold is sometimes referred to as a "deep pressure" input. Increasing the characteristic strength of a touch from an intensity below the touch detection intensity threshold to an intensity between the touch detection intensity threshold and the light pressure intensity threshold may be referred to as detecting contact on the touch surface. A decrease in the characteristic strength of the contact from an intensity above the contact detection intensity threshold to an intensity below the contact detection intensity threshold may be referred to as detecting lift-off of the contact from the touch surface. In some embodiments, the contact detection strength threshold is zero. In some embodiments, the contact detection strength threshold is greater than zero.

本明細書で説明される一部の実施形態では、1つ以上の操作は、それぞれの押圧入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(又は、複数の接触)で実行されるそれぞれの押圧入力を検出したことに応じて実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は、複数の接触)の強度における増大を検出したことに少なくとも部分的に基づいて検出される。一部の実施形態では、それぞれの動作は、押圧入力強度閾値を上回る、それぞれの接触の強度の増大(例えば、それぞれの押圧入力の「ダウンストローク」)の検出に応じて実行される。一部の実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及び後続の押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、後続の押圧入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)の検出に応じて実行される。 In some embodiments described herein, one or more operations are performed in response to detecting a gesture comprising a respective pressure input or on a respective contact (or multiple contacts). and each pressure input is based at least in part on detecting an increase in the intensity of the contact (or contacts) above a pressure input intensity threshold. detected. In some embodiments, the respective action is performed in response to detecting an increase in strength of the respective contact (eg, a "downstroke" of the respective pressure input) above a pressure input strength threshold. In some embodiments, the pressure input includes increasing the strength of each contact above the pressure input strength threshold and subsequently decreasing the strength of the contact below the pressure input strength threshold, wherein each action is Execution is performed in response to detection of a decrease in the intensity of the respective touch below the input threshold (eg, an "upstroke" of the respective pressure input).

一部の実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある不測の入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との予め定義された関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりもX強度単位低いか、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な比率である)。よって、一部の実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及び後続の押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、そのヒステリシス強度閾値を下回る後続のそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)の検出に応じて実行される。同様に、一部の実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、ヒステリシス強度以下の強度への後続の接触の強度の減少を検出するときのみ検出され、それぞれの動作は、その押圧入力の検出(例えば、状況に応じて、接触の強度の増大、又は接触の強度の減少)に応じて実行される。 In some embodiments, the device employs intensity hysteresis to avoid unintended inputs, sometimes referred to as "jitter," wherein the device has a hysteresis intensity that has a predefined relationship with a pressing input intensity threshold. Define or select a threshold (e.g., the hysteresis intensity threshold is X intensity units below the pressure input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable ratio of the pressure input intensity threshold ). Thus, in some embodiments, the pressure inputs include an increase in strength of each contact above a pressure input strength threshold and a decrease in strength of contacts below a hysteresis strength threshold corresponding to subsequent pressure input strength thresholds, A respective action is performed in response to detection of a subsequent decrease in the strength of the respective contact below its hysteresis strength threshold (eg, an "upstroke" of the respective pressure input). Similarly, in some embodiments, a pressure input causes the device to increase the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, and optionally an intensity below the hysteresis intensity. Each action is detected only when it detects a decrease in the strength of a subsequent touch on the is executed.

説明を容易にするために、押圧入力強度閾値と関連付けられた押圧入力に応じて、又は押圧入力を含むジェスチャに応じて実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応じてトリガされる。加えて、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて動作が実行されるとして説明される実施例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。 For ease of explanation, descriptions of actions performed in response to a pressure input associated with a pressure input intensity threshold, or in response to a gesture involving a pressure input, are optionally described as above the pressure input intensity threshold. increasing the intensity of the contact, increasing the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, decreasing the intensity of the contact below the pressure input intensity threshold, and/or corresponding to the pressure input intensity threshold. Triggered in response to detecting any decrease in the intensity of the touch below the hysteresis intensity threshold. Additionally, in embodiments described as performing an action in response to detecting a decrease in the strength of a contact below a pressure input strength threshold, the action optionally corresponds to the pressure input strength threshold, and in response to detecting a decrease in the intensity of the touch below a lower hysteresis intensity threshold.

ここで、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上に実装されるユーザインタフェース(「UI」)及び関連するプロセスの実施形態に着目する。 Attention is now directed to embodiments of user interfaces (“UIs”) and associated processes implemented on electronic devices such as portable multifunction device 100 , device 300 , or device 500 .

図6A~図6BQは、一部の実施形態に係る、メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図7A~図7Bにおける処理を含む、以下で説明される処理を例示するために使用される。 6A-6BQ illustrate exemplary user interfaces for displaying visual effects in a messaging application, according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 7A-7B.

図6Aは、一部の場合ではタッチ感知ディスプレイである、ディスプレイ601を有するデバイス600を描く。一部の実施形態では、デバイス600はまた、光スペクトルの一部(例えば、可視光、赤外光、又は紫外光)を表すデータをキャプチャできるイメージセンサを、最低限に含むカメラ602を含む。一部の実施形態では、カメラ602は、複数の画像センサ及び/又は他のタイプのセンサを含む。一部の実施形態では、カメラ602は、検出された光を表すデータをキャプチャすることに加えて、深度データなどの、他のタイプのデータをキャプチャすることができる。例えば、一部の実施形態では、カメラ602はまた、スペックル、飛行時間、視差、又は焦点に基づく技術を使用して、深度データをキャプチャする。デバイス600がカメラ602を使用してキャプチャする画像データは、カメラの視野内のシーンに対する光スペクトルの一部に対応するデータを含む。加えて、一部の実施形態では、キャプチャされた画像データはまた、光データの深度データを含む。一部の他の実施形態では、キャプチャされた画像データは、光スペクトルの一部のデータに対する深度データを決定、又は生成するのに十分なデータを含む。一部の実施形態では、デバイス600は、デバイス100、300、又は500の1つ以上の特徴を含む。 FIG. 6A depicts a device 600 having a display 601, which in some cases is a touch sensitive display. In some embodiments, device 600 also includes camera 602, which minimally includes an image sensor capable of capturing data representing a portion of the light spectrum (eg, visible, infrared, or ultraviolet light). In some embodiments, camera 602 includes multiple image sensors and/or other types of sensors. In some embodiments, camera 602 can capture other types of data, such as depth data, in addition to capturing data representing detected light. For example, in some embodiments, camera 602 also uses speckle, time-of-flight, parallax, or focus-based techniques to capture depth data. The image data that device 600 captures using camera 602 includes data corresponding to a portion of the light spectrum for the scene within the camera's field of view. Additionally, in some embodiments, the captured image data also includes depth data for the light data. In some other embodiments, the captured image data includes sufficient data to determine or generate depth data for the portion of the light spectrum. In some embodiments, device 600 includes one or more features of devices 100, 300, or 500. FIG.

一部の例では、電子デバイス600は、赤外線カメラ、サーモグラフィーカメラ、又はそれらの組み合わせなどの、深度カメラを含む。一部の例では、デバイスは、IRフラッド光などの発光デバイス(例えば、光プロジェクタ)、構造化光プロジェクタ、又はそれらの組み合わせを更に含む。発光デバイスは、任意選択的に、可視光カメラ及び深度カメラ(例えば、IRカメラ)による画像のキャプチャ中に被写体を照明するために使用され、深度カメラ及び可視光カメラからの情報は、可視光カメラによってキャプチャされた被写体の異なる部分の深度マップを決定するために使用される。一部の実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ)からのシーン内のオブジェクトの距離に関する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、その対応する2次元ピクセルが位置する、視点のZ軸内の位置を規定する。一部の例では、深度マップは、各ピクセルが値(例えば、0~255)によって定義されるピクセルから構成される。例えば、「0」値は、「3次元」シーンにおける最も離れた位置に配置されたピクセルを表し、「255」値は、「3次元」シーンにおける視点(例えば、カメラ)に最も近いピクセルを表す。他の例では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。一部の実施形態では、深度マップは、深度カメラの視点における関心あるオブジェクトの様々な特徴の相対的深度(例えば、ユーザの顔の目、鼻、口、耳の相対的な深度)についての情報を含む。一部の実施形態では、深度マップは、z方向の関心あるオブジェクトの輪郭をデバイスが判定することを可能にする情報を含む。一部の実施形態では、本明細書に記載の照明エフェクトは、背面画像用の2つのカメラ(例えば、2つの可視光カメラ)からの視差情報を使用して、及び正面画像(例えば、自撮り画像)用の可視光カメラからの画像データに結合された深度カメラからの深度情報を使用して、表示される。一部の実施形態では、2つの可視光カメラを使用して深度情報を判定し、深度カメラを使用して深度情報を判定する場合には、同じユーザインタフェースが使用されて、照明エフェクトを生成する際に使用される情報を判定するために著しく異なる技術を使用する場合でさえも、ユーザーに一貫性のある体験を提供する。一部の実施形態では、適用される照明エフェクトのうちの1つを用いてカメラユーザインタフェースを表示している間に、デバイスは、ライティングエフェクトを適用し、正面カメラの視野の表示を背面カメラの視界に(又はその逆)置換するためのユーザインタフェース制御の表示を維持しながら、カメラスイッチングアフォーダンスの選択を検出し、正面カメラ(例えば、深度カメラ及び可視光カメラ)から背面カメラ(例えば、互いに離間した2つの可視光カメラ)に(又はその逆)切り替える。 In some examples, electronic device 600 includes a depth camera, such as an infrared camera, a thermographic camera, or a combination thereof. In some examples, the device further includes a light emitting device (eg, light projector), such as an IR flood light, a structured light projector, or a combination thereof. The light emitting device is optionally used to illuminate a subject during image capture by a visible light camera and a depth camera (e.g., an IR camera), and information from the depth camera and visible light camera is transmitted to the visible light camera. is used to determine depth maps of different parts of the subject captured by . In some embodiments, a depth map (eg, depth map image) contains information (eg, values) about the distance of objects in the scene from the viewpoint (eg, camera). In one embodiment of the depth map, each depth pixel defines the position within the Z-axis of the viewpoint at which its corresponding two-dimensional pixel is located. In some examples, the depth map consists of pixels where each pixel is defined by a value (eg, 0-255). For example, a '0' value represents the farthest located pixel in a '3D' scene, and a '255' value represents a pixel closest to the viewpoint (e.g. camera) in a '3D' scene. . In another example, the depth map represents the distance between objects in the scene and the plane of the viewpoint. In some embodiments, the depth map provides information about the relative depths of various features of the object of interest (e.g., the relative depths of the eyes, nose, mouth, ears on the user's face) in the perspective of the depth camera. including. In some embodiments, the depth map contains information that allows the device to determine the contour of the object of interest in the z-direction. In some embodiments, the lighting effects described herein use parallax information from two cameras (e.g., two visible light cameras) for the rear image and the front image (e.g., selfie). image) using the depth information from the depth camera combined with the image data from the visible light camera. In some embodiments, two visible light cameras are used to determine depth information, and the same user interface is used to generate lighting effects when depth cameras are used to determine depth information. provide users with a consistent experience, even when using significantly different techniques to determine the information used In some embodiments, while displaying a camera user interface with one of the applied lighting effects, the device applies lighting effects to display the front camera's field of view and the rear camera's view. Detecting the selection of camera switching affordances while maintaining the display of user interface controls for displacing the field of view (or vice versa) and switching from the front camera (e.g. depth camera and visible light camera) to the rear camera (e.g. two visible light cameras) (or vice versa).

図6Aでは、デバイス600は、メッセージングアプリケーションのメッセージングユーザインタフェース603を表示している。メッセージングユーザインタフェース603は、メッセージ会話において参加者(受信者識別子606によって表される)に伝送されるメッセージ605を含むメッセージ表示領域604を含む。メッセージングユーザインタフェース603はまた、メッセージ会話の参加者に送信するための入力(例えば、テキスト入力、マルチメディア入力など)を表示するためのメッセージ作成フィールド608を含む。メッセージングユーザインタフェース603はまた、カメラアプリケーションアフォーダンス609、アプリケーションドックアフォーダンス610、キーボード表示領域612、及びテキスト提案領域614を含む。 In FIG. 6A, device 600 displays messaging user interface 603 of a messaging application. Messaging user interface 603 includes message display area 604 containing messages 605 to be transmitted to participants (represented by recipient identifiers 606) in the message conversation. Messaging user interface 603 also includes message composition field 608 for displaying input (eg, text input, multimedia input, etc.) to be sent to participants in the message conversation. Messaging user interface 603 also includes camera application affordance 609 , application dock affordance 610 , keyboard display area 612 , and text suggestion area 614 .

図6Bでは、デバイス600は、カメラアプリケーションアフォーダンス609に対応する位置において入力616(例えば、ディスプレイ601上のタッチ入力)を検出する。 6B, device 600 detects input 616 (eg, touch input on display 601) at a location corresponding to camera application affordance 609. In FIG.

図6Cでは、入力616を検出したことに応じて、デバイス600は、カメラアプリケーションアフォーダンス609に関連付けられたカメラアプリケーションを起動し、カメラアプリケーションユーザインタフェース615を表示する。カメラアプリケーションユーザインタフェース615は、例えば、カメラ(例えば、背面カメラ又はカメラ602)の視野内に位置するオブジェクトを表すストリーミングされた画像データ(例えば、ライブカメラプレビュー、ライブカメラ記録、若しくはライブビデオ通信セッション)、又は、例えば写真若しくはビデオ録画などのメディアアイテム、などの画像データの表現を表示する、画像表示領域620を含む。図6Cに示す実施形態では、画像表示領域620は、デバイス600の背面カメラからのライブカメラプレビュー620-1'を示す。 In FIG. 6C , in response to detecting input 616 , device 600 launches the camera application associated with camera application affordance 609 and displays camera application user interface 615 . The camera application user interface 615 may, for example, display streamed image data (eg, live camera previews, live camera recordings, or live video communication sessions) representing objects located within the field of view of a camera (eg, rear camera or camera 602). , or an image display area 620 for displaying representations of image data, such as media items such as photographs or video recordings. In the embodiment shown in FIG. 6C, image display area 620 shows a live camera preview 620-1′ from the rear camera of device 600. In the embodiment shown in FIG.

カメラアプリケーションユーザインタフェース615はまた、カメラ固有アフォーダンス617、及びカメラアプリケーションユーザインタフェース615を終了させるための完了アフォーダンス618を含む、画像表示領域620の上の領域を含む。カメラ固有アフォーダンスには、カメラフラッシュ機能に関連付けられたアフォーダンス617-1、カメラモード機能に関連付けられたアフォーダンス617-2、タイマー機能に関連付けられたアフォーダンス617-3、及びフィルタ機能に関連付けられたアフォーダンス617-4が含まれる。 Camera application user interface 615 also includes an area above image display area 620 that includes camera specific affordances 617 and completion affordances 618 for terminating camera application user interface 615 . Camera-specific affordances include affordances 617-1 associated with camera flash functions, affordances 617-2 associated with camera mode functions, affordances 617-3 associated with timer functions, and affordances 617 associated with filter functions. -4 included.

カメラアプリケーションユーザインタフェース615はまた、画像表示領域620の下に配置されたカメラオプション領域625を含む。カメラオプション領域625は、カメラ(例えば、背面カメラとカメラ602)間を切り替えるためのカメラセレクタアフォーダンス627、及びカメラが画像データを記録できる異なるキャプチャモードに関連付けられたカメラオプションアフォーダンス619を含む。例えば、ビデオアフォーダンス619-1は、カメラのビデオ録画キャプチャモードをアクティブ化するための機能に関連付けられ、写真アフォーダンス619-2は、カメラの静止画像キャプチャモードをアクティブ化するための機能に関連付けられる。図6C~図6AXに関して以下に論じる実施形態では、デバイス600は、写真アフォーダンス619-2に関連付けられた操作の静止画像キャプチャモードにある。しかしながら、特に明記しない限り、これらの実施形態はまた、ビデオアフォーダンス619-1に関連付けられたビデオ録画モードに適用される。 Camera application user interface 615 also includes camera options area 625 located below image display area 620 . Camera options area 625 includes camera selector affordances 627 for switching between cameras (eg, the rear camera and camera 602), and camera option affordances 619 associated with different capture modes in which the cameras can record image data. For example, video affordance 619-1 is associated with functionality for activating the camera's video recording capture mode, and photo affordance 619-2 is associated with functionality for activating the camera's still image capture mode. In the embodiments discussed below with respect to FIGS. 6C-6AX, device 600 is in a still image capture mode of operation associated with photo affordance 619-2. However, unless otherwise stated, these embodiments also apply to the video recording mode associated with video affordance 619-1.

カメラオプション領域625は、画像表示領域620にビジュアルエフェクトを表示するためにデバイス600が有効化又は無効化されるデバイス600のモードを、有効化又は無効化するためのエフェクトアフォーダンス622を更に含む。デバイス600のこのモードは、本明細書ではしばしばエフェクトモードと呼ばれる。 Camera options area 625 further includes effects affordances 622 for enabling or disabling modes of device 600 in which device 600 is enabled or disabled to display visual effects in image display area 620 . This mode of device 600 is often referred to herein as effects mode.

カメラオプション領域625はまた、画像表示領域620に表される画像データをキャプチャするために選択可能なキャプチャアフォーダンス621を含む。一部の実施形態では、デバイス600は、現在有効化されているキャプチャモード(例えば、ビデオ録画キャプチャモード又は画像キャプチャモード)に基づく方法で、画像データをキャプチャする。一部の実施形態では、デバイス600は、キャプチャアフォーダンス621上で検出されたジェスチャのタイプに応じて、画像データをキャプチャする。例えば、デバイス600がキャプチャアフォーダンス621上でタップジェスチャを検出した場合、デバイス600は、タップジェスチャが発生した時点で画像表示領域620に表された画像データの静止画像をキャプチャする。デバイス600がキャプチャアフォーダンス621上でタップアンドホールドジェスチャを検出した場合、デバイス600は、タップアンドホールドジェスチャが持続する期間中、画像表示領域620に表される画像データのビデオ録画をキャプチャする。一部の実施形態では、指がアフォーダンスから持ち上げられると、ビデオ録画が停止する。一部の実施形態では、ビデオ録画は、アフォーダンスに対応する位置において後続の入力(例えば、タップ入力)が検出されるまで続く。一部の実施形態では、キャプチャされた画像(例えば、静止画像又はビデオ録画)は、メッセージ作成フィールド608内に挿入され、続いてメッセージ会話の参加者に送信される。一部の実施形態では、キャプチャされた画像は、メッセージ作成フィールド608内にキャプチャされた画像を挿入することなく、メッセージ会話の参加者に直接送信される。 Camera options area 625 also includes selectable capture affordances 621 for capturing image data represented in image display area 620 . In some embodiments, device 600 captures image data in a manner based on the currently enabled capture mode (eg, video recording capture mode or image capture mode). In some embodiments, device 600 captures image data in response to the type of gesture detected on capture affordance 621 . For example, if device 600 detects a tap gesture on capture affordance 621, device 600 captures a still image of the image data represented in image display area 620 at the time the tap gesture occurred. When device 600 detects a tap-and-hold gesture on capture affordance 621, device 600 captures a video recording of the image data represented in image display area 620 for the duration of the tap-and-hold gesture. In some embodiments, video recording stops when the finger is lifted from the affordance. In some embodiments, video recording continues until a subsequent input (eg, tap input) is detected at a location corresponding to the affordance. In some embodiments, the captured image (eg, still image or video recording) is inserted into message composition field 608 and subsequently sent to participants in the message conversation. In some embodiments, the captured image is sent directly to participants in the message conversation without inserting the captured image into message composition field 608 .

図6Dでは、デバイス600は、エフェクトアフォーダンス622上の入力623(例えば、ディスプレイ601上のタップジェスチャ)を検出する。 In FIG. 6D, device 600 detects input 623 (eg, tap gesture on display 601) on effect affordance 622. In FIG.

図6Eでは、デバイス600は、入力623を検出したことに応じて、カメラ602をアクティブ化し(例えば、背面カメラから切り替えて)、画像表示領域620を更新して、カメラ602からのライブカメラプレビュー620-1を表示し、カメラ602の視野内に位置する被写体632、及び被写体632の背後に表示された背景636の表現を示す。本明細書で論じるように、一部の実施形態では、カメラ602を使用してキャプチャされた画像データは、カメラ602の視野内のオブジェクトの深度を決定するために使用され得る深度データを含む。一部の実施形態では、デバイス600は、検出されたこれらのオブジェクトの深度に基づいてオブジェクト(例えば、画像データ内の)を解析し、この判定を使用して、本明細書で論じるビジュアルエフェクトを適用する。例えば、デバイス600は、被写体632をライブカメラプレビュー620-1の前景にあるものとして、ユーザの背後に位置するオブジェクトをライブカメラプレビュー620-1の背景にあるものとして、分類することができる。これらの背景オブジェクトは、ここでは背景636と総称する。 6E, in response to detecting input 623, device 600 activates camera 602 (eg, switches from the rear camera), updates image display area 620, and displays live camera preview 620 from camera 602. In FIG. A -1 is displayed to show a representation of the subject 632 located within the field of view of the camera 602 and the background 636 displayed behind the subject 632 . As discussed herein, in some embodiments, image data captured using camera 602 includes depth data that can be used to determine the depth of objects within the field of view of camera 602. In some embodiments, device 600 analyzes objects (e.g., in image data) based on the depth of these detected objects and uses this determination to generate the visual effects discussed herein. Apply. For example, device 600 may classify subject 632 as being in the foreground of live camera preview 620-1 and objects located behind the user as being in the background of live camera preview 620-1. These background objects are collectively referred to herein as background 636 .

デバイス600はまた、表示のためにビジュアルエフェクトを有効化していることを示すエフェクトアフォーダンス622を強調表示し、カメラオプションアフォーダンス619をビジュアルエフェクトオプションアフォーダンス624に置換することによってカメラオプション領域625を更新する。ビジュアルエフェクトオプションアフォーダンスは、アバターエフェクトアフォーダンス624-1及びステッカーエフェクトアフォーダンス624-2を含む。ビジュアルエフェクトオプションアフォーダンス624は、画像表示領域620に表示される画像に適用できる異なるビジュアルエフェクトに対応する。ビジュアルエフェクトオプションアフォーダンス(例えば、624-1又は624-2)のうちの1つを選択することにより、選択されたビジュアルエフェクトオプションアフォーダンスに対応するビジュアルエフェクトオプションと共に、メニューが表示される。 Device 600 also updates camera options area 625 by highlighting effects affordance 622, which indicates enabling visual effects for display, and replacing camera options affordance 619 with visual effects options affordance 624. Visual effects option affordances include avatar effects affordances 624-1 and sticker effects affordances 624-2. Visual effects option affordances 624 correspond to different visual effects that can be applied to the image displayed in image display area 620 . By selecting one of the visual effects option affordances (eg, 624-1 or 624-2), a menu is displayed with the visual effects options corresponding to the selected visual effects option affordance.

ユーザは、エフェクトアフォーダンス622を選択することによって、デバイス600のエフェクトモードを有効化又は無効化することができる。エフェクトアフォーダンス622が強調表示されると、デバイス600のエフェクトモードが有効化され、画像表示領域620にビジュアルエフェクトを表示する。ユーザが強調表示されたアフォーダンス622上をタップすると、エフェクトアフォーダンス622はもはや強調表示されず、画像表示領域620における表示のためにビジュアルエフェクトが有効化されないように、エフェクトモードが無効化される。一部の実施形態では、エフェクトモードが有効化されると、デバイス600は、画像表示領域620に示される画像を更新して、画像に適用されている1つ以上のビジュアルエフェクト(ライブ画像ストリームに適用されるビジュアルエフェクトを含む)を表示し、エフェクトモードが無効化されると、デバイス600は、画像表示領域620に示される画像からビジュアルエフェクトを除去するか、又は隠す。 A user can enable or disable the effects mode of device 600 by selecting effects affordance 622 . When effect affordance 622 is highlighted, the effect mode of device 600 is activated to display visual effects in image display area 620 . When the user taps on highlighted affordance 622 , effect affordance 622 is no longer highlighted and effects mode is disabled such that visual effects are not enabled for display in image display area 620 . In some embodiments, when effects mode is enabled, device 600 updates the image shown in image display area 620 to include one or more visual effects applied to the image (such as those applied to the live image stream). ) and the effects mode is disabled, device 600 removes or hides the visual effects from the image shown in image display area 620 .

図6Fでは、デバイス600は、アバターエフェクトアフォーダンス624-1上の入力626(例えば、ディスプレイ601上のタップジェスチャ)を検出する。 In FIG. 6F, device 600 detects input 626 (eg, tap gesture on display 601) on avatar effect affordance 624-1.

図6Gでは、入力626を検出したことに応じて、デバイス600は、アバターオプション630のスクロール可能リストと共に、アバターオプションメニュー628を表示する。アバターオプションメニュー628はまた、アバターオプション630のうちの選択された1つを示すための選択領域629を含む。図6Gに示すように、ロボットアバターオプション630-3が選択領域629に配置され、ロボットアバターオプション630-1が選択されていることを示す。図6Gに示す別のアバターオプション630は、カスタマイズされた女性アバターオプション630-1、ヌルアバターオプション630-2、ウサギアバターオプション630-4、及びエイリアンアバターオプション630-5を含む。以下で詳細に論じるように、ヌルアバターオプション630-2は、アバターが画像表示領域620内の被写体上に表示されないためのアバターオプションに対応する。一部の実施形態では、ヌルアバターオプション630-2は、アバターオプションメニュー628が表示されているときに、デフォルトで選択されるアバターオプションである。 6G, in response to detecting input 626, device 600 displays avatar options menu 628 with a scrollable list of avatar options 630. In FIG. Avatar options menu 628 also includes selection area 629 for indicating the selected one of avatar options 630 . As shown in FIG. 6G, robot avatar option 630-3 is positioned in selection area 629, indicating that robot avatar option 630-1 is selected. Other avatar options 630 shown in FIG. 6G include customized female avatar option 630-1, null avatar option 630-2, rabbit avatar option 630-4, and alien avatar option 630-5. Null avatar option 630 - 2 corresponds to an avatar option for no avatar to be displayed over the subject within image display area 620 , as discussed in detail below. In some embodiments, null avatar option 630-2 is the default selected avatar option when avatar options menu 628 is displayed.

アバターオプション630は、画像表示領域620内の被写体の表現に適用される仮想アバタービジュアルエフェクトに対応する。具体的には、各アバターオプション630は、選択されると、画像表示領域内の被写体の顔の上に転置される仮想アバターに対応し、他方、画像表示領域内の画像の他の部分(背景、又はユーザの身体などのユーザの他の部分など)は表示されたままとなる。カメラ602の視野内に位置するユーザ(例えば、被写体632)は、様々な顔の特徴の動き(例えば、ウインク、舌の突き出し、笑顔など)を含む顔の姿勢(例えば、回転又は向き)を変更することによって、仮想アバターの視覚的態様を制御することができる。仮想アバターの表示及び動きを制御するための詳細は、米国特許出願第15/870,195号に提供されており、これは、すべての目的のために参照により本明細書に組み込まれる。 Avatar option 630 corresponds to virtual avatar visual effects applied to the representation of the subject within image display area 620 . Specifically, each avatar option 630, when selected, corresponds to a virtual avatar that is transposed over the subject's face in the image display area, while other portions of the image in the image display area (such as the background). , or other parts of the user, such as the user's body) remain displayed. A user (e.g., subject 632) located within the field of view of camera 602 changes facial pose (e.g., rotation or orientation), including movement of various facial features (e.g., winking, tongue sticking, smiling, etc.). You can control the visual aspect of the virtual avatar by doing so. Details for controlling the display and movement of virtual avatars are provided in US patent application Ser. No. 15/870,195, which is incorporated herein by reference for all purposes.

一部の実施形態では、仮想アバターは、グラフィックに描くことができるユーザーの表現(例えば、ユーザーのグラフィック表現)である。一部の実施形態では、仮想アバターは非写実的(例えば、漫画的である)である。一部の実施形態では、仮想アバターは、1つ以上のアバター特徴(例えば、アバター顔部特徴)を有するアバター顔部を含む。一部の実施形態では、アバター特徴は、ユーザの物理的特徴の検出された動きが(例えば、深度検出カメラなどのカメラに基づいて判定されるように)、アバター特徴(例えば、特徴のグラフィック表現に影響を及ぼす)に影響を及ぼすように、ユーザの顔の1つ以上の物理的特徴に対応する(例えば、マッピングされる)。 In some embodiments, the virtual avatar is a representation of the user that can be graphically drawn (eg, a graphical representation of the user). In some embodiments, the virtual avatar is non-photorealistic (eg, cartoonish). In some embodiments, the virtual avatar includes an avatar face having one or more avatar features (eg, avatar facial features). In some embodiments, the avatar features are avatar features (e.g., graphical representations of the features, such that the detected movement of the user's physical features is determined (e.g., based on a camera, such as a depth-sensing camera). correspond to (eg, be mapped to) one or more physical features of the user's face to affect (e.g., affect).

一部の例では、ユーザは、カメラセンサ(例えば、カメラモジュール143、光センサ164)、及び任意選択的に深度センサ(例えば、深度カメラセンサ175)を使用して、仮想アバターの特性又は特徴を操作することができる。ユーザの物理的特徴(顔の特徴など)及び位置(頭の位置、頭の回転、又は頭の傾きなど)が変化すると、電子デバイスは、その変化を検出し、仮想アバターの表示された画像を変更して、ユーザの身体的特徴及び位置の変化を反映する。一部の実施形態では、ユーザの身体的特徴及び位置に対する変化は、様々な表現、感情、コンテキスト、トーン、又は他の非言語コミュニケーションを示す。一部の実施形態では、電子デバイスは、これらの表現、感情、コンテキスト、トーン、又は他の非言語コミュニケーションを表すために、仮想アバターの表示された画像を変更する。 In some examples, the user uses a camera sensor (eg, camera module 143, light sensor 164) and optionally a depth sensor (eg, depth camera sensor 175) to determine the properties or characteristics of the virtual avatar. can be manipulated. When the user's physical features (such as facial features) and position (such as head position, head rotation, or head tilt) change, the electronic device detects the change and changes the displayed image of the virtual avatar. It changes to reflect changes in the user's physical characteristics and position. In some embodiments, changes to the user's physical characteristics and position indicate different expressions, emotions, contexts, tones, or other non-verbal communication. In some embodiments, the electronic device modifies the displayed image of the virtual avatar to represent these expressions, emotions, context, tone, or other non-verbal communication.

一部の実施形態では、仮想アバターは、カスタマイズ可能なアバター(例えば、カスタマイズ可能なアバター835)である。カスタマイズ可能なアバターは、例えば、所望の外観(例えば、ユーザーのように見える)を達成するために、ユーザーが選択し、カスタマイズできる仮想アバターである。カスタマイズ可能なアバターは、一般的に、動物又は他の非人間オブジェクトの擬人化構成物などの非人間キャラクタではなく、人間キャラクタの外観を有する。加えて、アバターの特徴は、アバター編集ユーザインタフェース(例えば、図8AA~図8ABに関して以下に論じるアバター編集ユーザインタフェースなど)を使用して、必要に応じて、作成又は変更することができる。一部の実施形態では、カスタマイズ可能なアバターを、カスタマイズされた物理的外観、物理的構成物、又はモデル化された挙動を達成するように、生成及び構成することができる。 In some embodiments, the virtual avatar is a customizable avatar (eg, customizable avatar 835). A customizable avatar is, for example, a virtual avatar that can be selected and customized by a user to achieve a desired appearance (eg, look like the user). Customizable avatars generally have the appearance of human characters rather than non-human characters such as anthropomorphic constructs of animals or other non-human objects. Additionally, avatar characteristics can be created or modified as desired using an avatar editing user interface (eg, such as the avatar editing user interface discussed below with respect to FIGS. 8AA-8AB). In some embodiments, customizable avatars can be created and configured to achieve customized physical appearances, physical constructs, or modeled behaviors.

一部の実施形態では、仮想アバターはカスタマイズ不可能なアバターである。カスタマイズ不可能なアバターは、ユーザによって選択できる仮想アバターであるが、以下でより詳細に説明するように、それらの外観は顔追跡を介して変更することができるものの、一般的には本来構成可能ではない。代わりに、カスタマイズ不可能なアバターは予め構成されており、一般にユーザによって変更できる特徴成分を有しない。一部の実施形態では、カスタマイズ不可能なアバターは、動物又は他の非人間オブジェクトの擬人化構成物(例えば、ロボットアバター633、ウサギアバター634を参照)などの非人間キャラクタの外観を有する。カスタマイズ不可能なアバターは、ユーザが作成できず、又は、物理的外観、物理的構成物、若しくはカスタマイズ不可能なアバターのモデル化された挙動において著しい変更を達成するように変更することができない。 In some embodiments, the virtual avatar is a non-customizable avatar. Non-customizable avatars are virtual avatars that can be selected by the user, but are generally configurable in nature, although their appearance can be changed via face tracking, as described in more detail below. isn't it. Instead, non-customizable avatars are pre-configured and generally do not have characteristics that can be changed by the user. In some embodiments, the non-customizable avatar has the appearance of a non-human character, such as an anthropomorphic construct of an animal or other non-human object (see, eg, robot avatar 633, rabbit avatar 634). A non-customizable avatar cannot be created by a user or modified to achieve significant changes in the physical appearance, physical composition, or modeled behavior of the non-customizable avatar.

図6Gでは、ロボットアバター630-3が選択されているので、デバイス600は、画像表示領域620に表示された被写体632(例えば、ユーザ)の顔に配置されたロボットアバター633を表示する。デバイス600は、アバターがカメラ602の視野内を移動する際に被写体の顔に固定されたままになるようにアバターを表示する。デバイス600はまた、表示された被写体の身体及び背景636を画像表示領域620に示される画像内に維持しながら、顔の姿勢又は表情の変化を含むユーザの顔の検出された変化に基づいて、アバターを継続的に変更する。 In FIG. 6G, robot avatar 630 - 3 is selected, so device 600 displays robot avatar 633 positioned on the face of subject 632 (eg, user) displayed in image display area 620 . Device 600 displays the avatar such that it remains fixed to the subject's face as it moves within the field of view of camera 602 . Based on detected changes in the user's face, including changes in facial pose or expression, the device 600 also maintains the displayed subject's body and background 636 within the image shown in the image display area 620. Continuously change your avatar.

図6Hに示すように、デバイス600がユーザの頭部がカメラ602の視野を越えて移動したことを検出した場合、デバイス600は、例えば、選択されたアバター(例えば、ロボットアバター)の表現640を含むプロンプト638と、ユーザにカメラ602の視野内に頭部を再配置するように指示するメッセージ642とを表示する。一部の実施形態では、プロンプト638が、ぼやけた背景644(ユーザ632及び背景636をぼかすことを含む)と共に表示される。一部の実施形態では、プロンプト638を表示することは、画像表示領域620の中心位置に戻っていく選択されたアバターのアニメーションを表示すること、及びアバター特徴の物理モデルに基づいて停止するように見える、アバター及びその特徴の遅くなった動きを示すことを含む。 As shown in FIG. 6H, when the device 600 detects that the user's head has moved beyond the field of view of the camera 602, the device 600 changes a representation 640 of the selected avatar (eg, robot avatar), for example. and a message 642 instructing the user to reposition the head within the field of view of camera 602 . In some embodiments, prompt 638 is displayed with a blurred background 644 (including blurring user 632 and background 636). In some embodiments, displaying prompt 638 may include displaying an animation of the selected avatar returning to the center position of image display area 620 and stopping based on a physical model of avatar characteristics. Visible, including showing slowed movement of the avatar and its features.

いったんデバイス600がカメラ602の視野に戻るユーザの頭部を検出すると、デバイスは、図6Iに示すように、ユーザの顔において検出された変化に基づいて、選択されたアバター(例えば、ロボットアバター633)を更新し続ける。一部の実施形態では、デバイス600がカメラ602の視野に戻るユーザの顔を検出すると、デバイス600は、画像表示領域620の中心位置からユーザの顔の位置に移動するアバター633を表示し、検出されたユーザの顔の変化に基づいてアバターの変更を再開する。 Once device 600 detects the user's head back in the field of view of camera 602, the device selects an avatar (eg, robot avatar 633) based on the detected changes in the user's face, as shown in FIG. 6I. ) keep updating. In some embodiments, when the device 600 detects the user's face back in the field of view of the camera 602, the device 600 displays an avatar 633 moving from the center position of the image display area 620 to the position of the user's face and detects the user's face. Resume changing avatars based on changes in the user's face.

図6I~図6Kでは、デバイス600は、アバターオプション630の表示されたリスト上の入力644(例えば、ディスプレイ601上のスクロールジェスチャ)を検出する。入力644がディスプレイ601を横切って左方向に移動すると、デバイス600は、左にスクロールして追加のアバターオプション(例えば、うんちアバターオプション及びキツネアバターオプション)を明らかにするアバターオプション630を表示する。一部の実施形態では、アバターオプションのうちの1つが選択領域629に入ると、デバイスは、その時点における入力644の終了が、選択領域629内に現在位置しているアバターオプションの選択をもたらし得ることをユーザに示すための触覚フィードバック(例えば、音声出力を伴う、又は伴わない触知出力)を生成する。例えば、図6Kでは、デバイス600は、エイリアンアバターオプション630-5が選択領域629内に位置するときに、触覚フィードバック646を生成する。 6I-6K, device 600 detects input 644 (eg, a scrolling gesture on display 601) on a displayed list of avatar options 630. In FIGS. As input 644 moves leftward across display 601, device 600 scrolls left to display avatar options 630 revealing additional avatar options (eg, poop avatar option and fox avatar option). In some embodiments, when one of the avatar options enters selection area 629, the device may cause termination of input 644 at that point to result in selection of the avatar option currently located within selection area 629. Generate haptic feedback (eg, tactile output with or without audio output) to indicate to the user. For example, in FIG. 6K device 600 generates haptic feedback 646 when alien avatar option 630 - 5 is positioned within selection area 629 .

図6Jでは、デバイス600は、入力644の終了を検出し、エイリアンアバターオプション630-5が選択領域629内に位置していると判定する。結果として、デバイス600は、被写体の身体及び背景636の表示を維持しながら、ロボットアバター633を、選択されたエイリアンアバターオプション630-5に対応するエイリアンアバター635に置換する。一部の実施形態では、以前に選択されたアバター(例えば、ロボットアバター633)を現在選択されているアバター(例えば、エイリアンアバター635)に置換することは、オフスクリーン(例えば、画像表示領域620の外)で移動する、以前に選択されたアバターのアニメーション、及びアバターオプションメニュー628から画像表示領域620内のユーザの顔に移動する、現在選択されているアバターのアニメーション、を表示することを含む。一部の実施形態では、現在選択されているアバターの顔追跡は、アバターがアバターオプションメニュー628からユーザーの顔に移動すると開始する。一部の実施形態では、アバターの切り替え操作が発生している間、背景をぼかしている。 6J, device 600 detects the end of input 644 and determines that alien avatar option 630-5 is located within selection area 629. In FIG. As a result, device 600 replaces robot avatar 633 with alien avatar 635 corresponding to selected alien avatar option 630-5 while maintaining display of subject's body and background 636. FIG. In some embodiments, replacing a previously selected avatar (eg, robot avatar 633) with a currently selected avatar (eg, alien avatar 635) is performed off-screen (eg, in image display area 620). outside), and the animation of the currently selected avatar moving from the avatar options menu 628 to the user's face in the image display area 620. In some embodiments, face tracking for the currently selected avatar begins when the avatar is moved from the avatar options menu 628 to the user's face. In some embodiments, the background is blurred while the avatar switching operation is occurring.

図6M~図6Nでは、デバイス600は、アバターオプションメニュー628上の垂直ジェスチャ646(例えば、ディスプレイ601上の垂直スワイプ又はタッチアンドドラッグ)を検出し、これに応じて、図6Nに示すように、アバターオプションメニュー628を拡大ビュー628-1に拡大する。図6Nでは、アバターオプション630はマトリクス状に配置されており、図6Oに示すように、選択されて(例えば、ジェスチャ648はロボットアバターオプション630-3を選択する)、画像表示領域620に異なるアバターを表示することができる。 6M-6N, device 600 detects vertical gesture 646 (eg, vertical swipe or touch-and-drag on display 601) on avatar options menu 628, and in response, as shown in FIG. 6N: Expands avatar options menu 628 to expanded view 628-1. In FIG. 6N, avatar options 630 are arranged in a matrix and when selected (eg, gesture 648 selects robot avatar option 630-3), a different avatar is displayed in image display area 620, as shown in FIG. 6O. can be displayed.

図6Pに示すように、ジェスチャ648に応じて、デバイス600は、選択されたロボットアバターオプション630-3(選択領域629に配置される)を含むアバターオプションメニュー628、及び画像表示領域620内のユーザの頭部に表示されるロボットアバター633を示す(例えば、メニューを逆拡大することによって)。 As shown in FIG. 6P, in response to gesture 648, device 600 displays avatar options menu 628, including selected robot avatar option 630-3 (located in selection area 629), and a user menu within image display area 620. A robot avatar 633 displayed on the head of the user (eg, by de-expanding the menu).

図6Qでは、デバイス600は、クローズアイコン650上の入力649(例えば、ディスプレイ601上のタップジェスチャ)を検出して、アプリケーションオプションメニュー628をクローズし、画像表示領域620上の画像ストリーム(例えば、ライブカメラプレビュー)内のユーザの顔のロボットアバター633の表示を維持しながら、カメラオプション領域625を示している図6R示すカメラユーザインタフェース615に戻る。カメラオプション領域625は、キャプチャアフォーダンス621、ビジュアルエフェクトオプションアフォーダンス624、及び強調表示エフェクトアフォーダンス622を示す。図6S及び図6Tに以下示すように、ユーザは、アバターメニューアフォーダンス624-1を選択して、アバターオプションメニュー628を再度表示することができる。 6Q, device 600 detects input 649 (eg, a tap gesture on display 601) on close icon 650 to close application options menu 628 and an image stream (eg, live 6R showing a camera options area 625 while maintaining the display of the robot avatar 633 of the user's face in the camera preview. Camera options area 625 shows capture affordance 621 , visual effects options affordance 624 , and highlight effects affordance 622 . As shown below in FIGS. 6S and 6T, the user can select avatar menu affordance 624-1 to display avatar options menu 628 again.

例えば、図6Sでは、デバイス600は、アバターエフェクトアフォーダンス624-1上の入力652(例えば、ディスプレイ601上のタップジェスチャ)を検出する。図6Tでは、入力652を検出したことに応じて、デバイス600は、キャプチャアフォーダンス621、エフェクトアフォーダンス622、及びビジュアルエフェクトオプションアフォーダンス624を含むカメラオプション領域625を置換するアバターオプション630を有する、アバターオプションメニュー628を表示する。アバターオプションメニュー628は、前述したように、クローズアフォーダンス650を選択することによって再びクローズして、図6Uに示すように、カメラアプリケーションユーザインタフェース615に再び戻ることができる。 For example, in FIG. 6S, device 600 detects input 652 (eg, tap gesture on display 601) on avatar effect affordance 624-1. 6T, in response to detecting input 652, device 600 displays avatar options menu 628 with avatar options 630 replacing camera options area 625 including capture affordance 621, effects affordance 622, and visual effects options affordance 624. display. The avatar options menu 628 can be closed again by selecting the close affordance 650 as described above to return to the camera application user interface 615 again, as shown in FIG. 6U.

図6Uでは、デバイス600は、ステッカーエフェクトアフォーダンス624-2上の入力654(例えば、ディスプレイ601上のタップジェスチャ)を検出する。図6Vでは、入力654を検出したことに応じて、デバイス600は、ステッカー658のスクロール可能リストを有するステッカーオプションメニュー656を表示する。ステッカーは、ユーザが選択できて、画像表示領域620内の画像に適用される、静的なグラフィカルオブジェクトである。一部の実施形態では、ステッカーは、選択されたステッカー上で開始し、ステッカーを所望の位置にドラッグし、次いでドラッグを終了(例えば、指をリフト)することによってステッカーを所望の位置に配置する、タッチアンドドラッグジェスチャによって選択することができる。一部の実施形態では、ステッカーはタップジェスチャによって選択することができ、次いで対応するステッカーが画像表示領域620上の位置に表示される。このような実施形態の一例は図6W~図6Xに示され、次いで画像表示領域620の中央に表示されるヘルメットステッカー658-1上のタップジェスチャ660を示している。 In FIG. 6U, device 600 detects input 654 (eg, tap gesture on display 601) on sticker effect affordance 624-2. 6V, in response to detecting input 654, device 600 displays sticker options menu 656 with a scrollable list of stickers 658. In FIG. A sticker is a static graphical object that can be selected by the user and applied to an image within the image display area 620 . In some embodiments, the sticker is placed in the desired position by starting on the selected sticker, dragging the sticker to the desired position, and then ending the drag (e.g., lifting a finger). , can be selected by touch-and-drag gestures. In some embodiments, a sticker can be selected with a tap gesture and then the corresponding sticker is displayed at a location on image display area 620 . An example of such an embodiment is shown in FIGS. 6W-6X, which then show a tap gesture 660 on helmet sticker 658-1 displayed in the center of image display area 620. FIG.

図6Y~図6Zは、ステッカーを新しい位置にドラッグすることによって、配置されたステッカー(例えば、ステッカー658-1)を画像表示領域620上に再配置できることを示す(ステッカー658-1を図6Zの新しい位置に動かしているジェスチャ662参照)。 FIGS. 6Y-6Z illustrate that a placed sticker (eg, sticker 658-1) can be repositioned on image display area 620 by dragging the sticker to a new location (sticker 658-1 shown in FIG. 6Z). (See gesture 662 moving to a new position).

図6AAは、配置されたステッカー(例えば、ステッカー658-1)が、2本指のジェスチャ664を使用して回転できることを示す。 FIG. 6AA shows that a placed sticker (eg, sticker 658-1) can be rotated using a two-finger gesture 664. FIG.

図6ABは、配置されたステッカー(例えば、ステッカー658-1)が、ピンチ又はデピンチジェスチャを使用してサイズ変更できることを示す。図6ABでは、ヘルメットステッカー658-1が、デピンチジェスチャ666に応じて拡大されている。サイズ変更され、回転され、再配置されたヘルメットステッカー658-1が、図6ACのロボットアバターの頭部上に配置されて示されている。 FIG. 6AB shows that a placed sticker (eg, sticker 658-1) can be resized using a pinch or depinch gesture. 6AB, helmet sticker 658-1 is expanded in response to depinch gesture 666. In FIG. A resized, rotated, and repositioned helmet sticker 658-1 is shown placed on the head of the robot avatar in FIG. 6AC.

図6ADでは、デバイス600は、クローズアイコン670上の入力668(例えば、ディスプレイ601上のタップジェスチャ)を検出して、ステッカーオプションメニュー656をクローズし、図6AEに示すように、キャプチャアフォーダンス621を示すカメラオプション領域625、ビジュアルエフェクトオプションアフォーダンス624、及びビジュアルエフェクトが表示可能にされていることを示す強調表示エフェクトアフォーダンス622を含む、カメラアプリケーションユーザインタフェース615に戻る。図6AEでは、デバイス600は、画像表示領域620上の画像にユーザの表現を示すが、ロボットアバター633(例えば、アバターオプションメニュー628から選択された)及びヘルメットステッカー658-1(例えば、ステッカーオプションメニュー656から選択された)を含むビジュアルエフェクトを用いて変更される。ビジュアルエフェクトの表示は動的である。例えば、デバイス600は、ユーザの顔の検出された変化に応じてロボットアバター633を連続的に変更する。一部の実施形態では、ステッカー658-1の位置決めはまた、以下に一層詳細に論じるように、動的であり、かつユーザの検出された動きに基づいて変化する。 6AD, device 600 detects input 668 (eg, a tap gesture on display 601) on close icon 670 to close sticker options menu 656 and present capture affordance 621, as shown in FIG. 6AE. Returning to the camera application user interface 615, which includes a camera options area 625, a visual effects option affordance 624, and a highlight effects affordance 622 indicating that visual effects are enabled to be displayed. In FIG. 6AE, device 600 shows the user's representation in an image on image display area 620, but robot avatar 633 (eg, selected from avatar options menu 628) and helmet sticker 658-1 (eg, sticker options menu). 656) are modified with visual effects. The display of visual effects is dynamic. For example, device 600 continuously changes robot avatar 633 in response to detected changes in the user's face. In some embodiments, the positioning of sticker 658-1 is also dynamic and changes based on detected movement of the user, as discussed in greater detail below.

ビジュアルエフェクトがデバイス600に対して有効化されている(例えば、エフェクトアフォーダンス622が強調表示されている)ときに、強調表示されたエフェクトアフォーダンス622を選択解除する(例えば、強調表示されているときにアフォーダンス622を選択して、ビジュアルエフェクトを無効化する)ことによって、適用されたビジュアルエフェクト(例えば、アバター及びステッカーなど)を画像表示領域620から除去する、又は隠すことができる。例えば、図6AFでは、デバイスは、強調表示エフェクトアフォーダンス622上の入力672(例えば、ディスプレイ601上のタップジェスチャ)を検出する。これに応答して、デバイス600は、カメラ602の視野内に被写体632及び背景636を含む画像ストリーム(例えば、ライブカメラプレビュー620-1)の表示を維持しながら、図6AGに示すように、表示されたビジュアルエフェクト(例えば、図6AFのヘルメットステッカー658-1及びロボットアバター633)を画像表示領域620から除去する。 Deselecting the highlighted effect affordance 622 when visual effects are enabled for the device 600 (e.g., effect affordance 622 is highlighted) (e.g., when highlighted Select affordance 622 to disable visual effects) to remove or hide applied visual effects (eg, avatars, stickers, etc.) from image display area 620 . For example, in FIG. 6AF, the device detects input 672 (eg, tap gesture on display 601) on highlight effect affordance 622. In FIG. In response, device 600 maintains the display of an image stream (eg, live camera preview 620-1) that includes subject 632 and background 636 within field of view of camera 602, while displaying the image shown in FIG. 6AG. 6AF) are removed from the image display area 620.

一部の実施形態では、ビジュアルエフェクトモードが(例えば強調表示エフェクトアフォーダンス622を選択解除することにより)無効化された後、除去されたビジュアルエフェクトは、例えば、所定の時間内にエフェクトアフォーダンス622を再選択することによって、復元することができる。例えば、図6AHでは、デバイスは、非強調表示エフェクトアフォーダンス622上の入力674(例えば、ディスプレイ601上のタップジェスチャ)を検出する。入力674を検出したことに応じて、デバイス600は、図6AIに示すように、被写体632の身体及び背景636を含む画像ストリーム(例えば、ライブカメラプレビュー620-1)を表示し続けながら、エフェクトアフォーダンス622を強調表示し、ヘルメットステッカー658-1及びロボットアバター633を再表示する。 In some embodiments, after the visual effects mode is disabled (e.g., by deselecting highlight effect affordance 622), the removed visual effect may reappear effect affordance 622, for example, within a predetermined amount of time. You can restore it by selecting it. For example, in FIG. 6AH, the device detects input 674 (eg, tap gesture on display 601) on non-highlight effect affordance 622. In FIG. In response to detecting input 674, device 600 continues to display an image stream (eg, live camera preview 620-1) including the body of subject 632 and background 636, as shown in FIG. 622 is highlighted, and helmet sticker 658-1 and robot avatar 633 are redisplayed.

図6AJでは、デバイス600は、キャプチャアフォーダンス621上の入力676(例えば、ディスプレイ601上のタップジェスチャ)を検出する。入力676を検出したことに応じて、デバイス600は、図6AJのライブカメラプレビュー620-1の画像をキャプチャし、図6AKのメディアアイテム620-2(例えば、デバイス600がキャプチャアフォーダンス621上の入力676を検出した時間におけるライブカメラプレビュー620-1の状態の静止画像)を表示する。 In FIG. 6AJ, device 600 detects input 676 on capture affordance 621 (eg, tap gesture on display 601). In response to detecting input 676, device 600 captures an image of live camera preview 620-1 of FIG. 6AJ and media item 620-2 of FIG. A still image of the state of the live camera preview 620-1 at the time when is detected) is displayed.

一部の実施形態では、画像がキャプチャされる(例えば、メディアアイテムとして記憶される)と、デバイス600は、深度データをメディアアイテム内に符号化する。深度データをメディアに記憶することにより、深度ベースのエフェクト(例えば、z方向におけるオブジェクト(例えば、ユーザの顔)の位置に基づくエフェクト)を後で適用することが可能になる。一部の実施形態では、エフェクトが適用されている間に画像がキャプチャされると、他のデバイスとの互換性を改善するために、そのエフェクトが視覚(例えば、RGB)情報に直接符号化される。 In some embodiments, when an image is captured (eg, stored as a media item), device 600 encodes depth data into the media item. Storing depth data in the media allows depth-based effects (eg, effects based on the position of an object (eg, the user's face) in the z-direction) to be applied later. In some embodiments, when an image is captured while an effect is applied, the effect is encoded directly into visual (e.g., RGB) information to improve compatibility with other devices. be.

図6AKでは、デバイス600は、画像表示領域620にキャプチャされた画像(例えば、メディアアイテム620-2)を示すカメラアプリケーションユーザインタフェース615を表示する(例えば、メディアアイテム620-2は、画像表示領域620に示されるライブカメラプレビュー620-1を置換する)。メディアアイテム620-2は、キャプチャアフォーダンス621が選択された時点でのライブカメラプレビュー620-1の表現である。このように、メディアアイテム620-2は、被写体632の顔、及び背景636の上に表示されるヘルメットステッカー658-1及びロボットアバター633を含む。 6AK, device 600 displays camera application user interface 615 showing a captured image (eg, media item 620-2) in image display area 620 (eg, media item 620-2 is displayed in image display area 620). replaces the live camera preview 620-1 shown in ). Media item 620-2 is a representation of live camera preview 620-1 at the time capture affordance 621 is selected. Thus, media item 620 - 2 includes helmet sticker 658 - 1 and robot avatar 633 displayed over subject 632 's face and background 636 .

デバイス600はまた、カメラ固有アフォーダンス(例えば、図6AJに示すアフォーダンス617)を、再撮影アフォーダンス679、及び、受信者識別子606に置換し、受信者識別子606は、以下に論じるように、ユーザが続いてメディアアイテムを送信すべき、メディアアイテム620-2の現在選択されている受信者を示す。 Device 600 also replaces camera-specific affordances (eg, affordance 617 shown in FIG. 6AJ) with recapture affordances 679 and recipient identifier 606, which is followed by the user as discussed below. indicates the currently selected recipient of media item 620-2 to whom the media item should be sent.

デバイス600は、ビジュアルエフェクトオプションアフォーダンス624を含むカメラオプション領域625を表示する。ビジュアルエフェクトオプションアフォーダンス624を選択して、それぞれのオプションメニューを表示することができ、メニューを使用して、キャプチャされたメディアアイテム620-2(並びに、後述する録画されたビデオメディアアイテム620-4)を変更することができる。 Device 600 displays camera options area 625 that includes visual effects option affordances 624 . A visual effects option affordance 624 can be selected to display a respective menu of options, which can be used to select a captured media item 620-2 (as well as a recorded video media item 620-4, described below). can be changed.

デバイス600はまた、カメラオプション領域625を更新して、キャプチャアフォーダンス621及びカメラセレクタアフォーダンス627を、マークアップアフォーダンス677、編集アフォーダンス678、及び送信アフォーダンス680に置換する。マークアフォーダンス677は、ユーザがメディアアイテム620-2をマークアップすることを可能にする。編集アフォーダンス678により、ユーザが、画像を切り取ること、又はメディアアイテム620-2の他の特性を調整することによってなどで、メディアアイテム620-2を編集することが可能になる。図6AKに示すように、送信アフォーダンス680がキャプチャアフォーダンス621をディスプレイ上でに置換するように、キャプチャアフォーダンス621が表示された同じ位置/領域内に、送信アフォーダンス680が表示される。 Device 600 also updates camera options area 625 to replace capture affordance 621 and camera selector affordance 627 with markup affordance 677 , editing affordance 678 , and send affordance 680 . Mark affordance 677 allows the user to mark up media item 620-2. Editing affordances 678 allow a user to edit media item 620-2, such as by cropping an image or adjusting other characteristics of media item 620-2. As shown in FIG. 6AK, send affordance 680 is displayed within the same location/region where capture affordance 621 was displayed such that send affordance 680 replaces capture affordance 621 on the display.

送信アフォーダンス680は、受信者識別子606によって示される受信者にメディアアイテム620-2を、ユーザが直ちに送信することを可能にする。例えば、図6ALでは、デバイス600は、送信アフォーダンス680上の入力682(例えば、ディスプレイ601上のタップジェスチャ)を検出し、図6AMのメッセージングユーザインタフェース603に示すように、受信者識別子606に対応する連絡先であるJohnに、メディアアイテム620-2を直ちに送信する。一部の実施形態では、デバイス600は、メッセージングユーザインタフェース603を表示することなくメディアアイテム620-2を送信する。図6AMに示すなどの一部の実施形態では、デバイスは、メディアアイテム620-2を送信し、メディアアイテム620-2を有するメッセージングユーザインタフェース603をメッセージ表示領域604に表示して、メディアアイテム620-2がメッセージ会話の参加者(例えば、John)に送信されたこと、及びキーボード表示領域612の上方に配置されたアプリケーションドック690を表示していること、を示す。アプリケーションドック690は、異なるアプリケーションにアクセスするために選択可能なアプリケーションアフォーダンス692を含む。 Send affordance 680 allows the user to immediately send media item 620 - 2 to the recipient indicated by recipient identifier 606 . For example, in FIG. 6AL, device 600 detects input 682 (eg, a tap gesture on display 601) on send affordance 680 and corresponds to recipient identifier 606 as shown in messaging user interface 603 of FIG. 6AM. Immediately send media item 620-2 to contact John. In some embodiments, device 600 sends media item 620 - 2 without displaying messaging user interface 603 . In some embodiments, such as shown in FIG. 6AM, the device transmits media item 620-2, displays messaging user interface 603 with media item 620-2 in message display area 604, and displays media item 620-2. 2 has been sent to the participant in the message conversation (eg, John) and is displaying the application dock 690 located above the keyboard display area 612 . Application dock 690 includes application affordances 692 that are selectable for accessing different applications.

一部の実施形態では、メディアアイテム620-2は、メッセージング会話の参加者に直ちには送信されない。例えば、図6ANでは、送信アフォーダンス680を選択する代わりに、ユーザは完了アフォーダンス618を選択する。完了アフォーダンス618上の入力684(例えば、ディスプレイ601上のタップジェスチャ)を検出したことに応じて、デバイス600は、図6AOに示すように、メッセージングユーザインタフェース603のメッセージ作成フィールド608に、メディアアイテム685の表現を表示する。この実施形態(図6AO~図6ARに示す)では、アプリケーションドック690を表示する代わりに、デバイス600は、メッセージを送信する前に、キーボード表示領域612と一緒にテキスト提案領域614を表示し、ユーザがテキスト(例えば、687)を作成するか、又は任意選択的に他のメッセージコンテンツ(例えば、マルチメディアコンテンツ)を追加できるようにする。送信アイコン688上の入力686(例えば、ディスプレイ601上のタップジェスチャ)を検出したことに応じて、デバイス600は、図6AQ~図6ARに示すように、メディアアイテム685の表現をメッセージ会話の参加者に送信する。 In some embodiments, media item 620-2 is not immediately sent to participants in the messaging conversation. For example, in FIG. 6AN, instead of selecting Send Affordance 680 , the user selects Completion Affordance 618 . In response to detecting input 684 (eg, a tap gesture on display 601) on completion affordance 618, device 600 displays media item 685 in compose message field 608 of messaging user interface 603, as shown in FIG. 6AO. display the representation of In this embodiment (shown in FIGS. 6AO-6AR), instead of displaying an application dock 690, the device 600 displays a text suggestion area 614 along with a keyboard display area 612 before sending a message, allowing the user to create text (eg, 687) or optionally add other message content (eg, multimedia content). In response to detecting input 686 (eg, a tap gesture on display 601) on send icon 688, device 600 renders representations of media items 685 to participants in the message conversation, as shown in FIGS. 6AQ-6AR. Send to

一部の実施形態では、メディアアイテム685を送信することは、メディアアイテムに符号化された深度データを有するメディアアイテムを送信することを含む。深度データと共にメディアアイテムをメディアに記憶することにより、深度ベースのエフェクト(例えば、z方向におけるオブジェクト(例えば、ユーザの顔)の位置に基づくエフェクト)を、後で適用すること(例えば、受信者が後で適用すること)が可能になる。一部の実施形態では、メディアアイテムが送信されると、他のデバイスとの互換性を向上させるために、そのエフェクトが視覚(例えばRGB)情報に直接符号化される。 In some embodiments, transmitting media item 685 includes transmitting the media item with depth data encoded in the media item. Storing the media item with the depth data in the media allows depth-based effects (e.g., effects based on the position of an object (e.g., the user's face) in the z-direction) to be applied later (e.g., when the recipient to be applied later). In some embodiments, when the media item is transmitted, its effects are encoded directly into visual (eg, RGB) information to improve compatibility with other devices.

一部の実施形態では、メディアアイテム685の表現を送信した後、デバイス600は、図6ARに示すように、キーボード表示領域612の上方に表示されるテキスト提案領域614を有するメッセージングユーザインタフェース603を表示する。アプリケーションドックアフォーダンス610上の入力694(例えば、ディスプレイ601上のタップジェスチャ)を受信したことに応じて、デバイス600は、図6ATに示すように、テキスト提案領域614をアプリケーションドック690に置換する。 In some embodiments, after sending the representation of media item 685, device 600 displays messaging user interface 603 with text suggestion area 614 displayed above keyboard display area 612, as shown in FIG. 6AR. do. In response to receiving input 694 (eg, a tap gesture on display 601) on application dock affordance 610, device 600 replaces text suggestion area 614 with application dock 690, as shown in FIG. 6AT.

一部の実施形態では、ユーザがメッセージ作成フィールド608又ははキーボード領域612(メッセージのテキストを作成することに関連付けられた動作)を選択するまで、アプリケーションドック690はメッセージングユーザインタフェース603に表示されたままである。例えば、図6AUに示すように、デバイス600は、キーボード表示領域612上の入力696(例えば、デバイス601上のタップジェスチャ)を検出する。これに応じて、図6AVに示すように、デバイス600は、アプリケーションドック690を除去し、キーボード表示領域612の上方にテキスト提案領域614を表示する。一部の実施形態では、入力696が(キーボード表示領域612の代わりに)メッセージ作成フィールド上の入力である場合、デバイス600はまた、図6AVに示すように、アプリケーションドック690を除去し、テキスト提案領域614を表示する。 In some embodiments, application dock 690 remains displayed in messaging user interface 603 until the user selects message compose field 608 or keyboard area 612 (an action associated with composing the text of a message). be. For example, as shown in FIG. 6AU, device 600 detects input 696 on keyboard display area 612 (eg, a tap gesture on device 601). In response, device 600 removes application dock 690 and displays text suggestion area 614 above keyboard display area 612, as shown in FIG. 6AV. In some embodiments, if input 696 is input on a message compose field (instead of keyboard display area 612), device 600 also removes application dock 690 and provides text suggestions, as shown in FIG. 6AV. Display area 614 .

図6AWは、アプリケーションドックアフォーダンス610が選択された後(例えば、図6ASの入力694に応じて)のメッセージングユーザインタフェース603を示す。アプリケーションドック690は、キーボード選択領域612の上方に表示される(例えば、テキスト提案領域614を置換する)。アプリケーションアフォーダンス692-1上の入力698(例えば、ディスプレイ601上のタップジェスチャ)を検出したことに応じて、デバイス600は、テキスト提案領域614及びキーボード表示領域612によって以前に占有されていた位置にアプリケーション表示領域699を表示する。アプリケーション表示領域699は、アプリケーションドック690を任意選択的に含み、アプリケーションドック690は、図6AXに示すように、選択されたアプリケーションアフォーダンス(例えば、アプリケーションアフォーダンス692-1)の表示6100を含む。 FIG. 6AW shows messaging user interface 603 after application dock affordance 610 has been selected (eg, in response to input 694 of FIG. 6AS). Application dock 690 is displayed above keyboard selection area 612 (eg, replacing text suggestion area 614). In response to detecting input 698 (eg, a tap gesture on display 601) on application affordance 692-1, device 600 moves the application to the location previously occupied by text suggestion area 614 and keyboard display area 612. Display area 699 is displayed. Application display area 699 optionally includes application dock 690, which includes display 6100 of the selected application affordance (eg, application affordance 692-1), as shown in FIG. 6AX.

一部の実施形態では、アプリケーション表示領域699は、メッセージングユーザインタフェース603で使用するために選択できるグラフィカルオブジェクト6102を含む。一部の実施形態では、アプリケーション表示領域699に表示されるグラフィカルオブジェクトのタイプは、アプリケーション表示領域の表示を呼び出すために選択されたアプリケーションアフォーダンスに依存する。図6AXに示す実施形態では、選択されたアプリケーションアフォーダンス692-1は、アバターアプリケーションに対応する。したがって、アプリケーション表示領域699に表示されるグラフィカルオブジェクト6102-1及び6102-2は、メッセージングユーザインタフェースで使用するために選択できるアバターに対応する。アプリケーションドック610から選択されたアプリケーションアフォーダンスがステッカーアプリケーションに対応する場合、グラフィカルオブジェクト6102は、メッセージングユーザーインタフェースで使用するために選択できるステッカーに対応する。 In some embodiments, application display area 699 includes graphical objects 6102 that can be selected for use in messaging user interface 603 . In some embodiments, the type of graphical object displayed in application display area 699 depends on the application affordances selected to invoke display of the application display area. In the embodiment shown in Figure 6AX, the selected application affordance 692-1 corresponds to an avatar application. Accordingly, graphical objects 6102-1 and 6102-2 displayed in application display area 699 correspond to avatars that may be selected for use in the messaging user interface. If the application affordance selected from application dock 610 corresponds to a sticker application, graphical object 6102 corresponds to a sticker that can be selected for use in the messaging user interface.

前述したように、図6C~図6AXに関して説明した先の実施形態は、写真アフォーダンス619-2に関連付けられた動作の静止画像キャプチャモードで動作するデバイス600に関して論じられる。しかしながら、特に明記しない限り、これらの実施形態はまた、デバイスがビデオアフォーダンス619-1に関連付けられたビデオ録画モードで動作しているときのデバイス600の動作に適用される。このようにして、ビデオアフォーダンス619-1に関連付けられたビデオ録画モードで動作しているときにデバイス600に適用される先の実施形態の多くを示す、図6AY~図6BQの下記の説明は、冗長性を避けるために必要に応じて省略されている。 As noted above, the previous embodiments described with respect to FIGS. 6C-6AX are discussed with respect to device 600 operating in a still image capture mode of operation associated with photo affordance 619-2. However, unless otherwise stated, these embodiments also apply to the operation of device 600 when the device is operating in the video recording mode associated with video affordance 619-1. 6AY-6BQ, which thus illustrate many of the previous embodiments as applied to device 600 when operating in the video recording mode associated with video affordance 619-1, are as follows: Omitted where necessary to avoid redundancy.

図6AY~図6AZは、カメラアプリケーションユーザインタフェース615のビデオアフォーダンス619-1上の入力6104を検出したことに応じて、デバイス600がビデオ録画モードに切り替わることを示す。ビデオ録画モードに切り替えると、デバイス600は、カメラ固有アフォーダンス617-2、617-3、及び617-4を除外し、タイマ6122を表示する。 6AY-6AZ show device 600 switching to video recording mode in response to detecting input 6104 on video affordance 619-1 of camera application user interface 615. FIG. When switching to video recording mode, device 600 excludes camera-specific affordances 617-2, 617-3, and 617-4 and displays timer 6122.

図6AZ~図6BBは、エフェクトアフォーダンス622上の入力6106に応じてエフェクトモードを有効化し、次いでビデオ記録モードが有効化されている間に、カメラオプション領域625にビジュアルエフェクトオプションアフォーダンス624を表示するデバイス600を示す。 6AZ-6BB show a device 600 that enables effects mode in response to input 6106 on effects affordances 622 and then displays visual effects options affordances 624 in camera options area 625 while video recording mode is enabled. indicate.

図6BC~図6BEは、アバターエフェクトアフォーダンス624-1上の入力6108を検出したことに応じて、アバターオプションメニュー628を表示するデバイス600を示す。アバターオプションメニュー628は、ビデオモード中に被写体の顔に対応するアバターを表示するために選択できる、アバターオプション630を含む。ロボットアバターオプション630-3が選択されると、デバイス600は、被写体の身体及び背景636の表示を維持しながら、ロボットアバター633を被写体の顔に表示する。クローズアイコン650は入力6110により選択され、アバターオプションメニュー628をクローズし、強調表示されたエフェクトアフォーダンス622及び表示されたビジュアルエフェクトオプションアフォーダンス624を有するカメラオプション領域625に戻る。 6BC-6BE show device 600 displaying avatar options menu 628 in response to detecting input 6108 on avatar effect affordance 624-1. Avatar options menu 628 includes avatar options 630 that can be selected to display an avatar corresponding to the subject's face during video mode. When robot avatar option 630-3 is selected, device 600 displays robot avatar 633 on the subject's face while maintaining the subject's body and background 636 display. Close icon 650 is selected by input 6110 to close avatar options menu 628 and return to camera options area 625 with effects affordances 622 highlighted and visual effects options affordances 624 displayed.

図6BF~図6BHは、画像表示領域620に表された画像データの録画されたビデオを生成するデバイス600を示す。デバイス600は、キャプチャアフォーダンス621上の入力6112を検出し、画像表示領域620に表された画像データのキャプチャを開始する。一部の実施形態では、デバイス600は、デバイス600のビデオ録画モードが有効化されているとの判定に基づいて、画像データのビデオ記録を生成する。一部の実施形態では、デバイス600は、キャプチャアフォーダンス621上で検出された入力6112に基づいて、ビデオ録画又は任意選択で静止画像キャプチャを生成する。例えば、入力6112がタップジェスチャとして検出されると、デバイス600は、画像表示領域620に表される画像データの静止画像をキャプチャする。入力6112がタップアンドホールドジェスチャとして検出された場合、デバイス600は、一層詳細に上述したように、画像データのビデオ録画をキャプチャする。 6BF-6BH illustrate device 600 for generating a recorded video of the image data represented in image display area 620. FIG. Device 600 detects input 6112 on capture affordance 621 and begins capturing image data represented in image display area 620 . In some embodiments, device 600 generates a video recording of image data based on determining that a video recording mode of device 600 is enabled. In some embodiments, device 600 generates a video recording or optionally still image capture based on input 6112 detected on capture affordance 621 . For example, when input 6112 is detected as a tap gesture, device 600 captures a still image of the image data represented in image display area 620 . If input 6112 is detected as a tap-and-hold gesture, device 600 captures a video recording of the image data, as described in greater detail above.

図6BGでは、キャプチャアフォーダンス621上の入力6112を検出したことに応じて、デバイス600は、被写体、背景、及びビジュアルエフェクトを含む画像表示領域620に表される画像データを記録するための処理を開始する。デバイス600はまた、カメラエフェクト領域625を除去し、画像表示領域620を拡張し、並びに停止アフォーダンス6114、及び任意選択的に、ライブカメラ記録の静止画像をキャプチャするための画像キャプチャアフォーダンス6116を表示することによって、カメラアプリケーションユーザーインタフェース615を変更する。図6BG及び図6BHでは、画像表示領域620は、上述のようになされた様々な選択に従って有効化されるビジュアルエフェクト(例えば、ロボットアバター633)の追加を伴う、カメラ602の視野内のオブジェクトのライブカメラ記録620-3を表す。ステッカー及びフルスクリーンエフェクトを含むこともできる、これらのビジュアルエフェクトは、ライブ画像データの一部として画像表示領域620に表示され、結果としてのメディアアイテムの一部を形成するために記録される。本明細書で論じるように、これらのビジュアルエフェクトは、メディアアイテムが記録された後、メディアアイテムに任意選択的に表示又は隠すことができる。 In FIG. 6BG, in response to detecting input 6112 on capture affordance 621, device 600 begins processing to record image data represented in image display area 620, including subject, background, and visual effects. do. Device 600 also removes camera effects area 625, expands image display area 620, and displays stop affordance 6114 and, optionally, image capture affordance 6116 for capturing a still image of the live camera recording. changes the camera application user interface 615 by doing so. 6BG and 6BH, image display area 620 shows a live view of objects within the field of view of camera 602, with the addition of visual effects (eg, robot avatar 633) enabled according to various selections made as described above. Represents camera recording 620-3. These visual effects, which can also include stickers and full-screen effects, are displayed in image display area 620 as part of the live image data and recorded to form part of the resulting media item. As discussed herein, these visual effects can optionally be displayed or hidden in the media item after the media item has been recorded.

図6BHでは、デバイス600は、ユーザの顔の変化を検出し、ライブ画像ストリームを記録しながら、ユーザの顔の検出された変化に基づいてロボットアバター633を変更する。停止アフォーダンス6114上の入力6118を検出したことに応じて、デバイス600は、画像表示領域620に表される画像データの記録を停止し、図6BIに示す再生インタフェースを表示する。 In FIG. 6BH, the device 600 detects changes in the user's face and modifies the robot avatar 633 based on the detected changes in the user's face while recording a live image stream. In response to detecting input 6118 on stop affordance 6114, device 600 stops recording the image data represented in image display area 620 and displays the playback interface shown in FIG. 6BI.

図6BIでは、デバイス600は、画像表示領域620に記録されたビデオメディアアイテム620-4を表示し、再撮影アフォーダンス679及び受信者識別子606を表示し、受信者識別子は、本明細書で論じるように、ユーザが続いてメディアアイテムを送信すべき、ビデオアイテム620-4の現在選択されている受信者を示す。 In FIG. 6BI, device 600 displays recorded video media item 620-4 in image display area 620 and displays recapture affordance 679 and recipient identifier 606, the recipient identifier as discussed herein. indicates the currently selected recipient of video item 620-4 to which the user should subsequently send the media item.

デバイス600はまた、停止アフォーダンス6114及び画像キャプチャアフォーダンス6116を除去し、記録されたビデオメディアアイテム620-4用のビデオスクラバ6120、エフェクトアフォーダンス622、編集アフォーダンス678、マークアップアフォーダンス677、及び送信アフォーダンス680を有するカメラオプション領域625を表示する。カメラオプション領域625はまた、ビジュアルエフェクトオプションアフォーダンス624を含む。ビジュアルエフェクトオプションアフォーダンス624を選択して、キャプチャされたメディアアイテム620-4を変更するために使用できる、それぞれのオプションメニューを表示することができる。図6BJ~図6BNは、キャプチャされたビデオメディアアイテム620-4においてビジュアルエフェクトを変更する例を示す。図6BIに示すように、送信アフォーダンス680がキャプチャアフォーダンス6116をディスプレイ上でに置換するように、キャプチャアフォーダンス6116が表示された同じ位置/領域内に、送信アフォーダンス680が表示される。 Device 600 also removes stop affordance 6114 and image capture affordance 6116, and removes video scrubber 6120, effects affordance 622, editing affordance 678, markup affordance 677, and send affordance 680 for recorded video media item 620-4. display the camera options area 625 that has Camera options area 625 also includes visual effects options affordances 624 . A visual effects option affordance 624 can be selected to display a menu of respective options that can be used to modify the captured media item 620-4. Figures 6BJ-6BN illustrate examples of changing visual effects in a captured video media item 620-4. As shown in FIG. 6BI, send affordance 680 is displayed within the same location/region where capture affordance 6116 was displayed such that send affordance 680 replaces capture affordance 6116 on the display.

図6BJ~図6BNは、アバターエフェクトアフォーダンス624-1上の入力6124を検出したことに応じて、アバターオプションメニュー628を表示するデバイス600を示す。図6BKに示すように、アバターオプションメニュー628は、選択されたロボットアバターオプション630-3を含むアバターオプション630を示す。図6BLに示すように、デバイス600は、入力6126を検出してウサギアバターオプション630-4を選択し、ビデオメディアアイテム620-4を更新して、図6BMに示すように、被写体の身体及び背景636をなおも表示しながら、被写体の頭部に配置されたウサギアバター634を示す。図6BNに示すように、クローズアイコン650上の入力6128を検出したことに応じて、デバイス600は、アバターオプションメニュー628をクローズし、図6BOのカメラオプション領域625を表示する。ビデオスクラバ6120を含むカメラオプション領域625は、図6BJのロボットアバター633の表示から、ウサギアバター634の表示に更新される。一部の実施形態では、ビデオスクラバ6120に向けられた入力(例えば、ビデオスクラバ6120の位置で開始する接触の動きを含むスワイプ入力又はドラッグ入力)に応じて、デバイスは、録画されたビデオを通じてスクラブする(例えば、ビデオのプレビューの外観を変更し、及び入力に従って、スクラバを移動させるか又はスクラバ内の再生ヘッドを移動させる)。一部の実施形態では、記録されたビデオを通じてスクラブすることは、ビデオに適用されるエフェクトが経時的にどのように影響を及ぼすか(例えば、ステッカー及び/又はアバターが、ユーザの頭部/顔が動くにつれて、どのように動き、及び/又は表現を変化させるか、若しくは1つ以上のカメラの視野内の表現を変化させるか)を示す。一部の実施形態では、ビデオスクラバ6120は、ビデオをクロッピングする(例えば、ビデオスクラバの両端の編集アフォーダンスをドラッグすることにより、ビデオスクラバの開始又は終了時間を変更する)ための選択可能なアフォーダンスを含む。例えば、図8AWのビデオスクラバ8120に向けられたユーザ入力に応じて、デバイスは、図8AW~8AZに示すように、アバター及びステッカーを用いて、しかし入力(例えば、タッチ感知ディスプレイ上の接触の動きの大きさ及び方向)の変化に基づいて決定されたレートで、ビデオを通じてスクラブし得る。上述したビデオスクラバ6120(及び後述するビデオスクラバ8120)との相互作用は、本明細書に記載する他のスクラバとの相互作用に対するのと同様の方法で、任意選択的に適用される。 6BJ-6BN illustrate device 600 displaying avatar options menu 628 in response to detecting input 6124 on avatar effect affordance 624-1. As shown in FIG. 6BK, avatar options menu 628 shows avatar options 630, including selected robot avatar option 630-3. As shown in FIG. 6BL, device 600 detects input 6126 to select rabbit avatar option 630-4 and updates video media item 620-4 to display the subject's body and background as shown in FIG. 6BM. A rabbit avatar 634 is shown placed on the subject's head while still displaying 636 . As shown in FIG. 6BN, in response to detecting input 6128 on close icon 650, device 600 closes avatar options menu 628 and displays camera options area 625 of FIG. 6BO. The camera options area 625 containing the video scrubber 6120 is updated from displaying the robot avatar 633 of FIG. 6BJ to displaying the rabbit avatar 634. FIG. In some embodiments, in response to input directed at the video scrubber 6120 (e.g., swipe input or drag input involving contact movement starting at the position of the video scrubber 6120), the device scrubs through the recorded video. (eg, change the appearance of the video preview and move the scrubber or move the playhead within the scrubber according to the input). In some embodiments, scrubbing through a recorded video will show how effects applied to the video affect over time (e.g., stickers and/or avatars may appear on the user's head/face). moves and/or change representation, or change representation within the field of view of one or more cameras). In some embodiments, the video scrubber 6120 provides selectable affordances for cropping the video (eg, changing the start or end time of the video scrubber by dragging the editing affordances on either side of the video scrubber). include. For example, in response to user input directed to the video scrubber 8120 of FIG. 8AW, the device may use avatars and stickers, but input (e.g., contact movement on a touch-sensitive display), as shown in FIGS. ) may be scrubbed through the video at a rate determined based on changes in (magnitude and direction). Interaction with video scrubber 6120 described above (and video scrubber 8120 described below) is optionally applied in a similar manner to interaction with other scrubbers described herein.

図6AK~図6AOに関して上述したように、ビデオメディアアイテム620-4を、図6BP及び図6BQに示すように、送信アフォーダンス680上の入力(例えば、入力6130)を検出したことに応じて、メッセージ会話の参加者に直ちに送信することができる。ビデオメディアアイテム620-4の表現は、完了アフォーダンス618の入力に応じて、メッセージ作成フィールド608に表示することができる。 As described above with respect to FIGS. 6AK-6AO, video media item 620-4, as shown in FIGS. Can be sent immediately to conversation participants. A representation of video media item 620 - 4 may be displayed in message composition field 608 in response to completion affordance 618 input.

図7A~図7Bは、一部の実施形態に係る、電子デバイスを使用してメッセージングアプリケーションにビジュアルエフェクトを表示するための方法を示すフロー図である。方法700は、カメラ、表示装置、及び1つ以上の入力デバイスを備えたデバイス(例えば、100、300、500、600)にて実行される。方法700におけるいくつか動作は、任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 7A-7B are flow diagrams illustrating methods for displaying visual effects in a messaging application using an electronic device, according to some embodiments. Method 700 is performed on a device (eg, 100, 300, 500, 600) that includes a camera, display, and one or more input devices. Some acts in method 700 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

以下に説明するように、方法700は、メッセージングアプリケーションにおいてビジュアルエフェクトを表示するための直感的な仕方を提供する。この方法は、メッセージングアプリケーションにおいて送信する画像にビジュアルエフェクトを適用するためユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作コンピューティングデバイスでは、画像にビジュアルエフェクトをユーザーがより迅速かつ効率的に表示できるようにすることで、電力を節約し、バッテリ充電間の時間を増大させる。 As described below, method 700 provides an intuitive way to display visual effects in messaging applications. This method reduces the user's cognitive burden for applying visual effects to images sent in messaging applications, thereby creating a more efficient human-machine interface. Battery-operated computing devices conserve power and increase the time between battery charges by allowing users to display visual effects on images more quickly and efficiently.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、少なくとも第1の参加者を含むメッセージ会話の、カメラアフォーダンス(例えば、609、カメラアプリケーションをアクティブ化するための機能に関連付けられた選択可能なアイコン)を含むメッセージングユーザインタフェース(例えば、603)を表示する(702)。 An electronic device (e.g., 600) associates, via a display (e.g., 601), a message conversation including at least a first participant with a camera affordance (e.g., 609, a function for activating a camera application). display 702 a messaging user interface (e.g., 603) including selectable icons that

電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、カメラアフォーダンスに向けられた第1の入力(例えば、616、カメラアフォーダンスに対応する位置におけるタッチスクリーンディスプレイ上のタッチジェスチャ)を検出する(704)。 An electronic device (eg, 600) receives a first input (eg, 616, a touch gesture on a touch screen display at a location corresponding to the camera affordance) directed to the camera affordance via one or more input devices. Detect (704).

第1の入力(例えば、616)を検出したことに応じて、電子デバイス(例えば、600)は、カメラユーザインタフェース(例えば、615)を表示する(706)。カメラユーザインタフェースは、キャプチャアフォーダンス(例えば、電子デバイスのカメラを使用して画像データをキャプチャするための機能に関連付けられた選択可能なアイコン、621)を含む(708)。 In response to detecting the first input (eg, 616), the electronic device (eg, 600) displays (706) the camera user interface (eg, 615). The camera user interface includes (708) capture affordances (eg, selectable icons associated with functions for capturing image data using the electronic device's camera, 621).

一部の実施形態では、カメラユーザインタフェース(例えば、615)は、キャプチャされた画像データに表示するためにビジュアルエフェクトが有効化されるモードに関連付けられたエフェクトモードアフォーダンス(例えば、622、画像データを変更するために様々なビジュアルエフェクトが利用可能なモードをアクティブ化するための機能に関連付けられた選択可能なアイコン)を含む(710)。カメラユーザインタフェースにエフェクトモードアフォーダンスを含めることにより、ユーザが、カメラユーザインタフェースを介して特定のエフェクト(例えば、ビジュアルエフェクト)を画像に適用できることを認識することが可能になる。デバイスの追加の制御を提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ビジュアルエフェクトを、カメラの視野内の画像データの表現に付加することができる。一部の実施形態では、ビジュアルエフェクトを、キャプチャされた画像データに付加することができる。一部の実施形態では、ビジュアルエフェクトは深度データに基づく。一部の実施形態では、電子デバイスは、1つ以上の入力デバイスを介して、エフェクトモードアフォーダンスの選択(たとえば、623)を検出する。一部の実施形態では、エフェクトモードアフォーダンスの選択を検出したことに応じて、電子デバイスは、第1のカメラモード(例えば、標準カメラモード)から、第1のカメラモードとは異なる第2のカメラモード(例えば、エフェクトカメラモード、画像データを変更するために様々なビジュアルエフェクトを利用できるモード)に、電子デバイスを遷移させる。一部の実施形態では、デバイスが第2のカメラモードにある間に、第2のカメラモードが動作しているという視覚表示が表示される(例えば、エフェクトモードアフォーダンスが強調表示される)。 In some embodiments, the camera user interface (eg, 615) displays effects mode affordances (eg, 622, image data associated with modes in which visual effects are enabled for display on the captured image data). Selectable icons associated with functions for activating modes in which various visual effects are available to change (710). Including effect mode affordances in the camera user interface allows users to recognize that certain effects (eg, visual effects) can be applied to images via the camera user interface. By providing additional control of the device, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device and preventing user error). ), and in addition reduce power usage and improve battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, visual effects can be added to the representation of image data within the camera's field of view. In some embodiments, visual effects can be added to the captured image data. In some embodiments, visual effects are based on depth data. In some embodiments, the electronic device detects selection of effects mode affordances (eg, 623) via one or more input devices. In some embodiments, in response to detecting selection of an effects mode affordance, the electronic device switches from a first camera mode (eg, standard camera mode) to a second camera mode different from the first camera mode. Transitioning the electronic device into a mode (eg, effects camera mode, a mode in which various visual effects can be used to modify the image data). In some embodiments, while the device is in the second camera mode, a visual indication is displayed that the second camera mode is operating (eg, effects mode affordances are highlighted).

一部の実施形態では、エフェクトモードアフォーダンス(例えば、622)の選択(例えば、623)を検出することに更に応じて、電子デバイス(例えば、600)は、1つ以上のカメラモードアフォーダンスを表示することを停止する。一部の実施形態では、エフェクトモードアフォーダンスの選択を検出したことに更に応じて、電子デバイスは、複数のエフェクトオプションアフォーダンス(例えば、624、ビジュアルエフェクトを生成するための機能にそれぞれ関連付けられた選択可能なアイコン)を表示する。一部の実施形態では、エフェクトオプションアフォーダンスは、1つ以上のカメラモードアフォーダンスによって以前に占有されていた、カメラユーザインタフェース(例えば、615)内の位置に、ステッカーアフォーダンス(例えば、624-2)及び/又はアバターアフォーダンス(例えば、624-1)を含む。一部の実施形態では、エフェクトオプションアフォーダンスが表示される位置は、カメラモードアフォーダンスが以前に表示された特定の領域(例えば、カメラエフェクト領域625)内の任意の位置である。一部の実施形態では、それぞれのエフェクトオプションアフォーダンスが表示される位置は、それぞれのカメラモードアフォーダンスがその領域に表示されたのと同じ位置である。一部の実施形態では、エフェクトオプションアフォーダンスを表示することは、カメラモードアフォーダンスをエフェクトオプションアフォーダンスに置換することを含む。 In some embodiments, further in response to detecting the selection (eg, 623) of the effects mode affordance (eg, 622), the electronic device (eg, 600) displays one or more camera mode affordances. stop doing that. In some embodiments, further in response to detecting selection of an effect mode affordance, the electronic device generates a plurality of effect option affordances (e.g., 624, selectable affordances each associated with a function for generating a visual effect). icon). In some embodiments, effect option affordances are placed in positions within the camera user interface (eg, 615) previously occupied by one or more camera mode affordances (eg, 624-2) and sticker affordances (eg, 624-2). /or include avatar affordances (eg, 624-1). In some embodiments, the location where the effect option affordance is displayed is any location within a particular region (eg, camera effects region 625) where the camera mode affordance was previously displayed. In some embodiments, the position where each effect option affordance is displayed is the same position where each camera mode affordance is displayed in that region. In some embodiments, displaying the effect option affordance includes replacing the camera mode affordance with the effect option affordance.

一部の実施形態では、電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、エフェクトオプションアフォーダンスの第1のもの(例えば、ステッカーアフォーダンス624-2)の選択(例えば、654)を検出する。一部の実施形態では、エフェクトオプションアフォーダンスのうちの第1のものの選択を検出したことに応じて、電子デバイスは、複数のエフェクトオプションアフォーダンス(例えば、624)を表示することを停止し、複数の選択可能なグラフィックアイコン(例えば、658、ステッカー)を表示する。エフェクトオプションアフォーダンスのうちの第1のものの選択を検出したことに応じて、複数のエフェクトオプションアフォーダンスの表示を停止し、複数の選択可能なグラフィックアイコンを表示することにより、ユーザは、エフェクトオプションアフォーダンスのうちの第1のものがグラフィックアイコン(例えば、ステッカー)オプションに関連することを迅速かつ容易に認識することができ、それによって、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ステッカーを表示することは、エフェクトオプションのアフォーダンスの上に領域(例えば、ステッカーメニュー656)を表示することを含み、この領域は、カメラユーザインタフェースに表される画像上に表示するために選択できる複数のステッカーオプションを含む。一部の実施形態では、ユーザは、ステッカー上をタップすることによってステッカー(例えば、658-1)を選択し(例えば、660)、ステッカーは画像上に自動的に表示される(例えば、画像の中心などのデフォルト位置に)。一部の実施形態では、ユーザは、ステッカーをタッチし、ステッカーをステッカーメニューから画像上にドラッグすることによって、ステッカーを選択する。一部の実施形態では、キャプチャアフォーダンスを表示している間に、エフェクトオプションアフォーダンスのうちの第1のものの選択を検出したことに更に応じて、電子デバイスは、キャプチャアフォーダンスの表示を停止する。 In some embodiments, the electronic device (eg, 600) selects (eg, 654) the first of the effect option affordances (eg, sticker affordance 624-2) via one or more input devices. to detect In some embodiments, in response to detecting selection of a first one of the effect option affordances, the electronic device stops displaying the plurality of effect option affordances (eg, 624) and Display selectable graphic icons (eg, 658, stickers). By stopping displaying the plurality of effect option affordances and displaying a plurality of selectable graphic icons in response to detecting selection of a first one of the effect option affordances, the user is prompted to select one of the effect option affordances. It can be quickly and easily recognized that the first of these is associated with graphic icon (e.g. sticker) options, thereby improving the usability of the device and making the user device interface (e.g. (by assisting the user in providing appropriate input when interacting/interacting, reducing user error), as well as allowing the user to use the device more quickly and efficiently. Reduce device power usage and improve battery life by enabling In some embodiments, displaying the stickers includes displaying an area (e.g., sticker menu 656) over the affordances of the effects options, which area is displayed on the image represented in the camera user interface. Includes multiple sticker options that you can choose to display. In some embodiments, the user selects a sticker (eg, 658-1) by tapping on the sticker (eg, 660), and the sticker is automatically displayed on the image (eg, on the image). to the default position, such as center). In some embodiments, the user selects the sticker by touching the sticker and dragging the sticker from the sticker menu onto the image. In some embodiments, further in response to detecting selection of the first one of the effect option affordances while displaying the capture affordances, the electronic device stops displaying the capture affordances.

一部の実施形態では、電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、エフェクトオプションアフォーダンスのうちの第2のもの(例えば、アバターアフォーダンス624-1)の選択(例えば、626)を検出する。一部の実施形態では、エフェクトオプションアフォーダンスのうちの第2のものの選択を検出したことに応じて、電子デバイスは、複数のエフェクトオプションアフォーダンス(例えば、624)の表示を停止し、複数のアバターアフォーダンス(例えば、直線配置で表示される630)(例えば、アバターを表すアフォーダンス)を有するアバター選択領域(例えば、アバターメニュー628)を表示する。エフェクトオプションアフォーダンスのうちの第2のものの選択を検出したことに応じて、複数のエフェクトオプションアフォーダンスの表示を停止し、アバター選択領域を表示することにより、ユーザは、エフェクトオプションアフォーダンスのうちの第2がアバター選択に関連することを迅速かつ容易に認識することができ、それによって、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、アバターアフォーダンスは、カスタマイズ可能、カスタマイズ不可能、又はそれらの組み合わせであるアバターに対応する。一部の実施形態では、アバター選択領域を表示することは、エフェクトオプションアフォーダンスの上に領域(例えば、アバターメニュー628)を表示することを含み、この領域は、カメラユーザインタフェースに表される画像上に対応するアバターを表示するために選択できる複数のアバターアフォーダンスを含む。 In some embodiments, the electronic device (eg, 600) selects (eg, 626) is detected. In some embodiments, in response to detecting selection of a second one of the effect option affordances, the electronic device stops displaying the plurality of effect option affordances (eg, 624) and displays the plurality of avatar affordances. Display an avatar selection area (eg, avatar menu 628) having (eg, affordances representing avatars) (eg, 630 displayed in a linear arrangement). By stopping displaying the plurality of effect option affordances and displaying an avatar selection area in response to detecting selection of a second one of the effect option affordances, the user can select the second one of the effect option affordances. associated with avatar selection, thereby improving device usability and user device interfaces (e.g., providing appropriate input when manipulating/interacting with the device). reduce user error), and reduce device power usage by allowing users to use the device more quickly and efficiently. , to improve battery life. In some embodiments, avatar affordances correspond to avatars that are customizable, non-customizable, or a combination thereof. In some embodiments, displaying the avatar selection area includes displaying an area (e.g., avatar menu 628) above the effects option affordance, which area is located on the image represented in the camera user interface. Contains multiple avatar affordances that can be selected to display an avatar corresponding to the .

一部の実施形態では、電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、アバター選択領域(例えば、628)上のスワイプ入力(例えば、646、垂直スワイプジェスチャ)を検出する。一部の実施形態では、アバター選択領域上のスワイプ入力を検出したことに応じて、電子デバイスは、アバター選択領域(例えば、628-1)のサイズを増大させ、マトリックス状に配置された複数のアバターアフォーダンス(例えば、630)を表示する。アバター選択領域上のスワイプ入力を検出したことに応じて、アバター選択領域のサイズを増大させ、複数のアバターアフォーダンスをマトリクス状に表示することにより、ユーザは、アバター選択領域では(同時に)見えない、1つ以上の追加選択可能なアバターを(同時に)見ることができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、アバター表示領域のサイズを増大することは、アバター表示領域の全画面表示を提示するために、アバター表示領域にマトリックス状に表示されたアバターアフォーダンスを用いて、アバター表示領域を垂直方向に拡張することを含む。 In some embodiments, an electronic device (eg, 600) detects swipe input (eg, 646, vertical swipe gesture) over an avatar selection area (eg, 628) via one or more input devices. . In some embodiments, in response to detecting a swipe input over the avatar selection area, the electronic device increases the size of the avatar selection area (eg, 628-1) to provide a matrix of multiple Display avatar affordances (eg, 630). By increasing the size of the avatar selection area and displaying multiple avatar affordances in a matrix in response to detecting a swipe input on the avatar selection area, the user is (simultaneously) invisible in the avatar selection area; One or more additional selectable avatars can be viewed (simultaneously). By providing additional control options without cluttering the user interface with additional displayed controls, the usability of the device is improved and the user device interface (e.g., appropriate inputs when operating/interacting with the device) and make it more efficient (by reducing user error), as well as reduce the power usage of the device by allowing the user to use the device more quickly and efficiently reduce and improve battery life. In some embodiments, increasing the size of the avatar display area is achieved by using avatar affordances displayed in a matrix in the avatar display area to present a full screen display of the avatar display area. vertically.

一部の実施形態では、カメラユーザインタフェース(例えば、615)は、画像データの第1の表現(例えば、ライブカメラプレビュー620-1)を更に含む。画像データの第1の表現(例えば、ライブカメラプレビュー)を提供することにより、変更を保存/確認する前に、ユーザによってなされた1つ以上の(画像への)変更についての視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、エフェクトモードアフォーダンス(例えば、624-1、624-2)の選択を検出したことに更に応じて、電子デバイス(例えば、600)は、画像データの第1の表現が、第2のカメラ(例えば、背面カメラ)から取得された画像データに対応するとの判定に従って、画像データの第1の表現の表示を停止し、画像データの第2の表現(例えば、ライブカメラプレビュー)を表示し、この画像データの第2の表現は、カメラ(例えば、正面カメラ)から取得された画像データに対応する。一部の実施形態では、正面カメラに対応する画像データの表現は、正面カメラの視野内に位置するユーザの表現を含む。 In some embodiments, the camera user interface (eg, 615) further includes a first representation of image data (eg, live camera preview 620-1). Provide visual feedback about one or more changes (to an image) made by a user before saving/confirming the changes by providing a first representation of the image data (e.g., a live camera preview) . By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, further in response to detecting selection of effects mode affordances (eg, 624-1, 624-2), the electronic device (eg, 600) determines that the first representation of the image data is Stop displaying the first representation of the image data and display the second representation of the image data (eg, a live camera preview) in accordance with a determination that it corresponds to image data obtained from a second camera (eg, a rear camera). , and this second representation of image data corresponds to image data obtained from a camera (eg, a front-facing camera). In some embodiments, the representation of the image data corresponding to the front camera includes a representation of the user located within the field of view of the front camera.

一部の実施形態では、電子デバイス(例えば、600)が第2のカメラモード(例えば、エフェクトカメラモード、画像データを変更するための様々なビジュアルエフェクトを利用できるモード)である間に、電子デバイスは、第1のカメラモード(例えば、通常モード、非エフェクトモード)への遷移要求(例えば、アクティブなビジュアルエフェクトアフォーダンスの選択)を受信する。一部の実施形態では、電子デバイスは、第1のカメラモードへの遷移要求を受信したことに応じて、電子デバイスを第2のカメラモードから第1のカメラモードに遷移させる。一部の実施形態では、電子デバイスは、第1のビジュアルエフェクトがアクティブである(例えば、キャプチャされた画像データ又はキャプチャ用の画像データのプレビューにアクティブに適用されている)ことに従って、第1のビジュアルエフェクトを非アクティブ化する(例えば、無効化する、表示された第1のビジュアルエフェクトの表示を停止する)。 In some embodiments, while the electronic device (e.g., 600) is in a second camera mode (e.g., effects camera mode, a mode in which various visual effects are available to modify image data), receives a request (eg, selection of an active visual effects affordance) to transition to a first camera mode (eg, normal mode, no effects mode). In some embodiments, the electronic device transitions the electronic device from the second camera mode to the first camera mode in response to receiving a request to transition to the first camera mode. In some embodiments, the electronic device applies the first visual effect according to the first visual effect being active (e.g., being actively applied to a preview of captured image data or image data for capture). Deactivate the visual effect (eg, disable, stop displaying the first visual effect displayed).

一部の実施形態では、第1のビジュアルエフェクトを非アクティブ化した後、電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、エフェクトモードアフォーダンス(例えば、624-1、624-2)の後続の選択を検出する。一部の実施形態では、エフェクトモードアフォーダンスの後続の選択を検出したことに応じて、電子デバイスは、第1のビジュアルエフェクトを非アクティブ化した後の所定の時間内に、エフェクトモードアフォーダンスの後続の選択が発生したとの判定に従って、第1のビジュアルエフェクトを再アクティブ化する。第1のビジュアルエフェクトを非アクティブ化した後の所定の時間内に、エフェクトモードアフォーダンスの後続の選択が発生したとの判定に従って、第1のビジュアルエフェクトを再アクティブ化することにより、ユーザは、(例えば、エフェクトを再選択/再生成する必要なく)以前のビジュアルエフェクトに迅速かつ容易に戻ることができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、画像からビジュアルエフェクトを除去するエフェクトモードアフォーダンスを選択した後、所定の時間内にエフェクトモードアフォーダンスが再び選択されると、除去されたビジュアルエフェクトが画像に復元される。 In some embodiments, after deactivating the first visual effect, the electronic device (eg, 600), via one or more input devices, effects mode affordances (eg, 624-1, 624- 2) Detect subsequent selections. In some embodiments, in response to detecting the subsequent selection of the effects mode affordance, the electronic device selects the subsequent selection of the effects mode affordance within a predetermined amount of time after deactivating the first visual effect. Reactivating the first visual effect upon determining that the selection has occurred. By reactivating the first visual effect upon determining that a subsequent selection of an effect mode affordance occurred within a predetermined amount of time after deactivating the first visual effect, the user ( For example, one can quickly and easily return to a previous visual effect (without having to reselect/regenerate the effect). By providing additional control options without cluttering the user interface with additional visible controls, the usability of the device is improved and the user device interface (e.g., appropriate inputs when manipulating/interacting with the device) and make it more efficient (by reducing user error), as well as reduce the power usage of the device by allowing the user to use the device more quickly and efficiently reduce and improve battery life. In some embodiments, after selecting an effects mode affordance that removes a visual effect from an image, if the effects mode affordance is selected again within a predetermined amount of time, the removed visual effect is restored to the image.

電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、キャプチャアフォーダンス(例えば、621)に向けられた第2の入力(例えば、676、キャプチャアフォーダンスに対応する位置におけるタッチスクリーンディスプレイ上のタッチジェスチャ)を検出する(712)。 The electronic device (e.g., 600) receives a second input (e.g., 676, directed to the capture affordance (e.g., 621) via one or more input devices on the touch screen display at a location corresponding to the capture affordance. touch gesture) is detected (712).

電子デバイス(例えば、600)は、第2の入力(714)を検出したことに応じて、カメラ(例えば602)を使用して画像データをキャプチャする(716)。一部の実施形態では、画像データをキャプチャすることは、第1のキャプチャモード基準(例えば、閾値持続時間よりも小さい)を満たす第2の入力の特性(例えば、接触の持続時間)の値に従って、第1の画像キャプチャモード(例えば、写真キャプチャモード、静止画像キャプチャモード)で画像データをキャプチャすることを含む。一部の実施形態では、画像データをキャプチャすることは、第2のキャプチャモード基準(例えば、第2の閾値持続時間よりも大きい)を満たす第2の入力の特性の値に従って、第2の画像キャプチャモード(例えば、ビデオキャプチャモード、連続キャプチャモード)で画像データをキャプチャすることを含む。一部の実施形態では、キャプチャアフォーダンス(例えば、621)は、多機能キャプチャアフォーダンスである。一部の実施形態では、キャプチャアフォーダンス上でタップが検出されると、電子デバイスは写真(例えば、静止画像)をキャプチャする。一部の実施形態では、電子デバイスは、キャプチャアフォーダンス上でプレスアンドホールドジェスチャが検出されると、ビデオ(例えば、連続画像)をキャプチャする。 The electronic device (eg, 600) captures (716) image data using the camera (eg, 602) in response to detecting the second input (714). In some embodiments, capturing image data is according to a value of a characteristic (eg, duration of contact) of the second input that satisfies a first capture mode criterion (eg, less than threshold duration). , capturing image data in a first image capture mode (eg, photo capture mode, still image capture mode). In some embodiments, capturing the image data includes capturing the second image according to the value of the characteristic of the second input that satisfies a second capture mode criterion (eg, greater than a second threshold duration). Including capturing image data in a capture mode (eg, video capture mode, continuous capture mode). In some embodiments, the capture affordance (eg, 621) is a multi-function capture affordance. In some embodiments, the electronic device captures a picture (eg, still image) when a tap is detected on the capture affordance. In some embodiments, the electronic device captures video (eg, continuous images) when a press-and-hold gesture is detected on the capture affordance.

第2の入力(例えば、676)を検出すること(714)に応答して、電子デバイス(例えば、600)は、キャプチャアフォーダンス(例えば、621)の表示を停止する(718)。 In response to detecting (714) the second input (eg, 676), the electronic device (eg, 600) stops displaying (718) the capture affordance (eg, 621).

一部の実施形態では、電子デバイス(例えば、600)は、カメラ(例えば、602)を使用して画像データをキャプチャした後、マークアップアフォーダンス(例えば、677)、編集アフォーダンス(例えば、678)、及び再撮影アフォーダンス(例えば、679)を表示する。一部の実施形態では、電子デバイスは、マークアップアフォーダンス、編集アフォーダンス、及び再撮影アフォーダンスを表示している間に、1つ以上の入力デバイスを介して、第4のユーザ入力を受信する。一部の実施形態では、電子デバイスは、第4のユーザ入力を検出したことに応じて、編集アフォーダンスに対応する第4のユーザ入力に従って、キャプチャされた画像データを編集するための処理を開始する。一部の実施形態では、編集のための処理は、キャプチャされた画像データを編集するための1つ以上のアフォーダンスを表示することを含む。一部の実施形態では、電子デバイスは、第4のユーザ入力を検出したことに応じて、マークアップアフォーダンスに対応する第4のユーザ入力に従って、キャプチャされた画像データをマークアップするための処理を開始する。一部の実施形態では、編集のための処理は、キャプチャされた画像データをマークアップするための1つ以上のアフォーダンスを表示することを含む。一部の実施形態では、電子デバイスは、第4のユーザ入力を検出したことに応じて、再撮影アフォーダンスに対応する第4のユーザ入力に従って、キャプチャされた画像データを再撮影するための処理を開始する。一部の実施形態では、キャプチャされた画像データを再撮影する処理を開始することは、新たな画像データをキャプチャし、キャプチャされた画像データを新しい画像データに置換することを含む。 In some embodiments, an electronic device (eg, 600) captures image data using a camera (eg, 602) and then performs markup affordances (eg, 677), editing affordances (eg, 678), and display the retake affordance (eg, 679). In some embodiments, the electronic device receives a fourth user input via one or more input devices while displaying the markup affordance, editing affordance, and recapture affordance. In some embodiments, in response to detecting a fourth user input, the electronic device initiates processing to edit the captured image data according to the fourth user input corresponding to the editing affordance. . In some embodiments, processing for editing includes displaying one or more affordances for editing the captured image data. In some embodiments, in response to detecting a fourth user input, the electronic device performs processing to mark up the captured image data according to the fourth user input corresponding to the markup affordance. Start. In some embodiments, processing for editing includes displaying one or more affordances for marking up the captured image data. In some embodiments, in response to detecting a fourth user input, the electronic device performs processing to recapture the captured image data according to the fourth user input corresponding to the recapture affordance. Start. In some embodiments, initiating the process of recapturing the captured image data includes capturing new image data and replacing the captured image data with the new image data.

第2の入力(例えば、676)を検出すること(714)に応じて、電子デバイス(例えば、600)は、キャプチャアフォーダンス(例えば、621)によって以前に占有されていたカメラユーザインタフェース(例えば、615)内の位置に、送信アフォーダンス(例えば、680、キャプチャされた画像データを会話中の参加者に送信するための、又は後続の送信前に、キャプチャされた画像データを作成領域に提示するための機能に関連付けられた選択可能なアイコン)を表示する(720)。キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に送信アフォーダンスを表示することにより、キャプチャされた画像を意図する受信者に送信する準備ができているという視覚フィードバックを提供する。ユーザインタフェースを雑然とさせることなく視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、送信アフォーダンス(例えば、680)が表示される位置は、キャプチャアフォーダンスが以前に表示された特定の領域(例えば、カメラエフェクト領域625)内の任意の位置である。一部の実施形態では、送信アフォーダンスが表示される位置は、キャプチャアフォーダンスがその領域内に表示されたのと同じ位置である。一部の実施形態では、送信アフォーダンスを表示することは、キャプチャアフォーダンスを送信アフォーダンスに置換することを含む。 In response to detecting (714) a second input (eg, 676), the electronic device (eg, 600) fetches the camera user interface (eg, 615) previously occupied by the capture affordance (eg, 621). ), a transmission affordance (e.g., 680, for transmitting captured image data to a participant in a conversation, or for presenting captured image data in a creation area prior to a subsequent transmission). Selectable icons associated with the features are displayed (720). Providing visual feedback that the captured image is ready to be sent to the intended recipient by displaying the send affordance in a position in the camera user interface previously occupied by the capture affordance. By providing visual feedback to the user without cluttering the user interface, the usability of the device is improved and the user device interface (e.g., the user interface to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reduce device power usage and battery life by allowing users to use the device more quickly and efficiently improve. In some embodiments, the location where the transmit affordance (eg, 680) is displayed is any location within a particular region (eg, camera effects region 625) where the capture affordance was previously displayed. In some embodiments, the position where the transmit affordance is displayed is the same position where the capture affordance was displayed within that region. In some embodiments, displaying the send affordance includes replacing the capture affordance with the send affordance.

一部の実施形態では、送信アフォーダンス(例えば、680)を表示している間に、電子デバイス(例えば、600)は、第1の参加者の表現(例えば、アイコン、写真、アバター、又は第1の参加者に関連付けられた他の識別子)を表示する(722)。送信アフォーダンスを表示している間に第1の参加者の表現を表示することにより、ユーザは、意図する受信者を迅速かつ容易に認識することができ、それによって、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、第1の参加者の表現は、キャプチャされた写真が第1の参加者に送信されることをユーザに示すインジケーションとして働く。一部の実施形態では、第1の参加者の表現は、カメラ(例えば、602)を使用して画像データをキャプチャする前には表示されない(724)。一部の実施形態では、カメラユーザインタフェース(例えば、615)は、画像データをキャプチャする前に表示されるカメラ固有アフォーダンス(例えば、フィルタ、照明オプション、タイマオプションなどに対応する619)を含む。一部の実施形態では、第1の参加者の表現を表示することで、表示されたカメラ固有アフォーダンスを第1の参加者の表現に置き換える。 In some embodiments, while displaying the transmission affordance (eg, 680), the electronic device (eg, 600) displays a representation (eg, icon, photo, avatar, or first participant) of the first participant. other identifiers associated with the participants in the ) are displayed (722). By displaying a representation of the first participant while displaying the send affordance, the user can quickly and easily recognize the intended recipient, thereby improving the usability of the device. , make the user device interface more efficient (e.g., by helping the user to provide appropriate input when operating/interacting with the device, and reducing user error); It also reduces device power usage and improves battery life by allowing it to be used more quickly and efficiently. In some embodiments, the representation of the first participant serves as an indication to the user that the captured photo will be sent to the first participant. In some embodiments, a representation of the first participant is not displayed (724) prior to capturing image data using the camera (eg, 602). In some embodiments, the camera user interface (eg, 615) includes camera-specific affordances (eg, 619 corresponding to filters, lighting options, timer options, etc.) displayed prior to capturing image data. In some embodiments, displaying a representation of the first participant replaces the displayed camera-specific affordance with the representation of the first participant.

電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、送信アフォーダンスに向けられた第3の入力(例えば、送信アフォーダンス680に対応する位置におけるタッチスクリーンディスプレイ上のタッチジェスチャ)を検出する(726)。 An electronic device (eg, 600) detects a third input (eg, a touch gesture on a touch screen display at a location corresponding to the transmit affordance 680) directed to the transmit affordance via one or more input devices. (726).

第3の入力を検出したことに応じて、電子デバイス(例えば、600)は、(例えば、後続の送信前に、作成領域内でキャプチャされた画像データを即座に送信又は提示する)処理を開始し(728)、キャプチャされた画像データを第1の参加者に送信する。 In response to detecting a third input, the electronic device (e.g., 600) initiates processing (e.g., immediately transmitting or presenting image data captured within the authoring area prior to subsequent transmission). 728 and transmit the captured image data to the first participant.

一部の実施形態では、電子デバイス(例えば、600)は、送信アフォーダンス(例えば、680)に向けられた第3の入力を検出する前に、完了アフォーダンス(例えば、カメラユーザインタフェースをクローズしてメッセージングユーザインタフェースを表示するための機能に関連付けられた選択可能なアイコン)を表示する。一部の実施形態では、電子デバイスは、1つ以上の入力デバイスを介して、完了アフォーダンスの選択を検出する。一部の実施形態では、電子デバイスは、完了アフォーダンスの選択を検出したことに応じて、メッセージ作成領域(例えば608)を有するメッセージングユーザーインタフェース(例えば、603)を表示する。一部の実施形態では、電子デバイスは、完了アフォーダンスの選択を検出したことに応じて、キャプチャされた画像データの表現をメッセージ作成領域に表示する。一部の実施形態では、完了アフォーダンスを選択すると、カメラユーザインタフェースをクローズし、キャプチャされた画像データを送信することなく、キャプチャされた画像データをメッセージングユーザインタフェースのメッセージ作成フィールドに表示する。 In some embodiments, the electronic device (e.g., 600) closes the completion affordance (e.g., the camera user interface for messaging) before detecting a third input directed to the send affordance (e.g., 680). display selectable icons) associated with functions for displaying user interfaces. In some embodiments, the electronic device detects selection of completion affordances via one or more input devices. In some embodiments, the electronic device displays a messaging user interface (eg, 603) having a message composition area (eg, 608) in response to detecting selection of a completion affordance. In some embodiments, the electronic device displays a representation of the captured image data in the message composition area in response to detecting selection of the completion affordance. In some embodiments, selecting the completion affordance closes the camera user interface and displays the captured image data in the message compose field of the messaging user interface without sending the captured image data.

一部の実施形態では、電子デバイス(例えば、600)は、第3のユーザ入力を検出する前に、第1の画像キャプチャモード(例えば、写真キャプチャモード、ビデオキャプチャモード)にある。一部の実施形態では、電子デバイスは、第3のユーザ入力を検出したことに更に応じて、第1の画像キャプチャモードを維持する。一部の実施形態では、電子デバイスは、複数のモード(例えば、写真キャプチャモード、ビデオキャプチャモード)に従って画像データをキャプチャするように構成(例えば、ユーザ構成)することができる。一部の実施形態では、電子デバイスが第1のカメラモード(例えば、標準カメラモード、非エフェクトカメラモード)から第2のカメラモード(例えば、エフェクトカメラモード)に遷移する場合でさえも、画像キャプチャモードの選択は持続的である。 In some embodiments, the electronic device (eg, 600) is in a first image capture mode (eg, photo capture mode, video capture mode) prior to detecting the third user input. In some embodiments, the electronic device maintains the first image capture mode further in response to detecting a third user input. In some embodiments, the electronic device can be configured (eg, user-configured) to capture image data according to multiple modes (eg, photo capture mode, video capture mode). In some embodiments, image capture is performed even when the electronic device transitions from a first camera mode (e.g., standard camera mode, non-effects camera mode) to a second camera mode (e.g., effects camera mode). Mode selection is persistent.

一部の実施形態では、キャプチャされた画像データを第1の参加者に送信する処理を開始することは、(例えば、メッセージングユーザインタフェース615を表示することなく)キャプチャされた画像データを第1の参加者に送信することを含む。一部の実施形態では、カメラユーザインタフェースから送信アフォーダンス(例えば、680)を選択すると、中間ユーザインタフェースを表示することなく、又はユーザからの更なる入力を要求することなく、メッセージ会話の他の参加者にキャプチャされた画像データを直ちに送信する。 In some embodiments, initiating the process of sending the captured image data to the first participant sends the captured image data to the first participant (eg, without displaying messaging user interface 615). Including sending to participants. In some embodiments, selecting a Send Affordance (e.g., 680) from the camera user interface causes other participation in the message conversation without displaying an intermediate user interface or requesting further input from the user. Immediately send the captured image data to the person.

一部の実施形態では、キャプチャされた画像データを第1の参加者に送信する処理を開始することは、メッセージングユーザインタフェース(例えば、615)を再表示することを含み、メッセージングユーザインタフェースは、キーボード領域(例えば、612)及びアプリケーションメニューアフォーダンス(例えば、610、アプリケーションメニューユーザインタフェースを表示するための機能に関連付けられた選択可能なアイコン)を更に含む。キャプチャされた画像データを第1の参加者に送信する処理を開始することの一部としてメッセージングユーザインタフェースを再表示することにより、キャプチャされた画像データがメッセージ会話を介して送信されているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、アプリケーションメニューアフォーダンスは、メッセージングユーザインタフェース内のメッセージ作成フィールドに隣接して表示される。一部の実施形態では、電子デバイス(例えば、600)は、1つ以上の入力デバイスを介して、アプリケーションメニューアフォーダンスの選択を検出する。一部の実施形態では、アプリケーションメニューアフォーダンスの選択を検出したことに応じて、電子デバイスは、キーボード領域に隣接する(例えば、その上方の)アプリケーションメニュー領域であって、複数のアプリケーションアフォーダンス(例えば、それぞれのアプリケーションアフォーダンスに関連付けられたアプリケーションを開始するための機能にそれぞれ関連付けられた選択可能なアイコン)を有する、アプリケーションメニュー領域を表示する。一部の実施形態では、アプリケーションアフォーダンスは、ステッカーアフォーダンス及びアバターアフォーダンスを含む。 In some embodiments, initiating the process of sending the captured image data to the first participant includes redisplaying a messaging user interface (eg, 615), wherein the messaging user interface includes a keyboard Further includes a region (eg, 612) and an application menu affordance (eg, 610, selectable icons associated with functions for displaying an application menu user interface). Visualization that the captured image data is being sent over the message conversation by redisplaying the messaging user interface as part of initiating the process of sending the captured image data to the first participant. provide feedback. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the application menu affordance is displayed adjacent to the message compose field within the messaging user interface. In some embodiments, an electronic device (eg, 600) detects selection of an application menu affordance via one or more input devices. In some embodiments, in response to detecting selection of an application menu affordance, the electronic device selects multiple application affordances (e.g., An application menu area is displayed having selectable icons each associated with a function for starting an application associated with a respective application affordance. In some embodiments, application affordances include sticker affordances and avatar affordances.

一部の実施形態では、電子デバイス(例えば、600)は、メッセージングユーザインタフェース(例えば、615)上の第4の入力を検出する。一部の実施形態では、第4の入力が、キーボード領域(例えば、612)の位置、又はメッセージングユーザインタフェース内のメッセージ作成領域(例えば、608)の位置に対応するとの判定に従って、電子デバイスは、アプリケーションメニュー領域の表示を停止し、アプリケーションメニュー領域によって以前に占有されていたメッセージングユーザインタフェース内の位置に、テキスト提案領域(例えば、ユーザが便利に選択するための推奨ワードのリストを有する領域)を表示する。 In some embodiments, the electronic device (eg, 600) detects a fourth input on the messaging user interface (eg, 615). In some embodiments, upon determining that the fourth input corresponds to the location of the keyboard area (eg, 612) or the location of the message composition area (eg, 608) within the messaging user interface, the electronic device: Stop displaying the application menu area and place a text suggestion area (e.g., an area with a list of suggested words for the user to conveniently select) at the location in the messaging user interface previously occupied by the application menu area. indicate.

一部の実施形態では、電子デバイス(例えば、600)は、アプリケーションメニュー領域内の複数のアプリケーションアフォーダンス(例えば、ステッカーアフォーダンス又はアバターアフォーダンス)のうちの1つの選択を検出する。一部の実施形態では、アプリケーションアフォーダンス(例えば、610)の選択を検出したことに応じて、電子デバイスは、キーボード領域(例えば、612)の表示を停止し、キーボード領域によって以前に占有されていたメッセージングユーザインタフェース(例えば、615)内の位置にアプリケーション表示領域を表示し、アプリケーション表示領域は、選択されたアプリケーションアフォーダンスに対応する複数のグラフィカルオブジェクト(例えば、アバター又はステッカー)を含む。一部の実施形態では、選択されたアプリケーションアフォーダンスはステッカーアフォーダンスであり、アプリケーション表示領域に表示されるグラフィカルオブジェクトはステッカーである。一部の実施形態では、選択されたアプリケーションアフォーダンスはアバターアフォーダンスであり、アプリケーション表示領域に表示されるグラフィカルオブジェクトは、アバター(例えば、カスタマイズ可能なアバター、及び/又はカスタマイズ不可能なアバター)である。 In some embodiments, an electronic device (eg, 600) detects selection of one of multiple application affordances (eg, sticker affordances or avatar affordances) within an application menu area. In some embodiments, in response to detecting selection of an application affordance (eg, 610), the electronic device stops displaying the keyboard area (eg, 612) previously occupied by the keyboard area. An application display area is displayed at a location within the messaging user interface (eg, 615), the application display area including a plurality of graphical objects (eg, avatars or stickers) corresponding to the selected application affordance. In some embodiments, the selected application affordance is a sticker affordance and the graphical object displayed in the application display area is a sticker. In some embodiments, the selected application affordance is an avatar affordance and the graphical object displayed in the application display area is an avatar (eg, a customizable avatar and/or a non-customizable avatar).

なお、方法700に関して上述された処理(例えば、図7A~図7B)の詳細はまた、以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法900、1100、1300、及び1500は、方法700に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラアプリケーションユーザインタフェース、メディアユーザーインタフェース、及びライブビデオ通信セッションのためのユーザーインタフェースにおいて画像データに表示される。簡潔にするために、これらの詳細は、以下では繰り返さない。 Note that the details of the processing (eg, FIGS. 7A-7B) described above with respect to method 700 are also applicable in an analogous manner to the methods described below. For example, methods 900 , 1100 , 1300 , and 1500 optionally include one or more of the various method features described above with respect to method 700 . For example, visual effects such as stickers and virtual avatars are displayed on image data in camera application user interfaces, media user interfaces, and user interfaces for live video communication sessions. For the sake of brevity, these details are not repeated below.

図8A~図8BQは、一部の実施形態に係る、カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図9A及び図9Bの処理を含めた、以下で説明される処理を示すために用いられる。 8A-8BQ illustrate exemplary user interfaces for displaying visual effects in a camera application, according to some embodiments. The user interfaces of these figures are used to illustrate the processes described below, including the processes of Figures 9A and 9B.

図8Aでは、デバイス600は、ホーム画面800を示し、カメラアプリケーションアフォーダンス802上の入力801を検出する。 In FIG. 8A, device 600 shows home screen 800 and detects input 801 on camera application affordance 802 .

図8Bでは、入力801を検出したことに応じて、デバイス600は、カメラアプリケーションアフォーダンス802に関連付けられたカメラアプリケーションを起動し、カメラアプリケーションユーザインタフェース815を表示する。カメラアプリケーションユーザインタフェース815は、図6A~図6BQに示す実施形態に関して上述した、カメラアプリケーションユーザインタフェース615に類似する。 In FIG. 8B, in response to detecting input 801 , device 600 launches the camera application associated with camera application affordance 802 and displays camera application user interface 815 . Camera application user interface 815 is similar to camera application user interface 615 described above with respect to the embodiment shown in FIGS. 6A-6BQ.

カメラアプリケーションユーザインタフェース815は、例えば、カメラ(例えば、背面カメラ又はカメラ602)の視野内に位置するオブジェクトを表すストリーミングされた画像データ(例えば、ライブカメラプレビュー、ライブカメラ記録、若しくはライブビデオ通信セッション)、又は、例えば写真若しくはビデオ録画などのメディアアイテム、などの画像データの表現を表示する画像表示領域820を含む。図8Bに示す実施形態では、画像表示領域820は、デバイス600の背面カメラからのライブカメラプレビュー820-1'を示す。 The camera application user interface 815 can, for example, display streamed image data (eg, live camera previews, live camera recordings, or live video communication sessions) representing objects located within the field of view of a camera (eg, rear camera or camera 602). or an image display area 820 that displays representations of image data, such as media items such as photographs or video recordings. In the embodiment shown in FIG. 8B, image display area 820 shows a live camera preview 820-1′ from the rear camera of device 600. In the embodiment shown in FIG.

カメラアプリケーションユーザインタフェース815はまた、カメラ固有アフォーダンス817を含む画像表示領域820の上の領域を含む。カメラ固有アフォーダンスには、カメラフラッシュ機能に関連付けられたアフォーダンス817-1、カメラモード機能に関連付けられたアフォーダンス817-2、タイマー機能に関連付けられたアフォーダンス817-3、及びフィルタ機能に関連付けられたアフォーダンス817-4が含まれる。 Camera application user interface 815 also includes an area above image display area 820 that contains camera-specific affordances 817 . Camera-specific affordances include affordances 817-1 associated with camera flash functions, affordances 817-2 associated with camera mode functions, affordances 817-3 associated with timer functions, and affordances 817 associated with filter functions. -4 included.

カメラアプリケーションユーザインタフェース815はまた、(画像表示領域620と同様に)画像表示領域820の下に配置されたカメラオプション領域825を(カメラオプション領域625と同様に)含む。カメラオプション領域825は、カメラ(例えば、背面カメラとカメラ602)間を切り替えるためのカメラセレクタアフォーダンス827、及びカメラが画像データを記録できる異なるキャプチャモードに関連付けられたカメラオプションアフォーダンス819を含む。例えば、ビデオアフォーダンス819-1は、カメラのビデオ録画キャプチャモードをアクティブ化するための機能に関連付けられ、写真アフォーダンス819-2は、カメラの静止画像キャプチャモードをアクティブ化するための機能に関連付けられる。図8B~図8AQに関して以下に論じる実施形態では、デバイス600は、写真アフォーダンス819-2に関連付けられた操作の静止画像キャプチャモードにある。しかしながら、特に明記しない限り、これらの実施形態はまた、ビデオアフォーダンス819-1に関連付けられたビデオ録画モードに適用される。 Camera application user interface 815 also includes camera options area 825 (similar to camera options area 625) located below image display area 820 (similar to image display area 620). Camera options area 825 includes camera selector affordances 827 for switching between cameras (eg, the rear camera and camera 602), and camera option affordances 819 associated with different capture modes in which the cameras can record image data. For example, video affordance 819-1 is associated with functionality for activating the camera's video recording capture mode, and photo affordance 819-2 is associated with functionality for activating the camera's still image capture mode. In the embodiments discussed below with respect to FIGS. 8B-8AQ, device 600 is in a still image capture mode of operation associated with photo affordance 819-2. However, unless otherwise stated, these embodiments also apply to the video recording mode associated with video affordance 819-1.

カメラオプション領域825は、画像表示領域820にビジュアルエフェクトを表示するためにデバイス600が有効化又は無効化されるデバイス600のモード(ビジュアルエフェクトモード、エフェクトモード)を、有効化又は無効化するためのエフェクトアフォーダンス822を更に含む。エフェクトアフォーダンス822は、エフェクトアフォーダンス622に類似しており、従って、特に明記しない限り、エフェクトアフォーダンス622と同じ機能を有する。したがって、エフェクトアフォーダンス822は、ビジュアルエフェクトの表示を可能化するために選択され、ビジュアルエフェクトの表示を無効化するために選択解除される。 A camera option area 825 is an effect for enabling or disabling a mode (visual effect mode, effect mode) of the device 600 in which the device 600 is enabled or disabled to display a visual effect in the image display area 820. Further includes affordance 822 . Effect affordance 822 is similar to effect affordance 622 and therefore has the same functionality as effect affordance 622 unless otherwise stated. Thus, effect affordance 822 is selected to enable display of visual effects and deselected to disable display of visual effects.

カメラオプション領域825はまた、上述したキャプチャアフォーダンス621と同様に機能するキャプチャアフォーダンス821を含む。キャプチャアフォーダンス821を、画像表示領域820に表される画像データをキャプチャするために選択することができる。一部の実施形態では、デバイス600は、現在有効化されているキャプチャオプション(例えば、ビデオ録画キャプチャモード又は画像キャプチャモード)に基づく方法で、画像データをキャプチャする。一部の実施形態では、デバイス600は、キャプチャアフォーダンス821上で検出されたジェスチャのタイプに応じて画像データをキャプチャする。例えば、デバイス600がキャプチャアフォーダンス821上でタップジェスチャを検出した場合、デバイス600は、タップジェスチャが発生した時点で画像表示領域820に表された画像データの静止画像をキャプチャする。デバイス600がキャプチャアフォーダンス821上でタップアンドホールドジェスチャを検出した場合、デバイス600は、タップアンドホールドジェスチャが持続する期間中、画像表示領域820に表される画像データのビデオ録画をキャプチャする。一部の実施形態では、指がアフォーダンスから持ち上げられると、ビデオ録画が停止する。一部の実施形態では、ビデオ録画は、アフォーダンスに対応する位置において後続の入力(例えば、タップ入力)が検出されるまで続く。一部の実施形態では、キャプチャされた画像(例えば、静止画像又はビデオ録画)は、例えば、メッセージングアプリケーションを使用して、他のデバイスと共有することができる。 Camera options area 825 also includes capture affordance 821, which functions similarly to capture affordance 621 described above. Capture affordance 821 may be selected to capture image data represented in image display area 820 . In some embodiments, device 600 captures image data in a manner based on currently enabled capture options (eg, video recording capture mode or image capture mode). In some embodiments, device 600 captures image data in response to the type of gesture detected on capture affordance 821 . For example, if device 600 detects a tap gesture on capture affordance 821, device 600 captures a still image of the image data represented in image display area 820 at the time the tap gesture occurred. When device 600 detects a tap-and-hold gesture on capture affordance 821, device 600 captures a video recording of the image data represented in image display area 820 for the duration of the tap-and-hold gesture. In some embodiments, video recording stops when the finger is lifted from the affordance. In some embodiments, video recording continues until a subsequent input (eg, tap input) is detected at a location corresponding to the affordance. In some embodiments, captured images (eg, still images or video recordings) can be shared with other devices using, for example, messaging applications.

図8Cでは、デバイス600は、エフェクトアフォーダンス822上の入力823を検出する。 In FIG. 8C, device 600 detects input 823 on effect affordance 822 .

図8Dでは、デバイス600は、入力823を検出したことに応じて、カメラ602をアクティブ化し(例えば、背面カメラから切り替えて)、画像表示領域820を更新して、カメラ602からのライブカメラプレビュー820-1を表示し、カメラ602の視野内に位置する被写体832、及び被写体832の背後に表示された背景836の表現を示す。本明細書で論じるように、一部の実施形態では、カメラ602を使用してキャプチャされた画像データは、カメラ602の視野内のオブジェクトの深度を決定するために使用され得る深度データを含む。一部の実施形態では、デバイス600は、検出されたこれらのオブジェクトの深度に基づいてオブジェクト(例えば、画像データ内の)を解析し、この判定を使用して、本明細書で論じるビジュアルエフェクトを適用する。例えば、デバイス600は、被写体832をライブカメラプレビュー820-1の前景にあるものとして、ユーザの背後に位置するオブジェクトをライブカメラプレビュー820-1の背景にあるものとして、分類することができる。これらの背景オブジェクトは、ここでは背景836と総称する。 In FIG. 8D, in response to detecting input 823, device 600 activates camera 602 (eg, switches from the rear camera) and updates image display area 820 to show a live camera preview 820 from camera 602. -1 is displayed to show a representation of the subject 832 located within the field of view of the camera 602 and the background 836 displayed behind the subject 832 . As discussed herein, in some embodiments, image data captured using camera 602 includes depth data that can be used to determine the depth of objects within the field of view of camera 602. In some embodiments, device 600 analyzes objects (e.g., in image data) based on the detected depth of these objects and uses this determination to generate the visual effects discussed herein. Apply. For example, device 600 can classify subject 832 as being in the foreground of live camera preview 820-1 and objects located behind the user as being in the background of live camera preview 820-1. These background objects are collectively referred to herein as background 836 .

デバイス600はまた、表示のためにビジュアルエフェクトが有効化されていることを示すエフェクトアフォーダンス822を強調表示し、カメラオプションアフォーダンス819をビジュアルエフェクトオプションアフォーダンス824に置換することによってカメラオプション領域825を更新する。ビジュアルエフェクトオプションアフォーダンスは、アバターエフェクトアフォーダンス824-1及びステッカーエフェクトアフォーダンス824-2を含む。ビジュアルエフェクトオプションアフォーダンス824は、上述のビジュアルエフェクトオプションアフォーダンス624と同様である。ビジュアルエフェクトオプションアフォーダンス824は、画像表示領域820に表示される画像に適用できる異なるビジュアルエフェクトに対応する。ビジュアルエフェクトオプションアフォーダンス(例えば、824-1又は824-2)のうちの1つを選択することによって、選択されたビジュアルエフェクトオプションアフォーダンスに対応するビジュアルエフェクトオプションと共に、メニューが表示される。 Device 600 also updates camera options area 825 by highlighting effects affordance 822, which indicates that visual effects are enabled for display, and replacing camera options affordance 819 with visual effects options affordance 824. Visual effects option affordances include avatar effects affordances 824-1 and sticker effects affordances 824-2. Visual effects option affordance 824 is similar to visual effects option affordance 624 described above. Visual effect option affordances 824 correspond to different visual effects that can be applied to the image displayed in image display area 820 . By selecting one of the visual effects option affordances (eg, 824-1 or 824-2), a menu is displayed with the visual effects options corresponding to the selected visual effects option affordance.

図8E~図8Fでは、デバイス600は、アバターエフェクトアフォーダンス824-1上の入力826を検出し、アバターオプションメニュー828を表示する。アバターオプションメニュー828は、アバターオプションメニュー628と同様である。アバターオプションメニュー828は、アバターオプション830のスクロール可能なリスト、及びアバターオプション830のうちの選択された1つを示すための選択領域829を含む。表示されるアバターオプションは、カスタマイズ可能な女性アバター830-1、ヌルアバターオプション830-2、ロボットアバターオプション830-3、ウサギアバターオプション830-4、及び第2のカスタマイズ可能な女性アバター830-5、を含む。図8Fに示すように、ヌルアバターオプション830-2が、デフォルトアバターオプション830として選択される。これにより、画像表示領域820に表示される被写体832の表現は、被写体の顔にアバターが表示されないで示される。アバターオプション830は、アバターオプション830-3若しくは830-4のように予め構成することができ、又はアバターオプション830-1若しくは830-5などのカスタマイズ可能なアバターとすることができる。 8E-8F, device 600 detects input 826 on avatar effect affordance 824-1 and displays avatar options menu 828. In FIGS. Avatar options menu 828 is similar to avatar options menu 628 . Avatar options menu 828 includes a scrollable list of avatar options 830 and a selection area 829 for indicating a selected one of avatar options 830 . The avatar options displayed are a customizable female avatar 830-1, a null avatar option 830-2, a robot avatar option 830-3, a rabbit avatar option 830-4, and a second customizable female avatar 830-5. including. A null avatar option 830-2 is selected as the default avatar option 830, as shown in FIG. 8F. As a result, the representation of the subject 832 displayed in the image display area 820 is shown without the avatar being displayed on the subject's face. Avatar options 830 can be preconfigured, such as avatar options 830-3 or 830-4, or can be customizable avatars, such as avatar options 830-1 or 830-5.

アバターオプション830は、アバターオプション630と同様の機能を有する。このように、アバターオプション830は、画像表示領域820内の被写体の表現に適用される仮想アバタービジュアルエフェクトに対応する。具体的には、各アバターオプション830は、選択されると、画像表示領域内の被写体の顔に転置される仮想アバターに対応し、他方、画像表示領域内の画像の他の部分(背景、又はユーザの身体などのユーザの他の部分など)は表示されたままとなる。カメラ602の視野内に位置するユーザ(例えば、被写体832)は、上述したように、顔の姿勢(例えば、回転又は向き)を変更することによって、仮想アバターの視覚的態様を制御することができる。 Avatar option 830 has similar functionality to avatar option 630 . As such, avatar options 830 correspond to virtual avatar visual effects applied to the representation of the subject within image display area 820 . Specifically, each avatar option 830, when selected, corresponds to a virtual avatar that is transposed onto the subject's face within the image display area, while other portions of the image within the image display area (such as the background or other parts of the user, such as the user's body) remain visible. A user (e.g., subject 832) located within the field of view of camera 602 can control visual aspects of the virtual avatar by changing the pose (e.g., rotation or orientation) of the face, as described above. .

アバターオプション830は、アバターオプションメニュー828上のジェスチャによってスクロールすることができる。例えば、図8Hに示すように、ロボットアバターオプション830-3を選択すると、次いで、画像表示領域820内の被写体の顔にロボットアバター833として表示される、水平ジェスチャ844aを図8Gに示す。水平ジェスチャ844bを介して継続的にスクロールすることにより、追加のアバターオプション830を表示されたアバターオプションメニュー828上にスクロールする。一部の実施形態では、ユーザがアバターオプション830をスクロールすると、画像表示領域820は、アバターの背後に表される画像データに適用されるぼかしエフェクト803を含むアバター(例えば、図8Jのロボットアバター833)を示す。 Avatar options 830 can be scrolled by gestures on avatar options menu 828 . For example, as shown in FIG. 8H, selection of robot avatar option 830-3 then causes horizontal gesture 844a to be displayed as robot avatar 833 on the subject's face within image display area 820 is shown in FIG. 8G. Continued scrolling via horizontal gesture 844b scrolls additional avatar options 830 onto displayed avatar options menu 828 . In some embodiments, as the user scrolls through avatar options 830, image display area 820 displays an avatar (eg, robot avatar 833 in FIG. 8J) that includes a blur effect 803 applied to the image data represented behind the avatar. ).

図8Kでは、デバイス600は、選択される直前(例えば、ジェスチャ844bがまだ終了していない)に、選択領域829内に配置されたカスタマイズ可能な女性アバターオプション830-5、及びカスタマイズ可能な女性アバターオプション830-5の下方に表示された編集アフォーダンス804を表示する。デバイス600は、ぼかしエフェクト803を有するロボットアバター833を表示し続ける。一部の実施形態では、カスタマイズ可能なアバターオプションが選択領域829に配置されると、デバイス600は、選択領域829に編集アフォーダンス804を表示する。編集アフォーダンス804を、図8AAに関して以下に論じるものような、アバター編集ユーザインタフェースを表示するために選択することができる。 In FIG. 8K, device 600 displays customizable female avatar option 830-5 positioned within selection area 829 and customizable female avatar option 830-5 just prior to being selected (eg, gesture 844b has not yet finished). Display Edit Affordances 804 displayed below option 830-5. Device 600 continues to display robot avatar 833 with blur effect 803 . In some embodiments, device 600 displays editing affordance 804 in selection area 829 when customizable avatar options are placed in selection area 829 . Edit affordance 804 can be selected to display an avatar editing user interface, such as the one discussed below with respect to FIG. 8AA.

図8Lは、アバターオプション830-5が選択された後である(例えば、ジェスチャ844bが終了した)。デバイス600は、(ぼかしエフェクト803を継続しながら)画像表示領域820からロボットアバター833を除去し、選択領域829内のアバターオプション830-5から現れて、画像表示領域820(例えば、画像表示領域820の中央の位置、又は被写体の顔に対応する位置)に移動する、カスタマイズ可能な女性アバター835のアニメーションを表示し、アバター835は、被写体の顔への検出された変化に基づいて変更される。一部の実施形態では、アニメーションは、静的外観(例えば、表示されたアバターオプションと一致するステッカーと同様)から始まり、次いで、ユーザの顔への変化を検出するデバイス600に基づいてアバター(例えば、835)が修正される、動的状態(図8Lに示す)に遷移していく、アバター(例えば、835)を含む。一部の実施形態では、アバターの静的から動的への遷移は、アバターが選択領域から移動する前に発生する。一部の実施形態では、アバターの静的から動的への遷移は、アバターが選択領域829から画像表示領域820に移動するときに発生する。 FIG. 8L is after avatar option 830-5 has been selected (eg, gesture 844b has ended). The device 600 removes the robot avatar 833 from the image display area 820 (while continuing the blur effect 803), emerging from the avatar option 830-5 in the selection area 829, and displaying the image display area 820 (eg, image display area 820). or a position corresponding to the subject's face), and the avatar 835 is modified based on detected changes to the subject's face. In some embodiments, the animation begins with a static appearance (e.g., similar to a sticker that matches the displayed avatar option) and then an avatar (e.g., a , 835) are modified, including an avatar (eg, 835) transitioning to a dynamic state (shown in FIG. 8L). In some embodiments, the static-to-dynamic transition of the avatar occurs before the avatar moves out of the selection area. In some embodiments, the static-to-dynamic transition of the avatar occurs when the avatar moves from the selection area 829 to the image display area 820 .

図8M及び図8Nに示すように、アバター835が被写体の顔に適用されると、デバイス600は、カメラ602の視野内の顔の位置への変化を含む、被写体の顔の検出された変化に基づいてアバター835を変更する。 As shown in FIGS. 8M and 8N, when avatar 835 is applied to the subject's face, device 600 responds to detected changes in the subject's face, including changes to the position of the face within the field of view of camera 602. change the avatar 835 based on

一部の実施形態では、デバイス600がカメラ602の視野内に被写体の顔をもはや検出しなくなると、デバイス600は、背景にぼかしエフェクト803(ぼかしエフェクト644と同様)を再度適用し、カメラ602の視野に顔を戻すようにユーザに指示するプロンプト838を表示する。図8Pに示す実施形態では、デバイス600は、選択されたアバター(例えば、カスタマイズ可能な女性アバター)の表現840を含むプロンプト838、及びカメラ602の視野内で頭部を再配置するようにユーザーに指示するメッセージ842を表示する。一部の実施形態では、プロンプト838を表示することは、画像表示領域820の中心位置に戻っていく選択されたアバター(例えば、835)のアニメーションを表示すること、及びアバター特徴の物理モデルに基づいて停止するように見える、アバター及びその特徴の遅くなった動きを示すことを含む。 In some embodiments, when the device 600 no longer detects the subject's face within the field of view of the camera 602 , the device 600 reapplies the blur effect 803 (similar to the blur effect 644 ) to the background and A prompt 838 is displayed instructing the user to return his face to the field of view. In the embodiment shown in FIG. 8P, the device 600 displays a prompt 838 that includes a representation 840 of the selected avatar (eg, a customizable female avatar) and prompts the user to reposition the head within the field of view of the camera 602. Display an instructing message 842 . In some embodiments, displaying the prompt 838 includes displaying an animation of the selected avatar (e.g., 835) returning to the center position of the image display area 820 and based on a physical model of avatar characteristics. including showing slowed movement of the avatar and its features, appearing to come to a halt.

一部の実施形態では、デバイス600がカメラ602の視野に戻るユーザの顔を検出すると、デバイス600は、画像表示領域820の中心位置からユーザの顔の位置に移動するアバター835を表示し、検出されたユーザの顔の変化に基づいてアバターの変更を再開する。 In some embodiments, when the device 600 detects the user's face back in the field of view of the camera 602, the device 600 displays an avatar 835 moving from the center position of the image display area 820 to the position of the user's face and detects the user's face. Resume changing avatars based on changes in the user's face.

一部の実施形態では、アバターオプションメニュー828を垂直ジェスチャ(例えば、805)で拡大して、図8Q~8Tに示すアバターオプションメニューの拡大バージョンを表示することができる。アバターオプションメニューの拡大バージョンは、異なるタイプのアバター(例えば、カスタマイズ可能及びカスタマイズ不可能)を含む、一層多数のアバターオプション830を表示する。拡大されたアバター表示メニューにおいて、新規アバターオプション(例えば、ロボットアバターオプション830-3)を選択することができる。次いで、デバイス600は、図8Uに示すように、アバターオプションメニューの拡大バージョンが元の(例えば、凝縮された)状態に戻ったときに、対応するアバター(例えば、ロボットアバター833)をユーザの顔に表示する。 In some embodiments, the avatar options menu 828 can be expanded with a vertical gesture (eg, 805) to display an expanded version of the avatar options menu shown in Figures 8Q-8T. The expanded version of the avatar options menu displays more avatar options 830, including different types of avatars (eg, customizable and non-customizable). In the expanded avatar display menu, a new avatar option (eg, robot avatar option 830-3) can be selected. Device 600 then displays the corresponding avatar (eg, robot avatar 833) on the user's face when the expanded version of the avatar options menu returns to its original (eg, condensed) state, as shown in FIG. 8U. to display.

一部の実施形態では、デバイス600は、画像表示領域820上のスワイプジェスチャを検出したことに応じて、ユーザの頭部上に異なるアバターを表示する。例えば、図8Vでは、デバイス600は、画像表示領域820を横切って右方向に移動するスワイプジェスチャ806を検出する。スワイプジェスチャ806を検出したことに応じて、デバイス600は、アバターオプションメニュー828内のアバターオプション830をスクロールする。一部の実施形態では、スクロールの大きさはスワイプジェスチャの大きさによって決定される。これにより、ユーザはスワイプジェスチャの大きさに基づいて複数のアバターをスクロールすることができる。加えて、スクロールの方向、及び画像表示領域820上のアバターの対応する動きは、スワイプジェスチャ806の方向に基づいて決定される。したがって、アバターオプションのスクロール、及び遷移するアバターの対応する動きは、スワイプが左方向にある場合には、左方向にあり得て、又はスワイプが右方向にある場合には、右方向にあり得る(図8V及び図8Wに示すように)。 In some embodiments, device 600 displays different avatars over the user's head in response to detecting a swipe gesture on image display area 820 . For example, in FIG. 8V, device 600 detects swipe gesture 806 moving right across image display area 820 . In response to detecting swipe gesture 806 , device 600 scrolls avatar options 830 within avatar options menu 828 . In some embodiments, the magnitude of scrolling is determined by the magnitude of the swipe gesture. This allows the user to scroll through multiple avatars based on the magnitude of the swipe gesture. Additionally, the direction of scrolling and corresponding movement of the avatar on image display area 820 is determined based on the direction of swipe gesture 806 . Thus, the scrolling of avatar options, and the corresponding movement of the transitioning avatar, can be left if the swipe is left or right if the swipe is right. (As shown in Figures 8V and 8W).

アバターオプション830をスクロールし始めると、現在選択されているアバターオプション(例えば、図8Vのロボットアバターオプション830-3)は選択領域829を離れ、スクロールが継続すると、新規アバターオプション(例えば、図8Wのアバターオプション830-1)は選択領域829に入る。アバターオプションをスクロールすると、デバイス600はまた、次のアバター(例えば、カスタマイズ可能なアバター831)が左から画像表示領域820に入って、ユーザーの顔に移動している間に、ユーザの顔から離れて画像表示領域820の右側に出ていく、現在選択されているアバター(例えば、ロボットアバター833)のアニメーションを、画像表示領域820に表示する。一部の実施形態では、デバイス600は、アバターが画像表示領域820を横切ってスクロールされている間に、画像表示領域820にぼかしエフェクト803を適用する。 As scrolling through avatar options 830 begins, the currently selected avatar option (eg, robot avatar option 830-3 in FIG. 8V) leaves the selection area 829, and as scrolling continues, a new avatar option (eg, robot avatar option in FIG. 8W) leaves the selection area 829. Avatar option 830 - 1 ) enters selection area 829 . Scrolling through the avatar options also causes the device 600 to move away from the user's face while the next avatar (eg, customizable avatar 831) enters the image display area 820 from the left and moves to the user's face. The animation of the currently selected avatar (for example, the robot avatar 833 ) is displayed in the image display area 820 . In some embodiments, device 600 applies blur effect 803 to image display area 820 while the avatar is being scrolled across image display area 820 .

図8V及び図8Wに示す実施形態では、ヌルアバターオプション830-2は選択されず、現在選択されているアバターから画像表示領域820に現れる新規アバターへの遷移をより良く示す。しかしながら、ヌルアバターオプション830-2は、画像表示領域820上のスワイプジェスチャにより選択できることを理解されたい。このような場合には、背景がぼやけている間に現在選択されているアバターを画面外に移動させた後、次いでぼかしエフェクトを除去してアバターなしのユーザーの顔を表示する。 In the embodiment shown in FIGS. 8V and 8W, null avatar option 830-2 is not selected to better illustrate the transition from the currently selected avatar to the new avatar appearing in image display area 820. FIG. However, it should be appreciated that null avatar option 830 - 2 can be selected with a swipe gesture on image display area 820 . In such cases, the currently selected avatar is moved offscreen while the background is blurred, and then the blur effect is removed to show the user's face without the avatar.

図8X及び図8Yは、異なるカスタマイズ可能なアバターオプション(例えば、カスタマイズ可能なアバターオプション830-5)及び対応する表示されたカスタマイズ可能なアバター835の選択を示す。カスタマイズ可能なアバターオプション830-5が選択領域829に表示されると、編集アフォーダンス804が表示される。編集アフォーダンス804は、図8AAに示すアバター編集ユーザインタフェース808を表示するために(例えば、入力807を介して)選択できる。アバター編集ユーザインタフェース808は、選択された編集アフォーダンス804に関連付けられたカスタマイズ可能なアバターオプション(例えば、830-5)に対応するアバター(例えば、カスタマイズ可能なアバター835)を編集するためのインタフェースを提供する。 8X and 8Y illustrate selection of different customizable avatar options (eg, customizable avatar option 830-5) and corresponding displayed customizable avatar 835. FIG. When customizable avatar option 830-5 is displayed in selection area 829, editing affordance 804 is displayed. Editing affordance 804 can be selected (eg, via input 807) to display avatar editing user interface 808 shown in FIG. 8AA. Avatar editing user interface 808 provides an interface for editing the avatar (eg, customizable avatar 835) corresponding to the customizable avatar option (eg, 830-5) associated with the selected editing affordance 804. do.

一部の実施形態では、適用されるビジュアルエフェクトは、適用されたカスタムアバター835の下方の被写体の首部に示される影851、又は眼鏡の光反射などの照明エフェクトを含むことができる。デバイス600がアバター835を変更してユーザのリアルタイム動作を反映すると、デバイス600はまた、モデル化された光源とアバター835との相対位置に基づいて、反射陰影の表示位置を移動させることを含む、アバター835上及び被写体上に投影された照明エフェクトを変更する。 In some embodiments, the applied visual effects may include a shadow 851 shown on the subject's neck below the applied custom avatar 835, or lighting effects such as light reflections in eyeglasses. As the device 600 changes the avatar 835 to reflect the user's real-time behavior, the device 600 also moves the display position of the reflected shadow based on the relative position of the modeled light source and the avatar 835. Change the lighting effects projected on the avatar 835 and on the subject.

図8AAに示すように、アバター編集ユーザインタフェース808は、カスタマイズ可能なアバター835の表現、並びに現在選択されているアバター特徴オプション及びアバター835を変更するために選択できる利用可能な機能オプションを表す様々なアバター特徴オプション810(例えば、顔色オプション810-1及び顔形状オプション810-2)を含む。アバター特徴オプションは、特定のアバター特徴、具体的には強調表示されたアバター頭部アフォーダンス809-1によって示されるアバター頭部特徴などの、現在選択されているアバター特徴の態様に対する値に対応する。アバター編集ユーザインタフェース808は、アバター835に表される、選択された顔色オプション810-1a及び選択された顔形状オプション810-2aを示す。表示されるアバター特徴オプションは、異なるアバター特徴を選択することによって変更できる。例えば、図8ABでは、デバイス600は、アバター髪部アフォーダンス809-2が選択されると、アバター編集ユーザインタフェース808を更新して、異なるアバター髪部特徴オプション(例えば、髪部テクスチャオプション811-1及び髪部色オプション811-2)を表示する。 As shown in FIG. 8AA, the avatar editing user interface 808 presents a customizable representation of an avatar 835, as well as the currently selected avatar characteristic options and various available feature options that can be selected to modify the avatar 835. Includes avatar feature options 810 (eg, complexion option 810-1 and face shape option 810-2). The avatar feature options correspond to values for aspects of the currently selected avatar feature, such as a particular avatar feature, specifically the avatar head feature indicated by highlighted avatar head affordance 809-1. Avatar editing user interface 808 shows selected complexion option 810 - 1 a and selected face shape option 810 - 2 a represented by avatar 835 . The avatar trait options displayed can be changed by selecting a different avatar trait. For example, in FIG. 8AB, when avatar hair affordance 809-2 is selected, device 600 updates avatar editing user interface 808 to display different avatar hair feature options (eg, hair texture option 811-1 and Hair color option 811-2) is displayed.

デバイス600は、異なるアバター特徴オプションが選択されると、アバター835を変更する。例えば、図8ABでは、デバイス600は、ストレート髪部テクスチャオプション811-2aの選択を検出し、選択されたストレート髪部テクスチャオプションを有するようにアバター835を更新する。一部の実施形態では、デバイス600は、ユーザの顔の検出された変化に応じて、アバター編集ユーザインタフェース808に示されるアバター835の表現を変更する。 Device 600 changes avatar 835 when different avatar feature options are selected. For example, in FIG. 8AB, device 600 detects selection of straight hair texture option 811-2a and updates avatar 835 to have the selected straight hair texture option. In some embodiments, device 600 changes the representation of avatar 835 shown in avatar editing user interface 808 in response to detected changes in the user's face.

完了アフォーダンス812の選択を検出したことに応じて、デバイス600は、アバター編集ユーザインタフェース808を出て、カメラアプリケーションユーザインタフェース815に戻り、アバター編集ユーザーインタフェースで選択された髪部テクスチャオプションに基づいて、選択されたアバターオプション830-5及び対応するアバター835を示す。 In response to detecting selection of completion affordance 812, device 600 exits avatar editing user interface 808, returns to camera application user interface 815, and based on the hair texture options selected in the avatar editing user interface, Selected avatar option 830-5 and corresponding avatar 835 are shown.

図8AD~図8AFは、新たにカスタマイズされたアバターを作成して、アバターオプションメニュー828に追加することができる実施形態を示す。新規アバターアフォーダンス813の選択を検出したことに応じて、デバイス600は、図8AEに示すように、選択されたアバター特徴オプションを含まないデフォルトアバターの表現を有するアバター編集ユーザインタフェース808を表示する。デバイス600は、アバター特徴オプションのユーザ選択に基づいてデフォルトアバターを変更し、アバターオプションメニュー828から選択可能な新規アバターとしてアバターを保存することができる。それゆえ、図8AFでは、デバイス600は、取消アフォーダンスの選択を検出し、図8AGに示すように、変更されたアバターをアバターオプションメニュー828に保存することをやめる。 8AD-8AF illustrate embodiments in which a new customized avatar can be created and added to the avatar options menu 828. FIG. In response to detecting selection of a new avatar affordance 813, device 600 displays avatar editing user interface 808 having a representation of the default avatar that does not include the selected avatar feature option, as shown in FIG. 8AE. Device 600 can change the default avatar based on user selection of avatar trait options and save the avatar as a new avatar selectable from avatar options menu 828 . Therefore, in FIG. 8AF, the device 600 detects selection of the undo affordance and ceases saving the modified avatar to the avatar options menu 828, as shown in FIG. 8AG.

図8AGのキャンセルアイコン850の選択を検出したことに応じて、デバイス600は、アバターオプションメニュー828をクローズし、図8AHに示すようにカメラオプション領域825を表示する。 In response to detecting selection of cancel icon 850 of FIG. 8AG, device 600 closes avatar options menu 828 and displays camera options area 825 as shown in FIG. 8AH.

ステッカーエフェクトアフォーダンス824-2の選択を検出したことに応じて、デバイス600は、図8AIのステッカー858のスクロール可能なリストを有するステッカーオプションメニュー856を表示する。ステッカーオプションメニュー856及びステッカー858は、上述のステッカーオプションメニュー656及びステッカー658と同様のものである。ステッカーは、ユーザが選択できて、画像表示領域820内の画像に適用される、静的なグラフィカルオブジェクトである。一部の実施形態では、ステッカーはタップジェスチャによって選択することができ、次いで、対応するステッカーは画像表示領域820上の位置に表示される。一部の実施形態では、ステッカーは、選択されたステッカー上で開始し、ステッカーを所望の位置にドラッグし、次いでドラッグを終了(例えば、指をリフト)することによってステッカーを所望の位置に配置する、タッチアンドドラッグジェスチャによって選択することができる。このような実施形態の一例が図8AI~図8AKに示されており、ヘルメットステッカー858-1が選択され(例えば、入力853)、カスタムアバター835の上方の(例えば、離れた)位置にドラッグされている。図8AKでは、デバイス600は、被写体832が、図8AJに示す位置から横方向に移動するのを検出する。これに応じて、デバイス600は、被写体の表現の横方向の動き(例えば、方向及び大きさ)に基づいて横方向に動くヘルメットステッカー858-1及びアバター835の両方を表示する。 In response to detecting selection of sticker effect affordance 824-2, device 600 displays sticker options menu 856 having a scrollable list of stickers 858 of FIG. 8AI. Sticker options menu 856 and stickers 858 are similar to sticker options menu 656 and stickers 658 described above. A sticker is a static graphical object that can be selected by the user and applied to an image within the image display area 820 . In some embodiments, a sticker can be selected with a tap gesture and then the corresponding sticker is displayed at a location on image display area 820 . In some embodiments, the sticker is placed in the desired position by starting on the selected sticker, dragging the sticker to the desired position, and then ending the drag (e.g., lifting a finger). , can be selected by touch-and-drag gestures. An example of such an embodiment is shown in FIGS. 8AI-8AK, where helmet sticker 858-1 is selected (eg, input 853) and dragged to a position above (eg, away from) custom avatar 835. ing. In FIG. 8AK, device 600 detects subject 832 moving laterally from the position shown in FIG. 8AJ. In response, device 600 displays both helmet sticker 858-1 and avatar 835 that move laterally based on the lateral movement (eg, direction and magnitude) of the subject's representation.

図8AKでは、デバイス600は、クローズアフォーダンス855上の入力854を検出する。これに応じて、デバイス600は、ステッカーオプションメニュー856をクローズして、図8ALのカメラオプション領域825を表示する。図8ALでは、デバイス600は、被写体832が、頭を傾けて画面の中心にシフトして戻ることを示す。被写体832のこの動きを検出したことに応じて、デバイス600は、図8ALのカスタマイズ可能なアバター835の上方にヘルメットステッカー858-1を表示し、被写体の頭部の画面中心への動きに基づいて(図8AKに示す位置から)横方向にシフトさせる。デバイス600は、ヘルメットステッカー858-1を、アバター835に対して相対的な間隔を維持しながら表示する。しかしながら、図8ALに示すように、ヘルメットステッカー858-1は、被写体の頭部の回転(例えば、傾斜)に応じて回転しない(例えば、傾かない)が、アバター835は回転する(例えば、傾く)。 In FIG. 8AK, device 600 detects input 854 on close affordance 855 . In response, device 600 closes sticker options menu 856 and displays camera options area 825 of FIG. 8AL. In FIG. 8AL, device 600 shows subject 832 tilting his head and shifting back to the center of the screen. In response to detecting this movement of subject 832, device 600 displays helmet sticker 858-1 above customizable avatar 835 of FIG. Shift laterally (from the position shown in FIG. 8AK). Device 600 displays helmet sticker 858 - 1 while maintaining relative spacing to avatar 835 . However, as shown in FIG. 8AL, helmet sticker 858-1 does not rotate (eg, does not tilt) in response to rotation (eg, tilts) of the subject's head, whereas avatar 835 does rotate (eg, tilt). .

図8ALでは、デバイス600は、ビジュアルエフェクト(例えば、カスタマイズされたアバター835及びヘルメットステッカー858-1)を含む、画像表示領域820に表示されたライブカメラプレビュー820-1の画像、並びに、被写体832及び背景836を含む他の画像データを、デバイス600にキャプチャさせるキャプチャアフォーダンス821の選択を検出する。 8AL, device 600 displays live camera preview 820-1 images displayed in image display area 820, including visual effects (eg, customized avatar 835 and helmet sticker 858-1), subject 832 and Detects selection of capture affordance 821 that causes device 600 to capture other image data, including background 836 .

図8AMでは、デバイス600は、画像表示領域820にキャプチャされた画像(例えば、メディアアイテム820-2)を示すカメラアプリケーションユーザインタフェース815を表示する(例えば、メディアアイテム820-2は、画像表示領域820に示されるライブカメラプレビュー820-1を置換する)。メディアアイテム820-2は、キャプチャアフォーダンス821が選択された時点での、ライブカメラプレビュー820-1の表現である。このように、メディアアイテム820-2は、被写体832の顔及び背景836の上に表示されるヘルメットステッカー858-1及びアバター835を含む。 8AM, device 600 displays camera application user interface 815 showing a captured image (eg, media item 820-2) in image display area 820 (eg, media item 820-2 is displayed in image display area 820). replaces the live camera preview 820-1 shown in ). Media item 820-2 is a representation of live camera preview 820-1 at the time capture affordance 821 is selected. Thus, media item 820 - 2 includes helmet sticker 858 - 1 and avatar 835 displayed over subject 832 's face and background 836 .

デバイス600はまた、カメラ固有アフォーダンス(例えば、図8ALに示すアフォーダンス817)を再撮影アフォーダンス879に置換し、キャプチャされたメディアアイテム820-2を保存するためのアフォーダンス818を保存する。 Device 600 also replaces camera-specific affordances (eg, affordance 817 shown in FIG. 8AL) with recapture affordances 879 and saves affordances 818 for saving captured media item 820-2.

デバイス600はまた、カメラオプション領域825を更新して、キャプチャアフォーダンス821及びカメラセレクタアフォーダンス827を、マークアップアフォーダンス877、編集アフォーダンス878、及び共有アフォーダンス880に置換する。マークアップアフォーダンス877は、ユーザがメディアアイテム820-2をマークアップすることを可能にする。編集アフォーダンス878により、ユーザが、画像を切り取ること、又はメディアアイテム820-2の他の特性を調整することによってなどで、メディアアイテム820-2を編集することが可能になる。共有アフォーダンス880は、ユーザが、例えばメッセージングアプリケーション又は電子メールアプリケーションなどの別のデバイスに、メディアアイテム820-2を送信することを可能にする。 Device 600 also updates camera options area 825 to replace capture affordance 821 and camera selector affordance 827 with markup affordance 877 , editing affordance 878 , and sharing affordance 880 . Markup affordance 877 allows the user to markup media item 820-2. Editing affordances 878 allow a user to edit media item 820-2, such as by cropping an image or adjusting other characteristics of media item 820-2. Sharing affordance 880 allows a user to send media item 820-2 to another device, such as a messaging application or email application.

デバイス600は、ビジュアルエフェクトオプションアフォーダンス824を含むカメラオプション領域825を表示する。ビジュアルエフェクトオプションアフォーダンス824を選択して、それぞれのオプションメニューを表示することができ、オプションメニューを使用して、キャプチャされたメディアアイテム820-2(並びに、後述する記録されたビデオメディアアイテム820-4)を変更することができる。例えば、図8AN~図8APは、ステッカーをメディアアイテム820-2に追加するデバイス600を示す。図8AOのステッカーオプションメニュー856をデバイス600に表示させる、ステッカーエフェクトアフォーダンス824-2が、図8ANで選択され、図8APに示すメディアアイテム820-2内の被写体832上に配置された、ウサギステッカー858-2の選択も示す。ステッカーオプションメニュー856は、図8APではクローズされており、図8AQではカメラオプション領域825を表示している。 Device 600 displays camera options area 825 that includes visual effects option affordances 824 . A visual effects option affordance 824 can be selected to display a respective option menu, which can be used to select a captured media item 820-2 (as well as a recorded video media item 820-4 described below). ) can be changed. For example, FIGS. 8AN-8AP show device 600 adding a sticker to media item 820-2. Rabbit sticker 858 with sticker effect affordance 824-2 selected in FIG. 8AN and placed on subject 832 within media item 820-2 shown in FIG. 8AP, causing device 600 to display sticker options menu 856 of FIG. 8AO A choice of -2 is also shown. The sticker options menu 856 is closed in FIG. 8AP, revealing the camera options area 825 in FIG. 8AQ.

図8AQでは、デバイス600はまた、他のビジュアルエフェクト(例えば、アバター835及びヘルメットステッカー858-1)と一緒に、被写体832上に配置されたウサギステッカー858-2を含むメディアアイテム820-2を表示する。 In FIG. 8AQ, device 600 also displays media item 820-2 including rabbit sticker 858-2 placed over subject 832, along with other visual effects (eg, avatar 835 and helmet sticker 858-1). do.

ステッカーは、メディアアイテム820-2(静止画)について上述したのと同様の方法で、ビデオフォーマット内の記録されたメディアアイテムに追加することができる。例えば、図8ARは、ビデオメディアアイテム820-4が記録されたビデオである実施形態を示す。メディアアイテム820-4は、メディアアイテム620-4について上述したのと同様の方法で作成することができる。 Stickers can be added to recorded media items in video format in a manner similar to that described above for media item 820-2 (still images). For example, FIG. 8AR shows an embodiment in which video media item 820-4 is a recorded video. Media item 820-4 can be created in a manner similar to that described above for media item 620-4.

図8ARでは、デバイス600は、記録されたビデオメディアアイテム820-4を画像表示領域820に表示する。デバイス600はまた、記録されたビデオメディアアイテム820-4用のビデオスクラバ8120、エフェクトアフォーダンス822、編集アフォーダンス878、マークアップアフォーダンス877、及び共有アフォーダンス880を有するカメラオプション領域825を表示する。カメラオプション領域825はまた、ビジュアルエフェクトオプションアフォーダンス824を含む。ビジュアルエフェクトオプションアフォーダンス824を選択して、キャプチャされたメディアアイテム820-4を変更するために使用できる、それぞれのオプションメニューを表示することができる。例えば、図8AR~図8AVは、デバイス600がステッカー858-2及び858-3をメディアアイテム820-4に追加することを示す。 8AR, device 600 displays recorded video media item 820-4 in image display area 820. In FIG. Device 600 also displays camera options area 825 with video scrubber 8120, effects affordance 822, editing affordance 878, markup affordance 877, and sharing affordance 880 for recorded video media item 820-4. Camera options area 825 also includes visual effects options affordances 824 . A visual effects option affordance 824 can be selected to display a menu of respective options that can be used to modify the captured media item 820-4. For example, FIGS. 8AR-8AV show device 600 adding stickers 858-2 and 858-3 to media item 820-4.

一部の実施形態では、表示されるステッカーは、ビデオメディアアイテム(又はライブビデオストリーム)において異なってモデル化された挙動を有することができる。例えば、一部のステッカーは、ディスプレイ(例えば、601)に適用されている外観を有し、画像データ内のオブジェクトが移動する際に静的に保たれる。このようなステッカーの例が、図8AX~図8BCのハートステッカー858-3によって表示されている。一部の実施形態では、デバイス600が、メディアアイテム、ライブカメラプレビュー、又はカメラ602の視野内の被写体の表現のすべて又は一部(例えば、頭部又は顔)の存在を検出しない場合、ステッカーが、メディアアイテム(例えば、820-4)又はライブカメラプレビュー(例えば、820-1)に配置されると、ステッカーはこの静的な挙動を有する。例えば、被写体の顔が完全に画面から外れていて(例えば、カメラ602の視野内で検出されていない)、ステッカーが画像表示領域820上に配置されている場合、いったん顔がカメラ602の視野内で検出され、前に配置されたステッカーと共に画像表示領域820上に表示されると、ステッカーは静止していて、被写体の顔のいかなる動きも追跡しない。 In some embodiments, displayed stickers may have behavior modeled differently in video media items (or live video streams). For example, some stickers have appearances that are applied to the display (eg, 601) and remain static as objects in the image data move. An example of such a sticker is represented by heart sticker 858-3 in FIGS. 8AX-8BC. In some embodiments, if device 600 does not detect the presence of all or part of a media item, live camera preview, or representation of a subject within the field of view of camera 602 (e.g., head or face), the sticker is , a media item (eg, 820-4) or a live camera preview (eg, 820-1), the sticker has this static behavior. For example, if the subject's face is completely off-screen (eg, not detected within the field of view of camera 602) and the sticker is placed on image display area 820, once the face is within the field of view of camera 602, , and displayed on the image display area 820 with the previously placed sticker, the sticker is stationary and does not track any movement of the subject's face.

他のステッカーは、ディスプレイに適用されていて、画像内のオブジェクト(例えば、アバター又は被写体の表現を含む、カメラの視野内のアイテム)に追従して動いている外観を有する。一部の実施形態では、ステッカーは、ステッカーが追従するオブジェクトから離れた位置に配置される。このようなステッカーの例が、図8AK及び8AX~図8BCのヘルメットステッカー858-1によって表示されている。ヘルメットステッカー858-1は、被写体832の横方向の動きに追従するが、被写体の回転運動には追従しない。このようなステッカーの別の例が、図8BE~8BQのヒトデステッカー858-5によって表示されている。被写体の顔から離れて配置されると、ヒトデステッカー858-5は、顔に対する相対的な位置を維持しながら被写体の顔の動きに追従する(例えば、ヒトデのステッカー858-5は、被写体の顔の前方、後方、及び左右の動きには追従するが、被写体の顔の回転運動には追従しない)。 Other stickers have the appearance of being applied to the display and following and moving objects in the image (eg, items in the field of view of the camera, including avatars or representations of subjects). In some embodiments, the sticker is positioned away from the object it follows. An example of such a sticker is represented by helmet sticker 858-1 in FIGS. 8AK and 8AX-8BC. Helmet sticker 858-1 follows lateral movement of subject 832, but does not follow rotational movement of the subject. Another example of such a sticker is represented by starfish sticker 858-5 in FIGS. 8BE-8BQ. When positioned away from the subject's face, the starfish sticker 858-5 follows the movements of the subject's face while maintaining its relative position to the face (eg, the starfish sticker 858-5 is positioned on the subject's face). forward, backward, and left-to-right movements of the subject, but not the rotational movement of the subject's face).

しかし、他のステッカーは、カメラ602の視野内のオブジェクトに適用されている外観を有し、視野内のオブジェクトに追従するように(例えば、ステッカーが画像内のオブジェクトに合わせた深度の外観を有しながら)移動する。このようなステッカーの例が、図8AX~図8BCのウサギステッカー858-2によって表示されている。ウサギステッカー858-2は、被写体(具体的には、被写体の肩)の横方向及び回転運動と共に動く。このようなステッカーの別の例が、図8BG~図8BMの眼鏡ステッカー858-4によって表示されている。図8BG~図8BMの被写体の顔に配置されると、眼鏡ステッカー858-4は、被写体の顔の横方向の動き(例えば、左右、上/下)、被写体の顔の前後の動き、及び被写体の顔の回転運動に追従する。眼鏡ステッカー858-4は、被写体の顔に物理的に貼り付けられている(例えば、接着されている)外観を有する。 Other stickers, however, have appearances that are applied to objects within the field of view of camera 602 so that they follow the objects in the field of view (e.g., the sticker has a depth appearance that matches the objects in the image). while) move. An example of such a sticker is represented by rabbit sticker 858-2 in FIGS. 8AX-8BC. Rabbit sticker 858-2 moves with lateral and rotational motion of the subject (specifically, the subject's shoulder). Another example of such a sticker is represented by eyeglass sticker 858-4 in FIGS. 8BG-8BM. When placed on the subject's face in FIGS. 8BG-8BM, the eyeglasses sticker 858-4 displays lateral movement of the subject's face (eg, side-to-side, up/down), front-to-back movement of the subject's face, and movement of the subject's face. follow the rotational movement of the face of the Glasses sticker 858-4 has the appearance of being physically attached (eg, glued) to the subject's face.

一部の実施形態では、ステッカーの挙動は、メディアアイテム内のオブジェクト(又はライブカメラプレビュー又はカメラの視野)に対するその位置に基づいて変化する。一部の実施形態では、ステッカーの挙動は、オブジェクトに対するステッカーの位置の変化を検出したことに応じて変化する。そのようなステッカーの例を図8BE~図8BQに示し、以下に一層詳細に説明する。 In some embodiments, the behavior of the sticker changes based on its position relative to the object (or live camera preview or camera view) within the media item. In some embodiments, the behavior of the sticker changes in response to detecting a change in the position of the sticker relative to the object. Examples of such stickers are shown in Figures 8BE-8BQ and are described in more detail below.

図8AW~図8BCは、アバター835、ヘルメットステッカー858-1、ウサギステッカー858-2、及びハートステッカー858-3を含む、メディアアイテム820-4のビデオ再生及び編集を示す。再生中にメディアアイテム820-4が進行すると、ハートステッカー858-3は、ディスプレイ601に貼り付けられていて動かない外観を有しながら、静止したままである。ヘルメットステッカー858-1は、ディスプレイに貼り付けられている外観を有するが、アバター835の位置の変化に応じて移動する(例えば、変形する)。ウサギステッカー858-2は、メディアアイテム820-4内の被写体832の肩に貼り付けられている外観を有する。肩が動くと、ウサギステッカー858-2は、向き及び表示サイズを含む位置を変更して、メディアアイテム820-4の再生中に被写体の肩に追従している外観を与える。 8AW-8BC show video playback and editing of media item 820-4, including avatar 835, helmet sticker 858-1, rabbit sticker 858-2, and heart sticker 858-3. As media item 820-4 advances during playback, heart sticker 858-3 remains stationary while having the appearance of being affixed to display 601 and not moving. Helmet sticker 858-1 has the appearance of being affixed to the display, but moves (eg, transforms) as avatar 835 changes position. Rabbit sticker 858-2 has the appearance of being affixed to the shoulder of subject 832 in media item 820-4. As the shoulder moves, rabbit sticker 858-2 changes position, including orientation and display size, to give the appearance of following the subject's shoulder during playback of media item 820-4.

一部の実施形態では、3次元で(例えば、深度センサからの深度情報を介して)追跡されている、それぞれのオブジェクト(例えば、デバイスのユーザの顔、手、又は他の身体の部分)を含む、1つ以上のカメラの視野の表現の位置に適用されるステッカー又は他の仮想オブジェクトは、1つ以上のカメラの視野内で、それぞれのオブジェクトが横方向に(例えば、左右に、及び/又は上下に)移動すると、横方向に(例えば、左右に、及び/又は上下に)移動することに加えて、1つ以上のカメラからのそれぞれのオブジェクトの距離、及び/又は1つ以上のカメラに対するそれぞれのオブジェクトの向きが変化すると、仮想オブジェクトのサイズ及び/又は向きが変化するように、それぞれのオブジェクトに付着している。例えば、図8AS~図8ATに示すように、ウサギステッカー858-2が被写体の肩の表現上に配置されている。図8AX~図8AYでは、肩がカメラの上方及びカメラに向かって動くにつれて、ウサギステッカー858-2は、肩と共に横方向(上方)に動き、肩がカメラに向かって動くにつれて拡大する。一部の実施形態では、3次元で(例えば、深度センサからの深度情報を介して)追跡されている、それぞれのオブジェクト(例えば、デバイスのユーザの顔、手、又は他の身体の部分)から離れている(例えば、遠隔の)、1つ以上のカメラの視野の表現の位置に適用されるステッカー又は他の仮想オブジェクトは、1つ以上のカメラからのそれぞれのオブジェクトの距離、及び/又は1つ以上のカメラに対するそれぞれのオブジェクトの向きが変化しても、仮想オブジェクトのサイズ及び/又は向きが変化しないように、オブジェクトに付着することなく、1つ以上のカメラの視界内で、それぞれのオブジェクトが横方向に(例えば、左右に、及び/又は上下に)移動すると、横方向に(例えば、左右に、及び/又は上下に)移動する。例えば、図8AX及び図8AYに示すように、ヘルメットステッカー858-1は、被写体の表現から離れた位置に配置される。図8AX及び図8AYでは、被写体の表現が横向きにカメラに近づいて動くにつれて、ヘルメットステッカー858-1は、ユーザの表現の動きに基づいて横方向に移動するが、向き又はサイズは変化しない。 In some embodiments, each object (e.g., face, hand, or other body part of the user of the device) being tracked in three dimensions (e.g., via depth information from a depth sensor) is Stickers or other virtual objects applied to the position of the representation of one or more cameras' fields of view, including: or up and down), in addition to moving laterally (e.g., left and right and/or up and down), the distance of each object from one or more cameras, and/or one or more cameras attached to each object such that the size and/or orientation of the virtual object changes as the orientation of the respective object with respect to changes. For example, as shown in FIGS. 8AS-8AT, a rabbit sticker 858-2 is placed over a shoulder representation of the subject. In FIGS. 8AX-8AY, as the shoulder moves above and towards the camera, the rabbit sticker 858-2 moves laterally (upward) with the shoulder and expands as the shoulder moves towards the camera. In some embodiments, from each object (e.g., face, hand, or other body part of the user of the device) being tracked in three dimensions (e.g., via depth information from a depth sensor) Stickers or other virtual objects applied to locations in the representation of the field of view of one or more cameras that are distant (e.g., remote) may vary depending on the distance of each object from the one or more cameras, and/or 1 each object within the field of view of one or more cameras without adhering to the object such that the size and/or orientation of the virtual object does not change as the orientation of each object with respect to the one or more cameras changes; moves laterally (eg, left-right and/or up-down), it moves laterally (eg, left-right and/or up-down). For example, as shown in FIGS. 8AX and 8AY, helmet sticker 858-1 is positioned away from the representation of the subject. In FIGS. 8AX and 8AY, as the subject's representation moves sideways toward the camera, helmet sticker 858-1 moves laterally based on the movement of the user's representation, but does not change orientation or size.

図8AYでは、デバイス600は、スクラバ8120上の入力882(例えば、スワイプ又はドラッグジェスチャ)を検出し、入力に基づいてメディアアイテム820-4をスクラブする。図8AZに示すように、入力882に応じて、デバイス600は、メディアアイテム820-4を通じて反転して、図8AXで以前に表示されたメディアアイテム820-4の部分を表示する。デバイス600は、編集アフォーダンス878上の入力884を検出する。 In FIG. 8AY, device 600 detects input 882 (eg, a swipe or drag gesture) on scrubber 8120 and scrubs media item 820-4 based on the input. As shown in FIG. 8AZ, in response to input 882, device 600 flips through media item 820-4 to display the portion of media item 820-4 previously displayed in FIG. 8AX. Device 600 detects input 884 on editing affordance 878 .

図8BAでは、デバイス600は、編集モードに入り(メディアアイテム820-4を編集するために)、ビデオスクラバ8120の端部に(入力883を介して)アフォーダンス885をドラッグすることによってビデオをクロッピングするために選択可能なアフォーダンス885を表示して、ビデオスクラバの終了時間を変更する。 In FIG. 8BA, device 600 enters edit mode (to edit media item 820-4) and crops the video by dragging affordance 885 (via input 883) to the edge of video scrubber 8120. display selectable affordances 885 to change the end time of the video scrubber.

図8BBに示すように、ビデオスクラバ8120は、入力883に応じてトリミングされる。デバイス600は、完了アフォーダンス887上の入力886を検出し、編集モードを終了させる。 As shown in FIG. 8BB, video scrubber 8120 is trimmed according to input 883 . Device 600 detects input 886 on completion affordance 887 and exits edit mode.

図8BCでは、ビデオスクラバ8120は、トリミングされて示されている(例えば、図8AZの編集モードに入る前よりも長さが短い)。デバイス600は、エフェクトアフォーダンス822上の入力888を検出し、エフェクトモードを終了させる。 In FIG. 8BC, the video scrubber 8120 is shown trimmed (eg, shorter in length than before entering the edit mode of FIG. 8AZ). Device 600 detects input 888 on effects affordance 822 and exits effects mode.

図8BDに表すように、メディアアイテム820-4に表示されるビジュアルエフェクトビジュアルエフェクトは、エフェクトアフォーダンス822を選択解除する入力888を検出したことに応じて表示から隠される。 As depicted in FIG. 8BD, the visual effect visual effect displayed on media item 820-4 is hidden from display in response to detecting input 888 deselecting effect affordance 822. FIG.

一部の実施形態では、ステッカーは、ステッカーの配置の条件(例えば、他のオブジェクトに対するステッカーの位置、ステッカーが配置されたときのオブジェクトの存在(又は不存在)など)に基づいて決定される挙動を有することができる。例えば、一部の実施形態では、ステッカーは、オブジェクト又は領域から離れて配置される場合には第1のタイプの挙動を、オブジェクト又は領域上に配置される場合には第2のタイプの挙動を有することができる。一部の実施形態では、ステッカーが配置されるときにオブジェクトが存在しない場合には、ステッカーは、第3のタイプの挙動を有することができる。一部の実施形態では、ステッカーの挙動は、(例えば、オブジェクトに対する)ステッカーの配置の変化に基づいて変化し得る。 In some embodiments, the sticker has behavior that is determined based on the conditions of placement of the sticker (e.g., the position of the sticker relative to other objects, the presence (or absence) of the object when the sticker is placed, etc.). can have For example, in some embodiments, a sticker behaves in a first type when placed away from an object or area and behaves in a second type when placed on an object or area. can have In some embodiments, a sticker can have a third type of behavior if no object is present when the sticker is placed. In some embodiments, the behavior of the sticker may change based on changes in the placement of the sticker (eg, relative to the object).

例えば、図8BE~図8BQは、ライブカメラプレビュー820-1に表示される様々なステッカーの挙動を示す例示的な実施形態を示し、被写体の顔に対するステッカーの配置の変化に基づいてステッカーの挙動を変更する。図8BE~図8BQに示す実施形態では、ステッカーの挙動は、被写体の顔に対するステッカーの位置に基づいて決定される。 For example, FIGS. 8BE-8BQ illustrate an exemplary embodiment showing the behavior of various stickers displayed in the live camera preview 820-1, where the behavior of the stickers is changed based on changes in the placement of the stickers relative to the subject's face. change. In the embodiment shown in FIGS. 8BE-8BQ, the behavior of the sticker is determined based on the position of the sticker relative to the subject's face.

図8BEでは、デバイス600は、図8Dに示すものと同様の外観であるが、画像表示領域820に表示されたステッカー858を有する、カメラアプリケーションユーザインタフェース815を表示する。画像表示領域820は、カメラ602の視野内に位置する被写体832の表現、及び被写体832の背後に表示された背景836を示している、カメラ602からのライブカメラプレビュー820-1を示す。眼鏡ステッカー858-4、ヒトデステッカー858-5、及び野球ステッカー858-6は、被写体832の顔から離れて(例えば、上にではなく)、それぞれ配置されて表示される。図8BE~図8BQに示すステッカーは、本明細書で論じる様々な実施形態に従って、画像表示領域内に配置され、移動させることができる。 In FIG. 8BE, the device 600 displays a camera application user interface 815 similar in appearance to that shown in FIG. 8D, but with a sticker 858 displayed in the image display area 820. Image display area 820 shows a live camera preview 820-1 from camera 602 showing a representation of subject 832 located within the field of view of camera 602 and background 836 displayed behind subject 832. FIG. Glasses sticker 858-4, starfish sticker 858-5, and baseball sticker 858-6 are each displayed positioned away from (eg, not above) subject 832's face. The stickers shown in FIGS. 8BE-8BQ can be placed and moved within the image display area according to various embodiments discussed herein.

ステッカー858が被写体の顔から離れて(例えば、その上ではなく)配置される場合、ステッカー858は第1の種類の挙動を有する。例えば、ステッカーは、横方向(例えば、横から横、及び上/下)、前方(例えば、カメラ602に向かう)、及び後方(例えば、カメラ602から離れる)の被写体の顔の動きには追従するが、被写体の顔の回転運動には追従しない(例えば、被写体の顔のピッチ及びヨーに追従しない)。 Sticker 858 has a first type of behavior when sticker 858 is placed away from (eg, not on) the subject's face. For example, the sticker follows the subject's facial movements in lateral (e.g., side-to-side and up/down), forward (e.g., toward camera 602), and backward (e.g., away from camera 602). but does not follow the rotational motion of the subject's face (eg, it does not follow the pitch and yaw of the subject's face).

図8BFでは、デバイス600は、眼鏡ステッカー858-4上の入力889(例えば、ディスプレイ601上のタッチアンドドラッグジェスチャ)を検出する。入力889を検出したことに応じて、デバイス600は、図8BG及び図8BHに示すように、入力と共に移動する眼鏡ステッカー858-4を(例えば、入力889の動きの向き及び大きさで)表示する。 In FIG. 8BF, device 600 detects input 889 (eg, touch-and-drag gesture on display 601) on glasses sticker 858-4. In response to detecting input 889, device 600 displays eyeglasses sticker 858-4 that moves with the input (eg, in the direction and magnitude of movement of input 889), as shown in FIGS. 8BG and 8BH. .

一部の実施形態では、デバイス600は、ステッカーが追従しているオブジェクトに対応する位置にステッカーが移動したときにインジケーションを提供する。例えば、図8BGでは、デバイス600は、眼鏡ステッカー858-4が、被写体の顔から離れた位置から被写体の顔の位置に移動していることを示す。デバイス600は、眼鏡ステッカー858-4が被写体の顔に移動すると、被写体の顔の周りにブラケット890を表示し、任意選択的に、触覚フィードバック892(例えば、音声出力を伴う、又は伴わない触知出力)を生成する。一部の実施形態では、ブラケット890は、眼鏡ステッカー858-4が被写体の顔に表示されることになるように(眼鏡ステッカー858-4の変更された挙動がもたらされるように)、眼鏡ステッカー858-4を配置できる領域の視覚的表示を提供する。このように、ユーザがステッカーを被写体の顔に配置されることになる配置領域(例えば、ブラケットの内側)にステッカーをドラッグしている間に、ブラケット890(及び触覚フィードバック892)をユーザーに示すことができる。一部の実施形態では、触覚フィードバック892は、眼鏡ステッカー858-4が、被写体の顔の外側の領域(例えば、ステッカーが第1のタイプの挙動を有する領域)から、被写体の顔の領域(例えば、ステッカーが第2のタイプの挙動を有する領域)に移動したことを示す。 In some embodiments, device 600 provides an indication when the sticker moves to a position corresponding to the object the sticker is following. For example, in FIG. 8BG, device 600 shows eyeglass sticker 858-4 moving from a position away from the subject's face to a position on the subject's face. Device 600 displays brackets 890 around the subject's face when eyeglass sticker 858-4 is moved to the subject's face, and optionally haptic feedback 892 (eg, tactile feedback with or without audio output). output). In some embodiments, bracket 890 attaches eyeglass sticker 858 such that eyeglass sticker 858-4 is to be displayed on the subject's face (resulting in altered behavior of eyeglass sticker 858-4). Provides a visual indication of the area where the -4 can be placed. Thus, showing the bracket 890 (and haptic feedback 892) to the user while the user is dragging the sticker to the placement area (e.g., inside the bracket) where the sticker is to be placed on the subject's face. can be done. In some embodiments, the tactile feedback 892 is such that the eyeglasses sticker 858-4 moves from an area outside the subject's face (eg, an area where the sticker has the first type of behavior) to an area of the subject's face (eg, , indicates that the sticker has moved to a region with the second type of behavior).

一部の実施形態では、ステッカーが追従しているオブジェクトに対応する位置にステッカー(又は他のビジュアルエフェクト)の位置が移動することをデバイス600が検出すると、デバイス600は、オブジェクトの位置に基づいてステッカーの外観を変更し、ステッカーの挙動を変更する(一部の実施形態では、ステッカーの挙動は、入力889の終了を検出した後に変更される)。デバイス600はまた、ステッカーが追従しているオブジェクトに対応する位置からオブジェクトから離れた位置にステッカーが移動すると、ステッカーの外観及び挙動を逆の方法で変更する。 In some embodiments, when the device 600 detects that the position of the sticker (or other visual effect) moves to a position corresponding to the object that the sticker is following, the device 600 can display the position of the object based on the position of the object. Change the appearance of the sticker and change the behavior of the sticker (in some embodiments, the behavior of the sticker is changed after detecting the end of input 889). The device 600 also changes the appearance and behavior of the sticker in the opposite way as the sticker moves from a position corresponding to the object the sticker is following to a position away from the object.

図8BHでは、デバイス600が被写体の顔の眼鏡ステッカー858-4の位置を検出すると(例えば、ブラケット890内に位置する)、デバイス600は、被写体の顔の位置(例えば、サイズ及び向き)に基づいてステッカーを変更する。例えば、眼鏡ステッカー858-4は、サイズが(例えば、被写体の顔のサイズに比例して適合するように)増大し、図8BGの静的位置から図8BHの被写体の顔の位置と一致するように回転する。一部の実施形態では、ステッカーは、被写体の鼻に対応する平面上に配置され、顔が動くとその位置の座標を変換する。一部の実施形態では、顔メッシュ(例えば、深度マスク)を使用して鼻の点を決定する。一部の実施形態では、ステッカーは、平面上に配置されるが、被写体の顔の形状には適合しない。 In FIG. 8BH, when device 600 detects the position of eyeglass sticker 858-4 on the subject's face (eg, located within bracket 890), device 600 detects the position (eg, size and orientation) of the subject's face. to change the sticker. For example, eyeglasses sticker 858-4 may increase in size (eg, to fit proportionally to the size of the subject's face) and move from the static position of FIG. 8BG to match the position of the subject's face in FIG. 8BH. rotate to In some embodiments, the sticker is placed on a plane corresponding to the nose of the subject and transforms the coordinates of that position as the face moves. In some embodiments, a face mesh (eg, depth mask) is used to determine the nose points. In some embodiments, the sticker is placed on a flat surface but does not conform to the shape of the subject's face.

デバイス600はまた、ステッカーの挙動を第2の種類の挙動(例えば、第1の種類の挙動とは異なる挙動)に変更する。図8BHに示すように、挙動の第2のタイプは、横方向の動き及び前後方向の動きに加えて、ステッカーが被写体の顔の回転運動に追従して(例えば、顔のピッチ及びヨーに追従して)、顔のその3D位置を維持する挙動を含むことができる。他のステッカーの挙動は変化しない。このように、野球ステッカー858-6及びヒトデステッカー858-5は、被写体の顔には配置されれないので、挙動の第1のタイプを有し続けている。代わりに、ヒトデステッカー858-5及び野球ステッカー858-6は、顔からの相対的間隔を維持し続ける。 Device 600 also modifies the behavior of the sticker to a second type of behavior (eg, a different behavior than the first type of behavior). As shown in FIG. 8BH, the second type of behavior is that in addition to lateral and fore-aft motion, the sticker follows the rotational motion of the subject's face (e.g., follows the pitch and yaw of the face). ) to include behavior that maintains the face's 3D position. The behavior of other stickers does not change. Thus, baseball sticker 858-6 and starfish sticker 858-5 continue to have the first type of behavior since they are not placed on the subject's face. Instead, starfish sticker 858-5 and baseball sticker 858-6 continue to maintain their relative spacing from the face.

一部の実施形態では、ブラケット890は入力889と共に持続し、入力889は被写体の顔に(例えば、ブラケット内に)配置される。このように、デバイス600が入力889の終了を検出すると、デバイス600は、図8BIに示すように、ブラケット890の表示を停止する。 In some embodiments, bracket 890 persists with input 889 and input 889 is placed on the subject's face (eg, within the bracket). Thus, when device 600 detects the end of input 889, device 600 stops displaying bracket 890, as shown in FIG. 8BI.

図8BI及び図8BJは、被写体の顔と共に眼鏡ステッカー858-4を回転しているデバイス600を示しているが、ヒトデステッカー858-5及び野球ステッカー858-6は静止したままである(眼鏡ステッカー858-4とは異なり、それらは被写体の顔の回転運動に追従しない)。 8BI and 8BJ show device 600 rotating eyeglasses sticker 858-4 with the subject's face while starfish sticker 858-5 and baseball sticker 858-6 remain stationary (eyeglasses sticker 858-6). -4, they do not follow the rotational motion of the subject's face).

図8BKでは、被写体はカメラ602に近づくように動く。眼鏡ステッカー858-4は、被写体の顔の前方への動きと共に動き、被写体の顔との回転位置を維持する。同様に、野球ステッカー858-6及びヒトデステッカー858-5は、被写体の顔に対する相対的間隔を維持しながら、被写体の顔の前方への動きと共に動く。野球ステッカー858-6及びヒトデステッカー858-5は、被写体の顔と共に回転しない。 In FIG. 8BK, the subject moves closer to camera 602 . The eyeglass sticker 858-4 moves with the forward motion of the subject's face and maintains a rotational position with the subject's face. Similarly, baseball sticker 858-6 and starfish sticker 858-5 move with forward movement of the subject's face while maintaining their relative spacing to the subject's face. Baseball sticker 858-6 and starfish sticker 858-5 do not rotate with the subject's face.

図8BKでは、デバイス600は、キャプチャアフォーダンス821上で入力893を検出し、これに応じて、ライブカメラプレビュー820-1の画像をキャプチャする。 In FIG. 8BK, device 600 detects input 893 on capture affordance 821 and captures an image of live camera preview 820-1 in response.

図8BLでは、デバイス600は、画像表示領域820にキャプチャされた画像(例えば、メディアアイテム820-5)を示すカメラアプリケーションユーザインタフェース815を表示する(例えば、メディアアイテム820-5は、画像表示領域820に示されるライブカメラプレビュー820-1を置換する)。メディアアイテム820-5は、キャプチャアフォーダンス821が選択された時点でのライブカメラプレビュー820-1の表現である。図8BLに示す実施形態は、図8AMに示したものと同様であるが、(メディアアイテム820-2の代わりに)メディアアイテム820-5を有し、メディアアイテム820-5は、被写体832の顔及び背景836に対して表示される、眼鏡ステッカー858-4、ヒトデステッカー858-5、及び野球ステッカー858-6を含む。 In FIG. 8BL, device 600 displays camera application user interface 815 showing a captured image (eg, media item 820-5) in image display area 820 (eg, media item 820-5 is displayed in image display area 820). replaces the live camera preview 820-1 shown in ). Media item 820-5 is a representation of live camera preview 820-1 at the time capture affordance 821 is selected. The embodiment shown in FIG. 8BL is similar to that shown in FIG. 8AM, but has media item 820-5 (instead of media item 820-2), media item 820-5 being the face of subject 832. and displayed against background 836, glasses sticker 858-4, starfish sticker 858-5, and baseball sticker 858-6.

本明細書で論じるように、ビジュアルエフェクトの表示は、異なる実施形態にわたって同様である。例えば、他に明記しない限り、ビジュアルエフェクトは、カメラアプリケーション、メッセージングアプリケーション、アバター編集アプリケーション、ライブビデオメッセージングアプリケーション、又は本明細書で論じる任意の他のアプリケーションにおける同様の方法で、表示及び操作することができる。加えて、画像データの異なるタイプにわたって、同様の方法でビジュアルエフェクトを表示及び操作することができる。例えば、特に明記しない限り、ビジュアルエフェクトは、ライブカメラプレビュー、メディアアイテム、ストリーミングされた画像データ、又は本明細書で論じられる任意の他の画像データにおける同様の方法で、表示及び操作することができる。例えば、図8BL~図8BQは、ライブカメラプレビュー820-1について上述したのと同様の方法で、メディアアイテム820-5にステッカーを表示することを示す。具体的には、図8BL~図8BQは、ライブ画像プレビュー820-1に関して上述したのと同様の方法で、メディアアイテム(例えば、820-5)内のステッカーを再配置し、それに応じてそれらのそれぞれの挙動を変更できることを表す。 As discussed herein, the display of visual effects is similar across different embodiments. For example, unless stated otherwise, visual effects may be displayed and manipulated in a similar manner in a camera application, messaging application, avatar editing application, live video messaging application, or any other application discussed herein. can. Additionally, visual effects can be displayed and manipulated in a similar manner across different types of image data. For example, unless otherwise stated, visual effects can be displayed and manipulated in a similar manner in live camera previews, media items, streamed image data, or any other image data discussed herein. . For example, FIGS. 8BL-8BQ show displaying stickers on media item 820-5 in a manner similar to that described above for live camera preview 820-1. Specifically, FIGS. 8BL-8BQ rearrange stickers within a media item (eg, 820-5) in a manner similar to that described above with respect to live image preview 820-1, and their Indicates that each behavior can be changed.

図8BMでは、デバイス600は、眼鏡のステッカー858-4上の入力894を検出し、ブラケット890を表示する。図8BNでは、入力894は、眼鏡ステッカー858-4を被写体の顔から動かして外す。眼鏡ステッカーを顔から動かして外すと、デバイス600は、触覚フィードバック892を生成し、ブラケット890の表示を停止し、眼鏡ステッカー858-4をその元の形状(例えば、眼鏡ステッカーが図8BEの被写体の顔から離れて配置されたときからわずかに傾斜した形状)に変更して戻す。デバイス600はまた、眼鏡ステッカー858-4の挙動を、第1のタイプの挙動(ステッカーが追跡しているオブジェクトから離れた配置されたステッカーに関連付けられた挙動)に変更して戻し、変更された挙動に基づいてステッカーの外観を変更する。このように、眼鏡ステッカー858-4は、(図8BE~図8BGの眼鏡ステッカー858-4のサイズと比較して)図8BN~8BQのより大きいサイズを有して表示され、ヒトデステッカー858-5及び野球ステッカー858-6のサイズ変化と同様に、図8BJ~8BKの被写体の顔の前方への動きに基づいて、眼鏡ステッカー858-4のメディアアイテム820-5内の被写体の顔の位置に対する相対的間隔を維持する。 In FIG. 8BM, device 600 detects input 894 on glasses sticker 858-4 and displays bracket 890. In FIG. In FIG. 8BN, input 894 moves eyeglass sticker 858-4 off the subject's face. When the eyeglass sticker is moved off the face, device 600 generates haptic feedback 892, stops displaying bracket 890, and returns eyeglass sticker 858-4 to its original shape (e.g., the eyeglass sticker is of the subject in FIG. 8BE). change back to a slightly slanted shape from when placed away from the face). Device 600 also changes the behavior of glasses sticker 858-4 back to the first type of behavior (behavior associated with stickers placed away from the object the sticker is tracking) and changes Change sticker appearance based on behavior. 8BN-8BQ (compared to the size of eyeglass sticker 858-4 in FIGS. 8BE-8BG), and starfish sticker 858-5. 8BJ-8BK, based on the forward movement of the subject's face in FIGS. maintain physical distance.

図8BO~図8BQは、メディアアイテム820-5内の被写体の顔に異なるステッカーを配置すること、及び異なるステッカーが、被写体の顔に動かされたことに応じて、ステッカーの異なる挙動に基づいて変更されることを表す。例えば、図8BOでは、デバイス600は、野球ステッカー858-6上の入力895を検出する。野球ステッカー858-6が図8BPの被写体の顔にドラッグされると、デバイス600は、ブラケット890を表示し、触覚フィードバック892(例えば、触知出力)を生成し、被写体の顔の角度に基づいて野球ステッカー858-6を再配置する。言い換えれば、野球ステッカー858-6の挙動は、眼鏡ステッカー858-4が被写体の顔に配置されたときの被写体の顔の回転運動に追従する方法と同様に、被写体の顔の回転運動に追従するように変化する。 8BO-8BQ are modified based on placing different stickers on the subject's face in media item 820-5 and different behavior of the stickers in response to being moved to the subject's face. It means that For example, in FIG. 8BO, device 600 detects input 895 on baseball sticker 858-6. When the baseball sticker 858-6 is dragged onto the subject's face in FIG. 8BP, the device 600 displays brackets 890 and generates haptic feedback 892 (eg, tactile output), based on the angle of the subject's face. Relocate the baseball sticker 858-6. In other words, the behavior of the baseball sticker 858-6 follows the rotational motion of the subject's face in a manner similar to how the glasses sticker 858-4 follows the rotational motion of the subject's face when placed on the subject's face. change as

図8BQでは、入力895が終了し、デバイス600はブラケット890の表示を停止する。 In FIG. 8BQ, input 895 ends and device 600 stops displaying bracket 890 .

図9A~図9Bは、一部の実施形態に係る、電子デバイスを使用してカメラアプリケーションにビジュアルエフェクトを表示するための方法を示すフロー図である。方法900は、カメラと表示装置とを備えたデバイス(例えば、100、300、500、600)にて実行される。方法900におけるいくつかの動作は、任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 9A-9B are flow diagrams illustrating methods for displaying visual effects in a camera application using an electronic device, according to some embodiments. Method 900 is performed on a device (eg, 100, 300, 500, 600) with a camera and display. Some acts in method 900 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

以下に説明するように、方法900は、カメラアプリケーションにビジュアルエフェクトを表示するための直感的な仕方を提供する。かかる方法は、カメラアプリケーションにおいて閲覧される画像にビジュアルエフェクトを適用するためのユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作コンピューティングデバイスでは、画像にビジュアルエフェクトをユーザーがより迅速かつ効率的に表示できるようにすることで、電力を節約し、バッテリ充電間の時間を増大させる。 As described below, method 900 provides an intuitive way to display visual effects in camera applications. Such a method reduces the user's cognitive burden for applying visual effects to images viewed in a camera application, thereby creating a more efficient human-machine interface. Battery-operated computing devices conserve power and increase the time between battery charges by allowing users to display visual effects on images more quickly and efficiently.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、カメラユーザインタフェース(例えば、815)を表示する(902)。カメラユーザインタフェースは、カメラ(例えば、602)を介してキャプチャされた画像データの表現(例えば、835)を含む、カメラ表示領域(例えば、820)を含む(904)。 An electronic device (eg, 600) displays (902) a camera user interface (eg, 815) via a display (eg, 601). The camera user interface includes (904) a camera display area (eg, 820) that contains a representation (eg, 835) of image data captured via the camera (eg, 602).

一部の実施形態では、画像データは、深度データ(キャプチャされた画像又はビデオの深度アスペクト(例えば、RGBデータから独立した深度データ)を含む画像データ)を含む(906)。一部の実施形態では、画像データは、少なくとも2つの成分、すなわち、キャプチャされた画像の視覚特性を符号化するRGB成分、及びキャプチャされた画像内の要素の相対的な空間的関係についての情報を符号化する深度データ(例えば、深度データは、ユーザが前景にあることを符号化し、ユーザの背後に位置する木などの背景要素は、背景にある)を含む。一部の実施形態では、深度データは深度マップである。一部の実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ)からのシーン内のオブジェクトの距離に関する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、その対応する2次元ピクセルが位置する、視点のZ軸内の位置を規定する。一部の例では、深度マップは、各ピクセルが値(例えば、0~255)によって定義されるピクセルから構成される。例えば、「0」値は、「3次元」シーンにおける最も離れた位置に配置されたピクセルを表し、「255」値は、「3次元」シーンにおける視点(例えば、カメラ)に最も近いピクセルを表す。他の例では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。一部の実施形態では、深度マップは、深度カメラの視点における関心あるオブジェクトの様々な特徴の相対的深度(例えば、ユーザの顔の目、鼻、口、耳の相対的な深度)についての情報を含む。一部の実施形態では、深度マップは、z方向の関心あるオブジェクトの輪郭をデバイスが判定することを可能にする情報を含む。 In some embodiments, the image data includes 906 depth data (image data that includes a depth aspect of a captured image or video (eg, depth data independent of RGB data)). In some embodiments, the image data has at least two components: RGB components that encode visual properties of the captured image, and information about the relative spatial relationships of elements within the captured image. (eg, depth data encodes that the user is in the foreground, and background elements such as trees located behind the user are in the background). In some embodiments the depth data is a depth map. In some embodiments, a depth map (eg, depth map image) contains information (eg, values) about the distance of objects in the scene from the viewpoint (eg, camera). In one embodiment of the depth map, each depth pixel defines the position within the Z-axis of the viewpoint at which its corresponding two-dimensional pixel is located. In some examples, the depth map consists of pixels where each pixel is defined by a value (eg, 0-255). For example, a '0' value represents the farthest located pixel in a '3D' scene, and a '255' value represents a pixel closest to the viewpoint (e.g. camera) in a '3D' scene. . In another example, the depth map represents the distance between objects in the scene and the plane of the viewpoint. In some embodiments, the depth map provides information about the relative depths of various features of the object of interest (e.g., the relative depths of the eyes, nose, mouth, ears on the user's face) in the perspective of the depth camera. including. In some embodiments, the depth map contains information that allows the device to determine the contour of the object of interest in the z-direction.

一部の実施形態では、深度データは、カメラ表示領域(例えば、820)内の被写体の表現を含む、第1の深度成分(例えば、カメラ表示領域内の被写体の空間位置を符号化する深度データの第1の部分、前景又は特定のオブジェクトなどの、深度マップの離散部分を形成する複数の深度ピクセル)を有する。一部の実施形態では、深度データは、第1の深度成分とは別個の、第2の深度成分(例えば、カメラ表示領域内の背景の空間位置を符号化する深度データの第2の部分、背景などの、深度マップの離散部分を形成する複数の深度ピクセル)を有し、第2の深度アスペクトは、カメラ表示領域における背景の表現を含む。一部の実施形態では、第1の深度アスペクト及び第2の深度アスペクトは、カメラ表示領域内の被写体とカメラ表示領域内の背景との間の空間的関係を判定するために使用される。この空間的関係は、被写体を背景から識別するために使用することができる。この識別は、例えば、異なるビジュアルエフェクト(例えば、深度成分を有するビジュアルエフェクト)を被写体及び背景に適用するために利用することができる。一部の実施形態では、第1の深度成分に対応しない画像データのすべての領域(例えば、深度カメラの範囲外である画像データの領域)は、深度マップからセグメント化される(例えば、除外される)。 In some embodiments, the depth data includes a first depth component (e.g., depth data encoding the spatial position of the object within the camera display area) that includes a representation of the object within the camera display area (e.g., 820). , a plurality of depth pixels forming a discrete portion of the depth map, such as the foreground or a particular object. In some embodiments, the depth data includes a second depth component separate from the first depth component (e.g., a second portion of the depth data encoding the spatial location of the background within the camera viewing area; A plurality of depth pixels forming a discrete portion of the depth map, such as the background, and the second depth aspect includes a representation of the background in the camera viewing area. In some embodiments, the first depth aspect and the second depth aspect are used to determine the spatial relationship between the subject within the camera viewing area and the background within the camera viewing area. This spatial relationship can be used to distinguish the subject from the background. This identification can be used, for example, to apply different visual effects (eg, visual effects with depth components) to the subject and background. In some embodiments, all regions of image data that do not correspond to the first depth component (eg, regions of image data that are outside the range of the depth camera) are segmented (eg, excluded) from the depth map. ).

一部の実施形態では、カメラ(例えば、602)を介してキャプチャされた画像データの表現(例えば、835)は、ライブカメラプレビュー(例えば、カメラの視野にあるものを表す画像データのストリーム)である。 In some embodiments, a representation (eg, 835) of image data captured via a camera (eg, 602) is a live camera preview (eg, a stream of image data representing what is in the camera's field of view). be.

一部の実施形態では、第1のカメラ表示モードがアクティブである間に、電子デバイス(例えば、600)は、カメラ表示領域(例えば、820)上のスワイプジェスチャを検出する。一部の実施形態では、カメラ表示領域上のスワイプジェスチャを検出したことに応じて、例えば、電子デバイス(例えば、600)は、カメラ表示領域内の選択されたアバターオプションの表示された表現の外観を、第1の外観(例えば、現在選択されているアバターオプションに基づく外観)から、第2の外観(例えば、異なるアバターオプション(例えば、ヌルアバターオプション、又は異なるタイプ(例えば、カスタマイズ可能な、カスタマイズ不可能な)のアバターを含む、異なるアバターに対応するアバターオプション)基づく外観)に変更し、第2の外観は、複数のアバターオプションのうちの異なる1つ(例えば、アバター選択領域に含まれる異なるアバターオプション)に対応する。カメラ表示領域上のスワイプジェスチャを検出したことに応じて、選択されたアバターオプションの表示された表現の外観を変更することによって、選択されたアバターの表現を変更するための迅速かつ容易な方法をユーザに提供する。追加表示されたコントロールによりユーザインタフェース(UI)を雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) detects a swipe gesture on the camera viewing area (eg, 820) while the first camera viewing mode is active. In some embodiments, in response to detecting a swipe gesture over the camera display area, for example, the electronic device (eg, 600) displays the appearance of the displayed representation of the selected avatar option within the camera display area. from a first appearance (e.g., an appearance based on currently selected avatar options) to a second appearance (e.g., a different avatar option (e.g., null avatar option), or a different type (e.g., customizable, customized avatar options corresponding to different avatars, including avatars that are not possible), and the second appearance changes to a different one of the multiple avatar options (e.g., a different avatar included in the avatar selection area). avatar option). A quick and easy way to change the expression of the selected avatar by changing the appearance of the displayed expression of the selected avatar option in response to detecting a swipe gesture on the camera viewing area. Provide to users. By providing additional control options without cluttering the user interface (UI) with additional displayed controls, the usability of the device is improved and the user device interface (e.g., when operating/interacting with the device) is make the device more efficient (by assisting the user in providing appropriate input and reducing user error), as well as by allowing the user to use the device more quickly and efficiently. reduce power usage and improve battery life.

一部の実施形態では、複数のアバターオプションのうちの異なる一つがヌルアバターオプションである場合、デバイス(例えば、600)は、アバターの表現を被写体の表現上に表示することを停止する(例えば、デバイスは、ユーザの頭部の画像データを仮想アバターに置換することをやめる)。一部の実施形態では、複数のアバターオプションのうちの異なる1つが、異なるアバターキャラクタ(カスタマイズ可能又はカスタマイズ不可能なアバターキャラクタを含む)のアバターオプションである場合、デバイスは、選択されたアバターキャラクタを異なるアバターキャラクタに置換する(例えば、デバイスは、アバターの表現を異なるアバターの表現に置換する)。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、画面の中心に移動する異なるアバターキャラクターのアニメーションを表示することを含む。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、ユーザの頭部に移動する異なるアバターキャラクターのアニメーションを表示することを含む。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、選択されたアバターが置換されている間に背景をぼかすことを含む。選択されたアバターキャラクターが異なるアバターキャラクターに置換されると/されている間に、アニメーションを表示する(例えば、異なるアバターキャラクタが画面の中央に移動し、異なるアバターキャラクタがユーザの頭部に移動して背景をぼかす)ことにより、アバターキャラクターが変更されているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、現在選択されているアバターオプションは第1のタイプのアバター(例えば、カスタマイズ可能なアバター)に対応し、異なるアバターオプションは第2のタイプのアバター(例えばカスタマイズ不可能なアバター)に対応する。 In some embodiments, if a different one of the multiple avatar options is a null avatar option, the device (eg, 600) stops displaying the representation of the avatar over the representation of the subject (eg, The device ceases to replace the image data of the user's head with the virtual avatar). In some embodiments, if a different one of the multiple avatar options is an avatar option for a different avatar character (including customizable or non-customizable avatar characters), the device selects the selected avatar character. Replace with a different avatar character (eg, the device replaces representations of the avatar with representations of a different avatar). In some embodiments, replacing the selected avatar character with a different avatar character includes displaying an animation of the different avatar character moving to the center of the screen. In some embodiments, replacing the selected avatar character with a different avatar character includes displaying an animation of the different avatar character moving to the user's head. In some embodiments, replacing the selected avatar character with a different avatar character includes blurring the background while the selected avatar is being replaced. Display an animation while the selected avatar character is/is replaced by a different avatar character (e.g., a different avatar character moves to the center of the screen, a different avatar character moves to the user's head, etc.). background blur) to provide visual feedback that the avatar character is being changed. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the currently selected avatar option corresponds to a first type of avatar (eg, customizable avatar) and a different avatar option corresponds to a second type of avatar (eg, non-customizable avatar). ).

一部の実施形態では、カメラ表示領域(例えば、820)内の選択されたアバターオプションの表示された表現の外観を、第1の外観から第2の外観に変更することは、選択されたアバターオプションの表現の、第1の外観を有する第1のバージョンを移動してディスプレイから外すことを含む。一部の実施形態では、カメラ表示領域内の選択されたアバターオプションの表示された表現の外観を、第1の外観から第2の外観に変更することは、選択されたアバターオプションの表現の、第2の外観を有する第2のバージョンをディスプレイの中心に実質的に移動することを含む。選択されたアバターオプションの表現の第1のバージョンを移動してディスプレイから外し、選択されたアバターオプションの表現の第2のバージョンをディスプレイの中心に実質的に移動させることにより、第1のバージョンが第2のバージョンに置換されているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, changing the appearance of the displayed representation of the selected avatar option in the camera display area (eg, 820) from the first appearance to the second appearance is Including moving a first version having a first appearance of the representation of the option off the display. In some embodiments, changing the appearance of the displayed representation of the selected avatar option in the camera display area from the first appearance to the second appearance is performed by: Including substantially moving a second version having a second appearance to the center of the display. By moving the first version of the representation of the selected avatar options off the display and substantially moving the second version of the representation of the selected avatar options to the center of the display, the first version is Provides visual feedback that it has been replaced by the second version. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、選択されたアバターオプションの表示された表現の外観を、第1の外観から第2の外観に変更することは、選択されたアバターの表現の、第1の外観を有する第1のバージョンを移動してディスプレイから外すことを含む。一部の実施形態では、選択されたアバターオプションの表示された表現の外観を、第1の外観から第2の外観に変更することは、選択されたアバターオプションの表現の、第2の外観を有する第2のバージョンを、カメラ表示領域(例えば、820)内に表示された被写体の表現の実質的に位置に移動させることを含む。選択されたアバターオプションの表現の第1のバージョンを移動してディスプレイから外し、選択されたアバターオプションの表現の第2のバージョンをカメラ表示領域に表示された被写体の表現の位置に実質的な移動させることにより、第1のバージョンが第2のバージョンに置換されているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, changing the appearance of the displayed representation of the selected avatar option from the first appearance to the second appearance has the first appearance of the representation of the selected avatar. Including moving the first version off the display. In some embodiments, changing the appearance of the displayed representation of the selected avatar option from the first appearance to the second appearance changes the appearance of the representation of the selected avatar option to the second appearance. moving the second version having a substantially position of the representation of the subject displayed within the camera display area (eg, 820). Moving the first version of the representation of the selected avatar option off the display and substantially moving the second version of the representation of the selected avatar option to the position of the representation of the subject displayed in the camera viewing area. providing visual feedback that the first version has been replaced by the second version. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、選択されたアバターオプションの表示された表現の外観を、第1の外観から第2の外観に変更することは、カメラ表示領域(例えば、820)に表示された背景の視覚的外観を変更する(例えば、背景をぼかす、背景の彩度を減じる)ことを含む。 In some embodiments, changing the appearance of the displayed representation of the selected avatar option from the first appearance to the second appearance is performed by changing the appearance of the background displayed in the camera display area (eg, 820). Including changing the visual appearance (eg, blurring the background, desaturating the background).

カメラユーザインタフェース(908)はまた、第1のカメラ表示モード(例えば、ユーザの頭部の画像データを仮想アバターに置き換えるモード)に関連付けられた第1のアフォーダンス(例えば、仮想アバターに対応するアフォーダンス)を含む。 The camera user interface 908 also displays a first affordance (e.g., an affordance corresponding to the virtual avatar) associated with the first camera display mode (e.g., a mode in which image data of the user's head is replaced with a virtual avatar). including.

一部の実施形態では、カメラユーザインタフェース(例えば、815)は、ステッカー表示モード(例えば、ステッカーを画像データに適用することが可能なモード)に関連付けられたステッカーアフォーダンス(例えば、824-2、ステッカーの表示を有効化するための機能に対応するアフォーダンス)を更に含む。一部の実施形態では、カメラ表示領域(例えば、820)に画像データ(及び、任意選択的に、選択されたアバターオプションの表現)を表示している間に、電子デバイス(例えば、600)は、ステッカーアフォーダンスに向けられたジェスチャ(例えば、図8AH)を検出する。一部の実施形態では、ステッカーアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイスはステッカー表示モードをアクティブ化し、ステッカー表示モードをアクティブ化することは、複数のステッカーオプション(例えば、858のステッカー)を含むステッカー選択領域(例えば856)を表示することと、ステッカー選択領域内の複数のステッカーオプション(例えば、858-2のステッカー)のうちの1つの選択を検出することと、選択を検出したことに応じて、選択されたステッカーオプションの表現(例えば、858-2)をカメラ表示領域内の画像データ上に表示することと、を含む。一部の実施形態では、画像データ上に表示される選択されたステッカーオプションは、表示画面(例えば、601)上に配置された外観(例えば、デバイスの画面上に物理的ステッカーを配置するユーザの外観と同様な)を有し、移動したり、又は画像データに表されたオブジェクトと対話したりすることはない。一部の実施形態では、画像データ上に表示される選択されたステッカーオプションは、表示画面上に配置された外観(例えば、デバイスの画面上に物理的ステッカーを配置するユーザの外観と同様な)を有するが、画像データに表示されるオブジェクトの移動に基づいて移動する。例えば、ステッカーはディスプレイ上に配置されているように見え、画像データ(例えば、人物)に表されたオブジェクトと対話するが、ステッカーの動きは、x及びy軸に沿った動きに制限される。換言すれば、ステッカーは、デバイスの画面に適用されるように見えるが、画像データに表されたオブジェクトによって画面上を移動することができる(例えば、画像データ内の人物がステッカーに触れる、又は画面を横切ってステッカーをドラッグするように見える)。一部の実施形態では、画像データ上に表示される選択されたステッカーオプションは、画像データの一部を形成する対話型オブジェクトとして画像データ内に挿入される外観を有する。画像データの一部を形成する対話型オブジェクトとして画像データに挿入される外観を提供することによって、選択されたステッカーが画像内の対話型オブジェクトとして作用できるという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。そのような実施形態では、ステッカーは、画像データに表されるオブジェクトとの対話に基づいて移動するように見える。例えば、ステッカーは、オブジェクトが人の肩に座っているように見え得る。人が動くと、ステッカーは人の肩と共に動き、人の肩の上に座っているような外観を維持する。これには、x軸及びy軸に沿った移動、並びに、z軸に沿った移動を含む。 In some embodiments, the camera user interface (eg, 815) displays a sticker affordance (eg, 824-2, sticker Affordances corresponding to functionality for enabling the display of In some embodiments, while displaying image data (and optionally representations of selected avatar options) in a camera display area (e.g., 820), the electronic device (e.g., 600) , detects gestures directed at the sticker affordance (eg, FIG. 8AH). In some embodiments, the electronic device activates a sticker display mode in response to detecting a gesture directed to the sticker affordance, and activating the sticker display mode includes multiple sticker options (e.g., 858 displaying a sticker selection area (e.g., 856) containing stickers of 858-2); detecting selection of one of a plurality of sticker options (e.g., stickers of 858-2) in the sticker selection area; responsive to the detection, displaying a representation of the selected sticker option (eg, 858-2) over the image data within the camera display area. In some embodiments, the selected sticker option displayed on the image data is an appearance placed on the display screen (e.g., 601) (e.g., the user placing a physical sticker on the screen of the device). appearance) and does not move or interact with objects represented in the image data. In some embodiments, the selected sticker option displayed on the image data is the appearance placed on the display screen (e.g., similar to the appearance of a user placing a physical sticker on the screen of a device). , but moves based on the movement of objects displayed in the image data. For example, a sticker appears to be placed on a display and interacts with an object represented in the image data (eg, a person), but movement of the sticker is restricted to movement along the x and y axes. In other words, the sticker appears to be applied to the screen of the device, but can be moved on the screen by objects represented in the image data (e.g., a person in the image data touches the sticker or ). In some embodiments, the selected sticker option displayed on the image data has the appearance of being inserted into the image data as an interactive object forming part of the image data. By providing an appearance that is inserted into the image data as an interactive object forming part of the image data, visual feedback is provided that the selected sticker can act as an interactive object within the image. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In such embodiments, the sticker appears to move based on interaction with the object represented in the image data. For example, a sticker may appear to have an object sitting on a person's shoulder. As the person moves, the sticker moves with the person's shoulder and maintains the appearance of sitting on the person's shoulder. This includes movement along the x- and y-axes, as well as movement along the z-axis.

一部の実施形態では、カメラ表示領域(例えば、820)の画像データ上に、選択されたステッカーオプション(例えば、858-1、858-2、858-3、858-4、858-5、858-6)の表現を表示している間に、デバイス(例えば、600)は、1つ以上のカメラ(例えば、602)の視野内の被写体(例えば、832)の横方向の動きを検出する。1つ以上のカメラの視野内の被写体の横方向の動きを検出したことに応じて、デバイスは、1つ以上のカメラの視界内の被写体の動きに従って、(例えば、ステッカーの被写体との関係にかかわらず)選択されたステッカーオプションの表現を横方向に移動させる(例えば、図8AV~図8AYのヘルメットステッカー858-1を参照)。選択されたステッカーオプションの表現を、1つ以上のカメラの視野内の被写体の横方向の動きに従って横方向に移動させることによって、選択されたステッカーが画像内の対話型オブジェクトとして作用できるという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, a selected sticker option (eg, 858-1, 858-2, 858-3, 858-4, 858-5, 858 -6), the device (eg, 600) detects lateral motion of an object (eg, 832) within the field of view of one or more cameras (eg, 602). In response to detecting lateral movement of a subject within the field of view of the one or more cameras, the device follows the movement of the subject within the field of view of the one or more cameras (e.g., relative to the subject of the sticker). regardless) laterally shifts the representation of the selected sticker option (see, eg, helmet sticker 858-1 in FIGS. 8AV-8AY). Visual feedback that the selected sticker can act as an interactive object in the image by laterally moving the representation of the selected sticker option according to the lateral movement of the subject within the field of view of one or more cameras. I will provide a. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、カメラ表示領域(例えば、820)の画像データ上に、選択されたステッカーオプション(例えば、858-1、858-2、858-3、858-4、858-5、858-6)の表現を表示している間に、デバイス(例えば、600)は、1つ以上のカメラ(例えば、602)の視野内の被写体(例えば、832)の回転(例えば、ディスプレイに垂直な軸に対する回転、例えば、頭部を回転させる被写体)を検出する。デバイスは、1つ以上のカメラの視野内の被写体の回転を検出したことに応じて、以下のステップのうちの1つ以上を実行する。選択されたステッカーオプションの表現が、被写体に対して第1の関係を有する(第1の関係で配置されていた)(例えば、ステッカーは、最初に(又は現在)被写体に対応するディスプレイ上の位置に配置されていた、例えば、ステッカーは、被写体の顔の表現上、又は他の指定された領域(例えば、ブラケット(例えば、890))上に配置されている)を有する(例えば、配置された)との判定に従って、デバイスは、選択されたステッカーオプションの表現を、被写体の回転の大きさ及び向きに従って回転させる(例えば、ステッカーが回転し、被写体の顔のピッチ及びヨーに追従するようにひねる)(例えば、図8BH~図8BMの眼鏡ステッカー858-4を参照)。選択されたステッカーオプションの表現が、被写体に対して第1の関係(例えば、ステッカーは、最初に(又は現在)被写体から離れたディスプレイ上の位置に配置されていた、例えば、ステッカーは、被写体の顔の表現又は他の指定された領域の外に置かれた)を有しない(例えば、配置されていなかった)との判定に従って、デバイスは、選択されたステッカーオプションの表現を、被写体の回転の大きさ及び向きに従って回転させることをやめる(例えば、図8BE~図8BNのヒトデステッカー858-5及び野球ステッカー858-6を参照)。選択されたステッカーオプションの表現が被写体と第1の関係を有するかどうかに基づいて、選択されたステッカーオプションの表現を選択的に回転させることによって、選択されたステッカーオプションの挙動についての視覚フィードバックを提供し、選択されたステッカーオプションが画像内の対話型オブジェクトとして機能できることを示す。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, a selected sticker option (eg, 858-1, 858-2, 858-3, 858-4, 858-5, 858 -6), the device (eg, 600) rotates (eg, perpendicular to the display) an object (eg, 832) within the field of view of one or more cameras (eg, 602). Detect rotation about an axis, eg subject turning head). The device performs one or more of the following steps in response to detecting rotation of an object within the field of view of one or more cameras. The representation of the selected sticker option has the first relationship (was placed in the first relationship) to the subject (e.g., the sticker is initially (or currently) located at the position on the display corresponding to the subject For example, the sticker is placed on a representation of the subject's face, or on another designated area (e.g., bracket (e.g., 890)). ), the device rotates the representation of the selected sticker option according to the magnitude and orientation of the subject's rotation (e.g., the sticker rotates and twists to follow the pitch and yaw of the subject's face). ) (see, eg, eyeglass sticker 858-4 in FIGS. 8BH-8BM). A representation of the selected sticker option has a first relationship to the subject (e.g., the sticker was initially (or currently) placed at a position on the display away from the subject, e.g. (e.g., was not positioned), the device changes the representation of the selected sticker option to the rotation of the subject. Stop rotating according to size and orientation (see, eg, starfish sticker 858-5 and baseball sticker 858-6 in FIGS. 8BE-8BN). Providing visual feedback about the behavior of the selected sticker option by selectively rotating the representation of the selected sticker option based on whether the representation of the selected sticker option has a first relationship with the subject. to indicate that the selected sticker option can act as an interactive object within the image. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、カメラ表示領域(例えば、820)の画像データ上に、選択されたステッカーオプション(例えば、858-1、858-2、858-3、858-4、858-5、858-6)の表現を表示している間に、デバイス(例えば、600)は、1つ以上のカメラ(例えば、602)に向かう(又はカメラから離れる)被写体(例えば、832)の動きを検出する。デバイスは、1つ以上のカメラに向かう(又はカメラから離れる)被写体の動きを検出したことに応じて、以下の手順のうちの1つ以上を実行する。選択されたステッカーオプションの表現が、被写体に対して第1の関係(例えば、ステッカーは、最初に(又は現在)被写体に対応するディスプレイ上の位置に配置されていた、例えば、ステッカーは、被写体の顔の表現がカメラの視野内に存在した(例えば、検出された)ときに配置された)を有する(例えば、配置された)との判定に従って、デバイスは、1つ以上のカメラに向かう(又はカメラから離れる)被写体の動きの大きさに従って、選択されたステッカーオプションの表現を拡大する(又は縮小する)。例えば、ウサギステッカー858-2は、被写体の肩の表現がカメラに向かって移動することに応じて、図8AX及び8AYに示すように拡大する。別の例では、ヒトデステッカー858-5及び野球ステッカー858-6は、被写体が図8BJ~図8BKのカメラに向かって移動するにつれて拡大する。選択されたステッカーオプションの表現が、被写体に対して第1の関係(例えば、ステッカーは、最初に(又は現在)被写体から離れたディスプレイ上の位置に配置されていた。例えば、ステッカーは、被写体の顔の表現がカメラの視野内に存在しない(例えば、検出されない)ときに配置された)を有しない(例えば、配置されなかった)との判定に従って、デバイスは、1つ以上のカメラに向かう(又はカメラから離れる)被写体の動きの大きさに従って、選択されたステッカーオプションの表現を拡大することを停止する(例えば、図8AV~図8AYのヘルメットステッカー858-1及びハートステッカー858-3を参照)。選択されたステッカーオプションの表現が被写体と第1の関係を有するかどうかに基づいて、選択されたステッカーオプションの表現を選択的に拡大(又は縮小)させることによって、選択されたステッカーオプションの挙動についての視覚フィードバックを提供し、選択されたステッカーオプションが画像内の対話型オブジェクトとして機能できることを示す。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, a selected sticker option (eg, 858-1, 858-2, 858-3, 858-4, 858-5, 858 - 6) while displaying the representation, the device (eg, 600) detects movement of the object (eg, 832) toward (or away from) one or more cameras (eg, 602); . In response to detecting motion of a subject toward (or away from) one or more cameras, the device performs one or more of the following procedures. A representation of the selected sticker option has a first relationship to the subject (e.g., the sticker was initially (or currently) placed at a position on the display corresponding to the subject; The device faces one or more cameras (or Scale up (or scale down) the representation of the selected sticker option according to the amount of motion of the subject (away from the camera). For example, rabbit sticker 858-2 expands as shown in FIGS. 8AX and 8AY as the subject's shoulder representation moves toward the camera. In another example, starfish sticker 858-5 and baseball sticker 858-6 expand as the subject moves toward the camera of FIGS. 8BJ-8BK. A representation of the selected sticker option has a first relationship to the subject (e.g., the sticker was initially (or currently) placed at a position on the display away from the subject. Upon determining that the facial representation is not (e.g., not positioned) when not in the camera's field of view (e.g., not detected), the device points to one or more cameras ( (or away from the camera) stops enlarging the representation of the selected sticker option (see, for example, helmet sticker 858-1 and heart sticker 858-3 in FIGS. 8AV-8AY). . behavior of the selected sticker option by selectively expanding (or contracting) the representation of the selected sticker option based on whether the representation of the selected sticker option has a first relationship with the subject; to indicate that the selected sticker option can act as an interactive object within the image. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

被写体がカメラ(例えば、602)の視野内に位置し、かつ、被写体及び背景(例えば、被写体以外のカメラの視野内のオブジェクト)の表現がカメラ表示領域(例えば、820)内に表示されている間に、電子デバイス(例えば、600)は、第1のアフォーダンスに向けられたジェスチャを検出する(910)。一部の実施形態では、電子デバイスは、被写体が視野内に位置していることを検出(例えば、認識)する。 A subject is located within the field of view of the camera (eg, 602) and a representation of the subject and background (eg, objects within the field of view of the camera other than the subject) are displayed within the camera display area (eg, 820). Meanwhile, the electronic device (eg, 600) detects 910 a gesture directed at the first affordance. In some embodiments, the electronic device detects (eg, recognizes) that an object is located within the field of view.

一部の実施形態では、カメラユーザインタフェース(例えば、815)は、キャプチャアフォーダンスを表示している間に、カメラの視野のライブプレビューの表現(例えば、カメラの視野にあるものを表す画像データのストリーム)を含むカメラ表示領域(例えば、820)を更に含む。一部の実施形態では、被写体がカメラの視野内に位置し(例えば、電子デバイスは、被写体が視野に位置していることを検出/認識する)、被写体と背景の表現(例えば、被写体以外のカメラの視野内のオブジェクト)がカメラ表示領域に表示されている間に、電子デバイス(例えば、600)は、選択されたアバターの表現を、カメラ表示領域内の被写体の表現上に表示する(例えば、ユーザの表示された頭部又は顔の部分が、選択されたアバターに対応する仮想アバターの頭部に置換される(又は、それによって(不透明に、透明に、半透明に)重ね合わせられる)。一部の実施形態では、電子デバイスは、選択されたアバターの表現を、カメラ表示領域内の被写体の表現上に表示している間に、アバター選択領域を表示する要求を受信する。一部の実施形態では、アバター選択領域を表示する要求を受信したことに応じて、電子デバイスは、キャプチャアフォーダンスの表示を停止し、複数のアバターアフォーダンスを有するアバター選択領域(例えば、アバターメニュー828)を(例えば、キャプチャアフォーダンスによって以前に占有されていたカメラユーザインタフェース内の位置に)表示する。一部の実施形態では、アバター選択領域がもはや表示されていないことに応じて(又は、それと共に)、キャプチャアフォーダンスが表示される(例えば、再表示される)。 In some embodiments, the camera user interface (e.g., 815) displays a live preview representation of the camera's field of view (e.g., a stream of image data representing what is in the camera's field of view) while displaying the capture affordances. ), further including a camera viewing area (eg, 820). In some embodiments, the subject is located within the field of view of the camera (e.g., the electronic device detects/recognizes that the subject is located in the field of view) and a representation of the subject and background (e.g., While the object within the field of view of the camera is displayed in the camera display area, the electronic device (eg, 600) displays a representation of the selected avatar over the representation of the subject within the camera display area (eg, , the user's displayed head or face portion is replaced with (or overlaid (opaquely, transparently, translucently) by) the head of the virtual avatar corresponding to the selected avatar. In some embodiments, the electronic device receives a request to display the avatar selection area while displaying a representation of the selected avatar over a representation of the subject within the camera display area. In the embodiment of , in response to receiving a request to display an avatar selection area, the electronic device stops displaying capture affordances and displays an avatar selection area (e.g., avatar menu 828) having multiple avatar affordances (e.g., avatar menu 828) ( (e.g., at a location in the camera user interface previously occupied by the capture affordance) In some embodiments, in response to (or in conjunction with) the avatar selection area being no longer displayed, the capture The affordance is displayed (eg, redisplayed).

一部の実施形態では、カメラユーザインタフェース(例えば、815)は、キャプチャアフォーダンス(例えば、821)を表示している間に、カメラの視野のライブプレビューの表現(例えば、カメラの視野にあるものを表す画像データのストリーム)を含むカメラ表示領域(例えば、820)を更に含む。一部の実施形態では、被写体がカメラの視野内に位置し、かつ、被写体と背景の表現(例えば、被写体以外のカメラの視野内のオブジェクト)がカメラ表示領域に表示されている間に、電子デバイス(例えば、600)は、選択されたアバターの表現を、カメラ表示領域内の被写体の表現上に表示する(例えば、ユーザの表示された頭部又は顔の部分が、選択されたアバターに対応する仮想アバターの頭部に置換される(又は、それによって(不透明に、透明に、半透明に)重ね合わせられる)。一部の実施形態では、電子デバイスは、被写体が視野内に位置していることを検出(例えば、認識)する。一部の実施形態では、電子デバイスは、選択されたアバターの表現をカメラ表示領域内の被写体の表現上に表示している間に、被写体の姿勢(例えば、位置及び/又は向き)の変化を検出する。一部の実施形態では、姿勢の変化は、ユーザが頭部又は任意の顔の特徴を動かすときに検出される。一部の実施形態では、電子デバイスは、(例えば、方法900及び図9A~図9Bに関して説明したように)被写体の姿勢の変化を検出したことに応じて、背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する。背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更することにより、ユーザは、アバターの動きが、ユーザの検出された動きに対応する、及び/又はそれに基づいていることを迅速かつ容易に認識することができる。追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the camera user interface (e.g., 815) displays a live preview representation of the camera's field of view (e.g., what is in the camera's field of view) while displaying the capture affordances (e.g., 821). It also includes a camera display area (eg, 820) that contains a stream of image data to represent. In some embodiments, the electronic The device (eg, 600) displays a representation of the selected avatar over a representation of the subject within the camera display area (eg, the displayed head or face portion of the user corresponds to the selected avatar). (or superimposed (opaquely, transparently, semi-transparently)) on the head of a virtual avatar that represents the subject. In some embodiments, the electronic device detects (eg, recognizes) the subject's pose ( position and/or orientation).In some embodiments, a change in posture is detected when the user moves the head or any facial feature.In some embodiments, a change in posture is detected. , the electronic device, in response to detecting a change in subject pose (eg, as described with respect to method 900 and FIGS. 9A-9B), maintains a display of the background while maintaining the detected pose of the subject. Change the appearance of the displayed representation of the selected avatar option based on the change: change the appearance of the displayed representation of the selected avatar option based on the detected change in the pose of the subject, while maintaining the display of the background By changing the appearance of the representation, the user can quickly and easily recognize that the avatar's movements correspond to and/or are based on the user's detected movements.Additional control options By providing a ) more efficient and, in addition, reduce device power usage and improve battery life by allowing users to use the device more quickly and efficiently.

第1のアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、第1のカメラ表示モードをアクティブ化する。第1のカメラ表示モードをアクティブ化することは、アバター選択領域(例えば、829)を表示すること(914)を含む(例えば、複数のアバターオプションのうちの選択された1つ(例えば、カメラユーザインタフェース(例えば、815)のカメラ表示領域(例えば、820)内のユーザの頭部上に現れるように選択できる異なる仮想アバターを表すアフォーダンス)を含む)。 In response to detecting a gesture directed at the first affordance, the electronic device (eg, 600) activates the first camera viewing mode. Activating the first camera display mode includes displaying (914) an avatar selection area (eg, 829) (eg, selecting one of a plurality of avatar options (eg, camera user affordances representing different virtual avatars that can be selected to appear on the user's head within the camera viewing area (eg, 820) of the interface (eg, 815)).

一部の実施形態では、アバター選択領域(例えば、829)は、選択されたアバターオプションの表現を、カメラディスプレイ内の被写体の表現上に表示することを停止するためのオプションを更に含む。一部の実施形態では、電子デバイス(例えば、600)は、選択されたアバターオプションの表現を、カメラ表示領域内(例えば、820)の被写体の表現上に表示することを停止するためのオプションの選択に対応するユーザ入力を受信する。一部の実施形態では、選択されたアバターオプションの表現を、カメラ表示領域の被写体の表現上に表示することを停止するためのオプションの選択に対応するユーザ入力を受信したことに応じて、電子デバイスは、選択されたアバターオプションの表現をカメラ表示領域の被写体の表現上に表示することを停止する。 In some embodiments, the avatar selection area (eg, 829) further includes an option to stop displaying a representation of the selected avatar option over the representation of the subject in the camera display. In some embodiments, the electronic device (eg, 600) provides an option to stop displaying a representation of the selected avatar option over the representation of the subject within the camera display area (eg, 820). Receive user input corresponding to the selection. In some embodiments, the electronic The device stops displaying a representation of the selected avatar option over the representation of the subject in the camera viewing area.

一部の実施形態では、アバター選択領域(例えば、829)は、ヌルアバターオプション(例えば、830-2)を含む。ヌルアバターオプションが選択されると、アバターは、カメラ表示領域(例えば、820)内の被写体の表現上に表示されない(例えば、デバイスは、ユーザの頭部の画像データを仮想アバターに置換することをやめる)。一部の実施形態では、アバター選択領域は、「キャンセル」アフォーダンス(例えば、アバター選択領域の角に位置する「x」アイコン)を含む。キャンセルアフォーダンスが選択されると、デバイスは、アバター選択領域の表示を停止し、任意選択的に、被写体の表現上への任意の選択されたアバターの表示を停止する(例えば、デバイスは、ユーザの頭部の画像データを仮想アバターに置換するのをやめる)。 In some embodiments, the avatar selection area (eg, 829) includes a null avatar option (eg, 830-2). If the null avatar option is selected, no avatar will be displayed over the subject's representation in the camera display area (eg, 820) (eg, the device may choose to replace the image data of the user's head with a virtual avatar). stop). In some embodiments, the avatar selection area includes a "cancel" affordance (eg, an "x" icon located in the corner of the avatar selection area). When the cancel affordance is selected, the device stops displaying the avatar selection area and optionally stops displaying any selected avatars on the representation of the subject (e.g., the device stops displaying the user's stop replacing head image data with virtual avatars).

一部の実施形態では、第1のカメラ表示モード(例えば、ユーザの頭部の画像データが仮想アバターに置換されるアバター表示モード)をアクティブ化することは、選択されたアバターオプションの表現をカメラ表示領域(例えば、820)内の被写体の表現上に表示する前に、選択されたアバターオプションの表現を被写体の表現上に表示することなく、被写体の表現をカメラ表示領域に表示すること(916)を、更に含む。一部の実施形態では、アバター表示モードに入った後、デバイスは、アバターなしで(例えば、デバイスはユーザーの頭部の画像データを仮想アバターに置換するのをやめる)被写体の表現を最初に表示する。一部の実施形態では、アバター表示モードに入るときに最初に選択されるアバターオプションは、ヌルアバターオプションに対応する。ヌルアバターオプションが選択されると、デバイスは、被写体の頭部の画像データを仮想アバターに置換することをやめる。 In some embodiments, activating a first camera display mode (eg, an avatar display mode in which image data of the user's head is replaced with a virtual avatar) causes a representation of the selected avatar options to appear in the camera. Displaying 916 a representation of the subject in the camera display area without displaying a representation of the selected avatar option over the representation of the subject prior to displaying it over the representation of the subject in the display area (e.g., 820). ), further including In some embodiments, after entering avatar display mode, the device initially displays a representation of the subject without an avatar (e.g., the device stops replacing image data of the user's head with a virtual avatar). do. In some embodiments, the avatar option initially selected when entering avatar display mode corresponds to the null avatar option. When the null avatar option is selected, the device stops replacing the subject's head image data with the virtual avatar.

第1のカメラ表示モードをアクティブ化することは、カメラ表示領域(例えば、820)内の被写体の表現上に、選択されたアバターオプションの表現を表示すること(918)を含む(例えば、ユーザの表示された頭部又は顔の部分が、選択されたアバターに対応する仮想アバターの頭部に置換される(又は、それによって(不透明に、透明に、半透明に)重ねら合わせられる)。選択されたアバターオプションの表現をカメラ表示領域内の被写体の表現上に表示することにより、ユーザは、選択されたアバターオプションが被写体の表現に関連することを迅速かつ容易に認識することができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、選択されたアバターオプションの表現を被写体の表現上に表示することは、電子デバイス(例えば、600)の1つ以上の深度カメラを使用して取得される深度情報を使用することを含む。 Activating the first camera display mode includes displaying (918) a representation of the selected avatar option (e.g., the user's The displayed head or face part is replaced with (or overlaid (opaquely, transparently, translucently) by) the head of the virtual avatar corresponding to the selected avatar. By displaying a representation of the selected avatar option over the representation of the subject within the camera display area, the user can quickly and easily recognize that the selected avatar option relates to the representation of the subject. By providing the user with enhanced visual feedback, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In an embodiment of , displaying a representation of the selected avatar option on the representation of the subject uses depth information obtained using one or more depth cameras of the electronic device (e.g., 600). including.

一部の実施形態では、第1のカメラ表示モードをアクティブ化することは、選択されたアバターオプションを、アバター選択領域(例えば、829)に静的外観(例えば、アバター外観がユーザの顔の検出された変化に基づいて変化しない)で表示することを更に含む。一部の実施形態では、第1のカメラ表示モードをアクティブにすることは、選択されたアバターオプションを、被写体の姿勢の検出された変化に基づいて変化する(例えば、アバターは、ユーザの顔の検出された変化を反映するように変化する)動的外観を有するように更新することを更に含む。一部の実施形態では、第1のカメラ表示モードをアクティブにすることは、アバター選択領域からカメラ表示領域(例えば、820)内の被写体の表現(例えば、ユーザの顔の表現)に移動する動的外観を有する、選択されたアバターのアニメーションを表示することを更に含む。一部の実施形態では、アバターは、アバター選択領域からカメラ表示領域内のユーザーの顔へのアニメーション移動中に、ユーザーの顔の変化を追跡し続ける。 In some embodiments, activating the first camera display mode places the selected avatar option in the avatar selection area (eg, 829) with a static appearance (eg, the avatar appearance is the detection of the user's face). (not changed based on the changes made). In some embodiments, activating the first camera display mode changes the selected avatar option based on a detected change in the pose of the subject (e.g., the avatar changes the shape of the user's face). Updating to have a dynamic appearance that changes to reflect the detected change. In some embodiments, activating the first camera display mode includes moving from the avatar selection area to a representation of the subject (eg, a representation of the user's face) within the camera display area (eg, 820). displaying an animation of the selected avatar having a masculine appearance. In some embodiments, the avatar keeps track of changes in the user's face during the animated move from the avatar selection area to the user's face in the camera viewing area.

一部の実施形態では、選択されたアバターオプションを、被写体の姿勢の検出された変化に基づいて変化する動的外観を有するように更新することは、被写体の姿勢の検出された変化に基づいてアバターオプションの外観を変更する前に、静的外観を有するアバターオプションの姿勢に対応する(例えば、一致する)初期姿勢と共に、動的外観を有するアバターオプションを最初に表示することを含む。 In some embodiments, updating the selected avatar option to have a dynamic appearance that changes based on the detected change in the subject's pose is performed based on the detected change in the subject's pose. This includes initially displaying avatar options with dynamic appearances, with initial poses corresponding to (eg, matching) the poses of avatar options with static appearances, before changing the appearance of the avatar options.

第1のカメラ表示モードがアクティブである間に、電子デバイス(例えば、600)は、姿勢の変化(例えば、被写体の位置及び/又は向き)を検出する(920)。一部の実施形態では、姿勢の変化は、ユーザが頭部又は任意の顔の特徴を動かすときに検出される。 While the first camera view mode is active, the electronic device (eg, 600) detects a change in pose (eg, subject position and/or orientation) (920). In some embodiments, a change in posture is detected when the user moves the head or any facial feature.

被写体の姿勢の変化を検出したことに応じて、電子デバイス(例えば、600)は、背景(例えば、836)の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更する(922)(例えば、ユーザ上に表示された仮想アバターは、背景をなおも表示しながら、ユーザの頭部及び顔の変化が表示された仮想アバターの変化に影響を及ぼすように、ユーザの頭部及び顔の検出された変化に応答する)。背景の表示を維持しながら、被写体の姿勢の検出された変化に基づいて、選択されたアバターオプションの表示された表現の外観を変更することにより、ユーザは、アバターの動きが、ユーザの検出された動きに対応する、及び/又はそれに基づいていることを迅速かつ容易に認識することができる。追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、カメラユーザインタフェースは、図6A~図6BQ及び図9A~図9Bに示す実施形態に関して説明したカメラユーザインタフェースの1つ以上の特徴/機能を含む。例えば、カメラユーザインタフェース(例えば、815)は、エフェクトモードアフォーダンス(例えば、622)を含むことができる。 In response to detecting a change in the pose of the subject, the electronic device (eg, 600) selects an image based on the detected change in pose of the subject while maintaining display of the background (eg, 836). Change the appearance of the displayed representation of the avatar option (922) (e.g., the virtual avatar displayed on the user changes to a virtual avatar in which changes in the user's head and face are displayed while still displaying the background). response to detected changes in the user's head and face to affect changes in ). By changing the appearance of the displayed representation of the selected avatar option based on the detected change in the pose of the subject, while maintaining the display of the background, the user is able to see how the avatar's movements correspond to the user's detected movement. It can be quickly and easily recognized that it corresponds to and/or is based on the By providing additional control options, the usability of the device is improved and the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, preventing user error). In addition, it reduces the power usage of the device and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, the camera user interface includes one or more features/functions of the camera user interface described with respect to the embodiments shown in FIGS. 6A-6BQ and 9A-9B. For example, a camera user interface (eg, 815) can include an effects mode affordance (eg, 622).

一部の実施形態では、電子デバイス(例えば、600)は、アバター選択領域(例えば、829)上の水平スワイプジェスチャを検出する。一部の実施形態では、水平スワイプジェスチャを検出したことに応じて、電子デバイスは、複数のアバターオプションに新規アバターオプションを追加するための機能に関連付けられたアバター作成アフォーダンスを表示する。水平スワイプジェスチャを検出したことに応じて、複数のアバターオプションに新規アバターオプションを追加するための機能に関連付けられたアバター作成アフォーダンスを表示することにより、ユーザは、アバター選択領域からアバター作成アフォーダンスに迅速かつ容易にアクセスすることができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、アバター選択領域上の水平スワイプジェスチャが、表示されたアバターオプションをスクロールしてアバター作成アフォーダンスを明らかにする。一部の実施形態では、アバター作成アフォーダンスを選択して、新規アバターを作成することができる。新規アバターが作成されると、作成されたアバターを表す新規アバターオプションが、アバター選択領域内の複数のアバターオプション(例えば、830)に追加される。 In some embodiments, the electronic device (eg, 600) detects a horizontal swipe gesture over the avatar selection area (eg, 829). In some embodiments, in response to detecting the horizontal swipe gesture, the electronic device displays an avatar creation affordance associated with functionality for adding new avatar options to multiple avatar options. By displaying an avatar creation affordance associated with functionality for adding a new avatar option to multiple avatar options in response to detecting a horizontal swipe gesture, the user can quickly navigate from the avatar selection area to the avatar creation affordance. and easily accessible. By providing additional control options without cluttering the user interface with additional visible controls, the usability of the device is improved and the user device interface (e.g., appropriate inputs when manipulating/interacting with the device) and make it more efficient (by reducing user error), as well as reduce the power usage of the device by allowing the user to use the device more quickly and efficiently reduce and improve battery life. In some embodiments, a horizontal swipe gesture over the avatar selection area scrolls through displayed avatar options to reveal avatar creation affordances. In some embodiments, an avatar creation affordance can be selected to create a new avatar. When a new avatar is created, a new avatar option representing the created avatar is added to the plurality of avatar options (eg, 830) within the avatar selection area.

一部の実施形態では、第1のカメラ表示モードがアクティブである間に、電子デバイス(例えば、600)は、アバター選択領域(例えば、829)上のスワイプジェスチャを検出する。一部の実施形態では、アバター選択領域上のスワイプジェスチャを検出したことに応じて、電子デバイスは、カメラ表示領域(例えば、820)内の選択されたアバターオプションの表示された表現の外観を、第1の外観(例えば、現在選択されているアバターオプションに基づく外観)から、第2の外観(例えば、異なるアバターオプション(例えば、ヌルアバターオプション、又は異なるタイプ(例えば、カスタマイズ可能な、カスタマイズ不可能な)のアバターを含む、異なるアバターに対応するアバターオプション)基づく外観)に変更し、第2の外観は、複数のアバターオプションのうちの異なる1つ(例えば、アバター選択領域に含まれる異なるアバターオプション)に対応する。アバター選択領域上のスワイプジェスチャを検出したことに応じて、選択されたアバターオプションの表示された表現の外観を変更することにより、ユーザは、選択されたアバターオプションの外観を迅速かつ容易に変更することができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、複数のアバターオプションのうちの異なる一つがヌルアバターオプション(例えば、830-2)である場合、デバイスは、アバターの表現を被写体の表現上に表示することを停止する(例えば、デバイスは、ユーザの頭部の画像データを仮想アバターに置換することをやめる)。一部の実施形態では、複数のアバターオプションのうちの異なる1つが、異なるアバターキャラクタ(カスタマイズ可能又はカスタマイズ不可能なアバターキャラクタを含む)のアバターオプションである場合、デバイスは、選択されたアバターキャラクタを異なるアバターキャラクタに置換する(例えば、デバイスは、アバターの表現を異なるアバターの表現に置換する)。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、画面の中心に移動する異なるアバターキャラクターのアニメーションを表示することを含む。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、ユーザの頭部に移動する異なるアバターキャラクターのアニメーションを表示することを含む。一部の実施形態では、選択されたアバターキャラクターを異なるアバターキャラクターに置換することは、選択されたアバターが置換されている間に背景(例えば、836)をぼかすことを含む。一部の実施形態では、現在選択されているアバターオプションは第1のタイプのアバター(例えば、カスタマイズ可能なアバター)に対応し、異なるアバターオプションは第2のタイプのアバター(例えばカスタマイズ不可能なアバター)に対応する。 In some embodiments, the electronic device (eg, 600) detects a swipe gesture on the avatar selection area (eg, 829) while the first camera display mode is active. In some embodiments, in response to detecting a swipe gesture over the avatar selection area, the electronic device changes the appearance of the displayed representation of the selected avatar option in the camera display area (e.g., 820) to From a first appearance (e.g., an appearance based on currently selected avatar options) to a second appearance (e.g., a different avatar option (e.g., null avatar option) or a different type (e.g., customizable, non-customizable) Avatar options corresponding to different avatars, including the avatar of the ), and the second appearance changes to a different one of the multiple avatar options (e.g., a different avatar option included in the avatar selection area). ). By changing the appearance of the displayed representation of the selected avatar option in response to detecting a swipe gesture over the avatar selection area, the user quickly and easily changes the appearance of the selected avatar option. be able to. By providing additional control options without cluttering the user interface with additional visible controls, the usability of the device is improved and the user device interface (e.g., appropriate inputs when manipulating/interacting with the device) and make it more efficient (by reducing user error), as well as reduce the power usage of the device by allowing the user to use the device more quickly and efficiently reduce and improve battery life. In some embodiments, if a different one of the multiple avatar options is a null avatar option (eg, 830-2), the device stops displaying the avatar's representation over the subject's representation ( For example, the device stops replacing image data of the user's head with a virtual avatar). In some embodiments, if a different one of the multiple avatar options is an avatar option for a different avatar character (including customizable or non-customizable avatar characters), the device selects the selected avatar character. Replace with a different avatar character (eg, the device replaces representations of the avatar with representations of a different avatar). In some embodiments, replacing the selected avatar character with a different avatar character includes displaying an animation of the different avatar character moving to the center of the screen. In some embodiments, replacing the selected avatar character with a different avatar character includes displaying an animation of the different avatar character moving to the user's head. In some embodiments, replacing the selected avatar character with a different avatar character includes blurring the background (eg, 836) while the selected avatar is being replaced. In some embodiments, the currently selected avatar option corresponds to a first type of avatar (eg, customizable avatar) and a different avatar option corresponds to a second type of avatar (eg, non-customizable avatar). ).

一部の実施形態では、第1のカメラ表示モードがアクティブである間に、被写体がカメラの視野内にもはや位置していない(例えば、顔の追跡が失われた)との判定に応じて、電子デバイス(例えば、600)は、カメラ表示領域(例えば、820)内の中心位置に移動する選択されたアバターオプションの表現のアニメーションを表示する。被写体がもはやカメラの視野内に位置していないという判定に応じて、カメラ表示領域の中心位置に移動する選択されたアバターオプションの表現のアニメーションを表示することにより、ユーザがもはやカメラによって検出されていないという視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ユーザがカメラの視野内でもはや検出されなくなると、アバターはカメラ表示領域の中心に移動する。一部の実施形態では、ユーザがカメラの視野内でもはや検出されなくなると、背景はぼやける。 In some embodiments, in response to determining that the subject is no longer within the field of view of the camera (e.g., face tracking is lost) while the first camera display mode is active: The electronic device (eg, 600) displays an animated representation of the selected avatar option moving to a centered position within the camera viewing area (eg, 820). In response to a determination that the subject is no longer located within the field of view of the camera, the user is no longer detected by the camera by displaying an animation of a representation of the selected avatar option moving to a center position in the camera viewing area. Provide the user with visual feedback that there is no By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the avatar moves to the center of the camera viewing area when the user is no longer detected within the camera's field of view. In some embodiments, the background blurs when the user is no longer detected within the field of view of the camera.

一部の実施形態では、第1のカメラ表示モードがアクティブである間に、被写体がカメラの視野内にもはや位置していない(例えば、顔の追跡が失われた)との判定に応じて、電子デバイス(例えば、600)は、カメラ表示領域(例えば、820)に表示された背景(例えば、836)の視覚的外観を変更する(例えば、背景をぼかす、背景の彩度を減じる)。 In some embodiments, in response to determining that the subject is no longer within the field of view of the camera (e.g., face tracking is lost) while the first camera display mode is active: The electronic device (eg, 600) modifies the visual appearance (eg, blurs the background, desaturates the background) of the background (eg, 836) displayed in the camera display area (eg, 820).

一部の実施形態では、第1のカメラ表示モードがアクティブであり、選択されたアバターオプションの表現(例えば、アバター選択領域から選択されたカスタマイズ可能なアバターオプションの表現)が、カメラ表示領域(例えば、820)内の被写体の表示上に表示されている(例えば、ユーザの頭部の画像データがカスタマイズ可能なアバターに置換されている)間に、電子デバイス(例えば、600)は、アバター選択領域(例えば、829)内の選択されたアバターオプション上のタッチジェスチャ(例えば、タップジェスチャ)を検出する。一部の実施形態では、タッチジェスチャを検出したことに応じて、電子デバイスは、選択されたアバターオプションを編集するために複数のオプション(例えば、カスタマイズ可能なアバターの様々な特徴を変更するために選択可能な編集アフォーダンス)を有するアバター編集ユーザインタフェース(例えば、選択されたアバターオプション(例えば、選択されたカスタマイズ可能なアバター)の1つ以上の特徴を編集するためのユーザーインターフェース)を表示する。アバター選択領域内の選択されたアバターオプション上のタッチジェスチャを検出したことに応じてアバター編集ユーザインタフェースを表示することにより、ユーザは、アバター編集ユーザインタフェースに迅速かつ容易にアクセスしてアバターを編集することができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, a first camera display mode is active and representations of selected avatar options (e.g., representations of customizable avatar options selected from the avatar selection area) are displayed in the camera display area (e.g., , 820) (e.g., the image data of the user's head is replaced with a customizable avatar), the electronic device (e.g., 600) displays the avatar selection area Detect a touch gesture (eg, tap gesture) on the selected avatar option in (eg, 829). In some embodiments, in response to detecting a touch gesture, the electronic device displays multiple options to edit selected avatar options (e.g., to change various characteristics of the customizable avatar). display an avatar editing user interface (e.g., a user interface for editing one or more features of the selected avatar options (e.g., the selected customizable avatar)) with selectable editing affordances). By displaying the avatar editing user interface in response to detecting a touch gesture over the selected avatar option within the avatar selection area, the user can quickly and easily access the avatar editing user interface to edit the avatar. be able to. By providing additional control options without cluttering the user interface with additional displayed controls, the usability of the device is improved and the user device interface (e.g., appropriate inputs when operating/interacting with the device) and make it more efficient (by reducing user error), as well as reduce the power usage of the device by allowing the user to use the device more quickly and efficiently reduce and improve battery life.

一部の実施形態では、カメラユーザインタフェース(例えば、815)は、第2のカメラ表示モード(例えば、仮想エフェクト(例えば、ステッカー)が画像データに適用されるモード)に関連付けられた第2のアフォーダンス(例えば、824-2、ステッカーを表示するための機能に対応するアフォーダンス)を更に含む。一部の実施形態では、被写体がカメラ(例えば、602)の視野内に位置し、かつ、被写体の表現及び背景(例えば、836)がカメラ表示領域(例えば、820)内に表示されている間に、電子デバイス(例えば、600)は、第2のアフォーダンスに向けられたジェスチャを検出する。一部の実施形態では、第2のアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイスは、第2のカメラ表示モードをアクティブ化し、第2のカメラ表示モードをアクティブ化することは、複数のグラフィカルオブジェクト(例えば、ステッカー)を含むビジュアルエフェクト選択領域を表示することを含む。 In some embodiments, the camera user interface (eg, 815) displays a second affordance associated with a second camera display mode (eg, a mode in which virtual effects (eg, stickers) are applied to the image data). (eg, 824-2, affordances corresponding to functionality for displaying stickers). In some embodiments, while the subject is within the field of view of the camera (eg, 602) and a representation of the subject and the background (eg, 836) are displayed within the camera display area (eg, 820) Then, the electronic device (eg, 600) detects a gesture directed at the second affordance. In some embodiments, in response to detecting a gesture directed at the second affordance, the electronic device activates the second camera display mode and does not activate the second camera display mode. , including displaying a visual effects selection area that includes a plurality of graphical objects (eg, stickers).

一部の実施形態では、電子デバイス(例えば、600)は、第2のカメラ表示モードがアクティブである間に、ビジュアルエフェクト選択領域(例えば、824)内の複数のグラフィカルオブジェクト(例えば、ステッカー)のうちの1つの選択を検出する。一部の実施形態では、選択を検出したことに応じて、電子デバイスは、選択されたグラフィカルオブジェクトの表現をカメラ表示領域(例えば、820)内に表示する。一部の実施形態では、選択されたステッカーは、ライブカメラプレビュー(例えば、820-1)中にカメラ表示領域に表示される。一部の実施形態では、ライブカメラプレビューにステッカーを表示することは、カメラ表示領域のデフォルト位置(例えば、画面の中心)にステッカーを直ちに表示することを含む。一部の実施形態では、ライブカメラプレビューにステッカーを表示することは、ビジュアルエフェクト選択領域からカメラ表示領域上の位置に移動するステッカーのアニメーションを表示することを含む。一部の実施形態では、このアニメーションは、ステッカーのユーザ選択のドラッグジェスチャ(例えば、ユーザがステッカーにタッチして、それをカメラ表示領域上の位置にドラッグするジェスチャ)に基づいて決定される。 In some embodiments, the electronic device (eg, 600), while the second camera display mode is active, displays a plurality of graphical objects (eg, stickers) within the visual effects selection area (eg, 824). Detect the selection of one of In some embodiments, in response to detecting the selection, the electronic device displays a representation of the selected graphical object within the camera display area (eg, 820). In some embodiments, the selected sticker is displayed in the camera display area during live camera preview (eg, 820-1). In some embodiments, displaying the sticker in the live camera preview includes immediately displaying the sticker in the default position of the camera display area (eg, center of the screen). In some embodiments, displaying the sticker in the live camera preview includes displaying an animation of the sticker moving from the visual effects selection area to a position on the camera display area. In some embodiments, this animation is determined based on a user-selected dragging gesture of the sticker (eg, a gesture in which the user touches the sticker and drags it to a position on the camera viewing area).

一部の実施形態では、カメラ(例えば、602)を介してキャプチャされた画像データの表現は、メディアアイテム(例えば、820-2、静止画像又は記録されたビデオ)である。一部の実施形態では、カメラユーザインタフェース(例えば、815)は、第3のカメラ表示モード(例えば、仮想エフェクト(例えば、ステッカー)が写真や録画されたビデオに適用されるモード)に関連付けられた第3のアフォーダンス(例えば、ステッカーを表示するための機能に対応するアフォーダンス)を更に含む。一部の実施形態では、電子デバイス(例えば、600)は、第3のアフォーダンスに向けられたジェスチャを検出する。一部の実施形態では、第3のアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイスは、第3のカメラ表示モードをアクティブ化し、第3のカメラ表示モードをアクティブ化することは、複数のグラフィカルオブジェクト(例えば、ステッカー)を含むビジュアルエフェクト選択領域を表示することを含む。 In some embodiments, representations of image data captured via a camera (eg, 602) are media items (eg, 820-2, still images or recorded video). In some embodiments, the camera user interface (e.g., 815) is associated with a third camera display mode (e.g., a mode in which virtual effects (e.g., stickers) are applied to photos and recorded videos). Further includes a third affordance (eg, an affordance corresponding to functionality for displaying stickers). In some embodiments, the electronic device (eg, 600) detects gestures directed at the third affordance. In some embodiments, in response to detecting a gesture directed at the third affordance, the electronic device activates the third camera display mode and does not activate the third camera display mode. , including displaying a visual effects selection area that includes a plurality of graphical objects (eg, stickers).

一部の実施形態では、電子デバイス(例えば、600)は、第3のカメラ表示モードがアクティブである間に、ビジュアルエフェクト選択領域内の複数のグラフィカルオブジェクト(例えば、ステッカー)のうちの1つの選択を検出する。一部の実施形態では、電子デバイスは、選択を検出したことに応じて、選択されたグラフィカルオブジェクトの表現を、カメラ表示領域(例えば、820)のメディアアイテム(例えば、820-2)上に表示する。一部の実施形態では、選択されたステッカーは、写真又は記録されたビデオを見るときにカメラ表示領域に表示される。一部の実施形態では、写真又は記録されたビデオ上にステッカーを表示することは、カメラ表示領域のデフォルト位置(例えば、画面の中心)にステッカーを直ちに表示することを含む。一部の実施形態では、写真又は記録されたビデオ上にステッカーを表示することは、ビジュアルエフェクト選択領域からカメラ表示領域上の位置に移動するステッカーのアニメーションを表示することを含む。一部の実施形態では、このアニメーションは、ステッカーのユーザ選択のドラッグジェスチャ(例えば、ユーザがステッカーにタッチして、それをカメラ表示領域上の位置にドラッグするジェスチャ)に基づいて決定される。 In some embodiments, the electronic device (eg, 600) selects one of a plurality of graphical objects (eg, stickers) within the visual effects selection area while the third camera display mode is active. to detect In some embodiments, in response to detecting the selection, the electronic device displays a representation of the selected graphical object on the media item (eg, 820-2) in the camera display area (eg, 820). do. In some embodiments, the selected sticker is displayed in the camera display area when viewing a photo or recorded video. In some embodiments, displaying the sticker on the photo or recorded video includes immediately displaying the sticker in the default position of the camera viewing area (eg, center of the screen). In some embodiments, displaying the sticker on the photo or recorded video includes displaying an animation of the sticker moving from the visual effects selection area to a position on the camera display area. In some embodiments, this animation is determined based on a user-selected dragging gesture of the sticker (eg, a gesture in which the user touches the sticker and drags it to a position on the camera viewing area).

方法900に関して上述された処理(例えば、図9A及び図9B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法900に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、メッセージングアプリケーションユーザインタフェースにおいて画像データに表示される。別の例では、方法1100は、方法900に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、メディアユーザインタフェースにおいて画像データに表示される。別の例では、方法1300は、方法900に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターのようなビジュアルエフェクトが、ライブビデオ通信セッションのためのユーザインタフェースにおいて画像データに表示される。別の例では、方法1500は、方法900に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラユーザインタフェースに対して画像データに表示される。簡潔にするために、これらの詳細は、以下では繰り返さない。 Note that the details of the processing described above with respect to method 900 (eg, FIGS. 9A and 9B) are also applicable in an analogous manner to the methods described above and below. For example, method 700 optionally includes one or more of the various method features described above with respect to method 900 . For example, visual effects such as stickers and virtual avatars are displayed on the image data in the messaging application user interface. In another example, method 1100 optionally includes one or more of the various method features described above with respect to method 900 . For example, visual effects such as stickers and virtual avatars are displayed on the image data in the media user interface. In another example, method 1300 optionally includes one or more of the various method features described above with respect to method 900 . For example, visual effects such as stickers and virtual avatars are displayed on image data in user interfaces for live video communication sessions. In another example, method 1500 optionally includes one or more of the various method features described above with respect to method 900 . For example, visual effects such as stickers and virtual avatars are displayed on the image data to the camera user interface. For the sake of brevity, these details are not repeated below.

図10A~図10ALは、一部の実施形態に係る、メディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図11A~図11Bにおける処理を含む、以下で説明される処理を例示するために使用される。 10A-10AL illustrate exemplary user interfaces for displaying visual effects in a media item viewing mode, according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 11A-11B.

図10Aにおいて、デバイス600は、ホーム画面1000を示し、メディアビューアアプリケーションアフォーダンス1002上の入力1001を検出する。 In FIG. 10A, device 600 shows home screen 1000 and detects input 1001 on media viewer application affordance 1002 .

図10Bでは、入力1001の検出に応じて、デバイス600は、メディアビューアアプリケーションアフォーダンス1002に関連付けられたメディアビューアプリケーションを起動し、メディアユーザインタフェース1005を表示する。メディアユーザインタフェース1005は、記憶メディアアイテム1006のうちの選択された1つに対応するメディアアイテムを表示するための、一連の記憶メディアアイテム1006及びメディア表示領域1008を含む。図10Bにおいて、メディア表示領域1008は、選択された記憶メディアアイテム1006-1に対応するメディアアイテム1010を示す。 In FIG. 10B, in response to detecting input 1001 , device 600 launches the media view application associated with media viewer application affordance 1002 and displays media user interface 1005 . Media user interface 1005 includes a series of stored media items 1006 and a media display area 1008 for displaying media items corresponding to a selected one of stored media items 1006 . In FIG. 10B, media display area 1008 shows media item 1010 corresponding to selected stored media item 1006-1.

メディアアイテム1010は、符号化された深度データを含まない(例えば、キャプチャされたメディアアイテム内に深度データを符号化しないカメラ(例えば、カメラ602以外のカメラなど)によってキャプチャされた)画像である。これにより、メディアアイテム1010は、本明細書で説明するように、画像で特定のビジュアルエフェクトを可能にするために使用される深度データを含まない。 Media item 1010 is an image that does not contain encoded depth data (eg, captured by a camera that does not encode depth data within the captured media item (eg, a camera other than camera 602, etc.)). As such, media items 1010 do not include depth data used to enable certain visual effects in images, as described herein.

図10Cでは、デバイス600は、編集アフォーダンス1012上の入力1011を検出する。これに応じて、図10Dで、デバイス600は、編集オプション表示領域1014を表示する。編集オプション表示領域には、エフェクトアフォーダンス1016(エフェクトアフォーダンス622、822と同様)、メディア編集アフォーダンス1018、及びマークアップアフォーダンス1020を含む。 In FIG. 10C, device 600 detects input 1011 on editing affordance 1012 . In response, device 600 displays edit options display area 1014 in FIG. 10D. The editing options display area includes effects affordances 1016 (similar to effects affordances 622 , 822 ), media editing affordances 1018 , and markup affordances 1020 .

図10Eではに、デバイス600は、エフェクトアフォーダンス1016上の入力1021を検出し、表示されたメディアアイテム(例えば、メディアアイテム1010)に関連付けられた任意のビジュアルエフェクトが表示されるビジュアルエフェクトモードを有効化する。図10Eに示す実施形態では、メディアアイテム1010はビジュアルエフェクトを含まず、特に、メディアアイテム1010が深度データを含まないので、画像1010は深度ベースのビジュアルエフェクトを含まない。 In FIG. 10E, device 600 detects input 1021 on effect affordance 1016 and activates a visual effects mode in which any visual effects associated with the displayed media item (eg, media item 1010) are displayed. do. In the embodiment shown in FIG. 10E, media item 1010 does not include visual effects, and in particular, image 1010 does not include depth-based visual effects because media item 1010 does not include depth data.

図10Fでは、エフェクトアフォーダンス1016をアクティブ化する入力1021を検出したことに応じて、デバイス600は、エフェクトアフォーダンス1016を強調表示し、編集オプション表示領域1014を拡大してエフェクトオプションアフォーダンス1024を表示する。図10Fに示す実施形態では、メディアアイテム1010はビジュアルエフェクトを可能にする深度データを含まないので、アバターエフェクトアフォーダンス1024-1及びステッカーエフェクトアフォーダンス1024-2は選択不可能として示されているのに対して、残りのビジュアルエフェクトオプションアフォーダンス1024-3、1024-4、及び1024-5は選択可能である。一部の実施形態では、メディアアイテムがビジュアルエフェクトを可能化する深度データを含まない場合、アバターエフェクトアフォーダンス1024-1及びステッカーエフェクトアフォーダンス1024-2は表示されない。 10F, in response to detecting input 1021 activating effect affordance 1016, device 600 highlights effect affordance 1016 and expands edit options display area 1014 to display effect option affordance 1024. In FIG. In the embodiment shown in FIG. 10F, avatar effect affordance 1024-1 and sticker effect affordance 1024-2 are shown as non-selectable because media item 1010 does not include depth data to enable visual effects. Thus, the remaining visual effects option affordances 1024-3, 1024-4, and 1024-5 are selectable. In some embodiments, avatar effect affordance 1024-1 and sticker effect affordance 1024-2 are not displayed if the media item does not contain depth data to enable visual effects.

メディアアイテム1010は深度ベースのビジュアルエフェクトを可能化するための深度データを含まないので、エフェクトアフォーダンス1016が選択されても、深度ベースのビジュアルエフェクトはメディアアイテム1010に表示されない。これにより、メディアアイテム1010は、図10Fでは変更されないままである。 Because the media item 1010 does not include depth data to enable depth-based visual effects, depth-based visual effects are not displayed on the media item 1010 even when the effect affordance 1016 is selected. This leaves media item 1010 unchanged in FIG. 10F.

図10Gでは、デバイス600は、取消アフォーダンス1026上の入力1025を検出し、図10Hに示すユーザインタフェースに戻る。 In FIG. 10G, device 600 detects input 1025 on cancel affordance 1026 and returns to the user interface shown in FIG. 10H.

図10Hでは、デバイス600は、記憶されたメディアアイテム1006-2上の入力1027を検出し、記憶されたメディアアイテム1006-2を選択する。 In FIG. 10H, device 600 detects input 1027 on stored media item 1006-2 and selects stored media item 1006-2.

図10Iでは、デバイス600は、メディアアイテム1028をメディア表示領域1008に表示する。メディアアイテム1028は、被写体1032及び背景1036を示す選択された記憶メディアアイテム1006-2に対応する。メディアアイテム1028は、キャプチャされたメディアアイテム内に深度データを符号化するカメラ(例えば、カメラ602)によってキャプチャされた画像である。本明細書で説明するように、メディアアイテム内に符号化された深度データは、ビジュアルエフェクト、特に深度成分を有するビジュアルエフェクトを表示することを可能にする。 10I, device 600 displays media item 1028 in media display area 1008. In FIG. Media item 1028 corresponds to selected stored media item 1006 - 2 showing subject 1032 and background 1036 . Media item 1028 is an image captured by a camera (eg, camera 602) that encodes depth data within the captured media item. As described herein, depth data encoded within media items enables visual effects to be displayed, particularly visual effects having depth components.

図10Iでは、エフェクトモードがメディアアイテム1028に対して有効化されていないため、ビジュアルエフェクトはメディアアイテム1028に表示されない。しかしながら、デバイス600は、エフェクトアイコン1029を表示して、メディアアイテム1028が深度データを含み、ビジュアルエフェクトを表示することができることを示す。 In FIG. 10I, no visual effects are displayed on media item 1028 because effects mode is not enabled for media item 1028 . However, device 600 displays effects icon 1029 to indicate that media item 1028 includes depth data and is capable of displaying visual effects.

図10Jでは、デバイスは、編集アフォーダンス1012上の入力1030を検出し、図10Kでは、強調表示されていない状態のエフェクトアフォーダンス1016を示すオプション表示領域1014を編集して、ビジュアルエフェクトがメディアアイテム1028の表示を有効化できないことを示す。 In FIG. 10J, the device detects input 1030 on edit affordance 1012 and in FIG. Indicates that the display cannot be enabled.

図10Lでは、デバイス600は、ビジュアルエフェクトモードを有効化するエフェクトアフォーダンス1016上の入力1033を検出する。図10Mに示すように、ビジュアルエフェクトモードが有効化されると、デバイス600は、エフェクトアフォーダンス1016を強調表示し、編集オプション表示領域1014を拡大してエフェクトオプションアフォーダンス1024を表示する。図10Mに示す実施形態では、メディアアイテム1028は深度ベースのビジュアルエフェクトを有効化する深度データを含むので、アバターエフェクトアフォーダンス1024-1及びステッカーエフェクトアフォーダンス1024-2が選択可能として示され、ビジュアルエフェクトがメディアアイテム1028に表示される。図10Mに示す実施形態では、表示されたビジュアルエフェクトは、カスタマイズ可能なアバター1037、被写体の首部上のアバター1037の下方に表示される影1038、ヘルメットステッカー1039、及びウサギステッカー1040を含む。 In FIG. 10L, device 600 detects input 1033 on effects affordance 1016 that enables visual effects mode. As shown in FIG. 10M, when the visual effects mode is enabled, device 600 highlights effects affordance 1016 and expands editing options display area 1014 to display effects options affordance 1024 . In the embodiment shown in FIG. 10M, media item 1028 includes depth data that enables depth-based visual effects, so avatar effect affordance 1024-1 and sticker effect affordance 1024-2 are shown as selectable and visual effects are shown as selectable. Displayed in media item 1028 . In the embodiment shown in FIG. 10M, the displayed visual effects include a customizable avatar 1037, a shadow 1038 displayed below the avatar 1037 on the subject's neck, a helmet sticker 1039, and a rabbit sticker 1040.

一部の実施形態では、デバイス600は、メディアアイテム1028の深度データに符号化された、カメラ602の視野内に位置するユーザの顔の検出された変化に基づいてアバター1037を変更する。このように、メディアアイテム1028はこの実施形態では静止画像として説明されているが、メディアアイテム1028は静止画像に限定されず、深度データを有する録画ビデオを含む録画ビデオなどの他のメディアアイテムを含むことができることを理解されるべきである。同様に、デバイス600は、深度データに符号化されたメディアアイテム内のオブジェクトの位置における検出された変化に基づいて、メディアアイテム1028に適用されるステッカーの位置を変更することができる。 In some embodiments, device 600 modifies avatar 1037 based on detected changes in the user's face located within field of view of camera 602 , encoded in the depth data of media item 1028 . Thus, although media items 1028 are described as still images in this embodiment, media items 1028 are not limited to still images and include other media items such as recorded video, including recorded video with depth data. It should be understood that the Similarly, the device 600 can change the positions of stickers applied to the media items 1028 based on detected changes in the positions of objects within the media items encoded in the depth data.

深度ベースのビジュアルエフェクトを含むビジュアルエフェクトを、メディアアイテム1028に適用し、本明細書で論じる実施形態に従って編集することができる。例えば、本明細書に開示された様々な実施形態では、アバターエフェクトアフォーダンス1024-1は、選択されたアバター(例えば、アバター1037)を除去、変更、及び/又は切り替えるために選択することができる。加えて、ステッカーエフェクトアフォーダンス1024-2は、本明細書に開示された様々な実施形態に従って、メディアアイテム1028に対し、ステッカーを除外し、変更し、及び/又は追加するように選択することができる。 Visual effects, including depth-based visual effects, can be applied to media items 1028 and edited according to embodiments discussed herein. For example, in various embodiments disclosed herein, avatar effect affordance 1024-1 can be selected to remove, modify, and/or switch the selected avatar (eg, avatar 1037). Additionally, sticker effect affordance 1024-2 may select to exclude, modify, and/or add stickers to media item 1028 in accordance with various embodiments disclosed herein. .

図10N~図10Pは、ハートステッカー1042をメディアアイテム1028に追加するデバイス600を示す。これらの処理は、図6U~図6AD、図8AH~図8AK、及び図8AR~図8AYに関して、上記で一層詳細に論じている。簡潔性のために、これらの処理の詳細は、ここでは繰り返さない。 10N-10P show device 600 adding heart sticker 1042 to media item 1028. FIG. These processes are discussed in greater detail above with respect to Figures 6U-6AD, Figures 8AH-8AK, and Figures 8AR-8AY. For the sake of brevity, the details of these processes are not repeated here.

図10Qでは、デバイス600は、マークアップアフォーダンス1020上の入力1043を検出する。図10Rでは、デバイス600は、表示された編集オプション表示領域1014を、マークアップエフェクトをメディアアイテム1028に追加するための様々な選択可能なマークアップオプション1045を含むマークアップオプションメニュー1044に置換する。図10S~図10Tは、テキストアフォーダンス1045-1を選択することによって、テキスト1046をメディアアイテム1028に追加するための処理を示す。 10Q, device 600 detects input 1043 on markup affordance 1020. In FIG. 10R, the device 600 replaces the displayed editing options display area 1014 with a markup options menu 1044 containing various selectable markup options 1045 for adding markup effects to the media item 1028. In FIG. 10S-10T illustrate the process for adding text 1046 to media item 1028 by selecting text affordance 1045-1.

図10Uでは、デバイス600は、編集アフォーダンス1012上の入力1047を検出する。図10Vでは、デバイス600は、表示された編集オプション表示領域1014を、様々な画像編集アフォーダンス1050を含む画像編集メニュー1048に置換する。図10V~図10Yは、ビビッド色フィルタを適用するために、フィルタアフォーダンス1050-1を選択し、次いでビビッドフィルタオプション1052を選択することによって、メディアアイテム1028を編集するための処理を示す。ビビッド色フィルタは、メディアアイテム1028内の背景1036と、適用されたビジュアルエフェクト(例えば、アバター1037上の髪部)の両方に変更を適用する。一部の実施形態では、フィルタは、アバターの外観及び1つ以上のカメラの視野の表現を同様の方法で変更して、アバターと1つ以上のカメラの視野の表現との間の類似性を高める(例えば、コミックブックフィルタ、スケッチ描画フィルタ、白黒フィルタ、グレースケールフィルタなどを適用する)。一部の実施形態では、アバターは、アバターの外観と1つ以上のカメラの視野の表現との両方を変更するフィルタを適用することによって、1つ以上のカメラの視界にある現実の世界とは一致しない漫画のような外観を有し、このアバターの外観は、1つ以上のカメラの視野の表現の残部と一体化される。一部の実施形態では、フィルタは、1つ以上のカメラの視野の表現の現実感を低減するフィルタ(例えば、スケッチフィルタ又はコミックブックフィルタ)である。一部の実施形態では、フィルタは、アバターの外観及び1つ以上のカメラの視野の表現の外観の両方の3D効果を低減する(例えば、平坦化する)フィルタである。 In FIG. 10U, device 600 detects input 1047 on editing affordance 1012 . In FIG. 10V, device 600 replaces displayed editing options display area 1014 with image editing menu 1048 containing various image editing affordances 1050 . FIGS. 10V-10Y illustrate a process for editing media item 1028 by selecting filter affordance 1050-1 and then selecting vivid filter option 1052 to apply a vivid color filter. The Vivid Color filter applies changes to both the background 1036 within the media item 1028 and the applied visual effects (eg, hair on the avatar 1037). In some embodiments, the filter modifies the appearance of the avatar and the representation of the view of the one or more cameras in a similar manner to show similarities between the avatar and the representation of the view of the one or more cameras. Enhance (e.g., apply Comic Book filters, Sketch drawing filters, Black and White filters, Grayscale filters, etc.). In some embodiments, the avatar interacts with the real world in the view of one or more cameras by applying filters that modify both the avatar's appearance and the representation of the view of the one or more cameras. Having an inconsistent cartoon-like appearance, the appearance of this avatar is integrated with the rest of the representation of the view of one or more cameras. In some embodiments, the filter is a filter (eg, sketch filter or comic book filter) that reduces the realism of the representation of the view of one or more cameras. In some embodiments, the filter is a filter that reduces (eg, flattens) 3D effects in both the appearance of the avatar and the appearance of the one or more camera view representations.

図10Zでは、新しいハートステッカー1042、テキスト1046を表示するように編集されて、ビビッドな色フィルタが適用される、メディアアイテム1028を示す。 FIG. 10Z shows media item 1028 edited to display a new heart sticker 1042, text 1046, and a vivid color filter applied.

図10AA~図10ADは、デバイス600がアバター1037からアバター1054に切り替わることを示す。これらの処理は、図6G~図6Q、図6BD~図6BE、図6BK~図6BN、及び図8F~図8AGに関して、上記で一層詳細に論じている。簡潔性のために、これらの処理の詳細は、ここでは繰り返さない。 10AA-10AD show device 600 switching from avatar 1037 to avatar 1054. FIG. These processes are discussed in greater detail above with respect to FIGS. 6G-6Q, 6BD-6BE, 6BK-6BN, and 8F-8AG. For the sake of brevity, the details of these processes are not repeated here.

図10AEでは、デバイス600は、ステッカー(例えば、1039、1040、1042)、アバター1054、テキスト1046、及びビビッド色フィルタが適用されたメディアアイテム1028を表示する。メディアアイテム1028の色フィルタは、新規アバター1054がメディアアイテム1028に表示されると、新規アバター1054の髪部に影響を及ぼす。 In FIG. 10AE, device 600 displays stickers (eg, 1039, 1040, 1042), avatar 1054, text 1046, and media item 1028 with Vivid Color filter applied. The color filter of media item 1028 affects the hair of new avatar 1054 when new avatar 1054 is displayed in media item 1028 .

図10AEでは、デバイス600は、エフェクトオプションアフォーダンス1024上のスワイプジェスチャ1055を検出し、これに応じて、エフェクトオプションアフォーダンス1024をスクロールして図10AFのスクリーンエフェクトアフォーダンス1024-3を表示する。 In FIG. 10AE, device 600 detects swipe gesture 1055 on effect option affordance 1024 and, in response, scrolls effect option affordance 1024 to display screen effect affordance 1024-3 of FIG. 10AF.

図10AGでは、デバイス600は、スクリーンエフェクトアフォーダンス1024-3上の入力1057を検出し、これに応じて、スクリーンエフェクトメニュー1060を表示する。スクリーンエフェクトメニュー1060は、メディアアイテム1028にフルスクリーンビジュアルエフェクトを適用するために選択可能な、様々なスクリーンエフェクトオプション1062を含む。図10AHでは、ヌルエフェクトオプション1062-1が選択され(例えば、1063)、デバイス600は、メディアアイテム1028にスクリーンエフェクトを表示しない。 In FIG. 10AG, device 600 detects input 1057 on screen effects affordance 1024-3 and displays screen effects menu 1060 in response. Screen effects menu 1060 includes various screen effects options 1062 that can be selected to apply full screen visual effects to media item 1028 . 10AH, null effects option 1062-1 is selected (eg, 1063) and device 600 displays no screen effects on media item 1028. In FIG.

図10AIでは、デバイス600は、風船エフェクトオプション1062-2上の入力1064を検出する。図10AJ~図ALでは、デバイス600は、風船1065のアニメーションエフェクトをメディアアイテム1028に表示する。一部の実施形態では、アニメーションエフェクトは、メディアアイテム1028に符号化された深度データを強調する方法で適用される。例えば、図10AJ~図10ALでは、風船のうちのいくつかは、被写体1062及びビジュアルエフェクト(例えば、ウサギステッカー1040、アバター1054、テキスト1046)の前に現れるように表示される。風船のうちのいくつかは、被写体1062及びビジュアルエフェクト(例えば、ウサギステッカー1040、アバター1054、ハートステッカー1042)の背後にある深度で現れるように表示される。 In FIG. 10AI, device 600 detects input 1064 on balloon effect option 1062-2. 10AJ-AL, device 600 displays an animation effect of balloon 1065 on media item 1028. In FIGS. In some embodiments, animation effects are applied in a manner that emphasizes the depth data encoded in media item 1028 . For example, in FIGS. 10AJ-10AL, some of the balloons are displayed to appear in front of subject 1062 and visual effects (eg, rabbit sticker 1040, avatar 1054, text 1046). Some of the balloons are displayed to appear in depth behind the subject 1062 and visual effects (eg, rabbit sticker 1040, avatar 1054, heart sticker 1042).

一部の実施形態では、スクリーンエフェクトは、メディアアイテム1028内のオブジェクト及びビジュアルエフェクトの深度に基づいて、メディアアイテム1028内のビジュアルエフェクト及びオブジェクトと対話することができる。例えば、紙吹雪スクリーンエフェクトは、メディアアイテム1028(例えば、被写体1062)及びビジュアルエフェクト(ステッカー及びアバター)内のオブジェクトの前及び背後に落ちていく、並びにこれらのオブジェクト及びビジュアルエフェクトの上部にも落ちていく、紙吹雪を示すことができる。例えば、紙吹雪が、落ちていく紙吹雪の物理モデルに基づいて、アバター上に落ちていく、及びアバターの側を落ちていくさまを表示することができる。 In some embodiments, screen effects can interact with visual effects and objects within media item 1028 based on the depth of the objects and visual effects within media item 1028 . For example, the confetti screen effect falls in front of and behind objects in media items 1028 (eg, subject 1062) and visual effects (stickers and avatars), and also falls on top of these objects and visual effects. Come on, you can show confetti. For example, confetti can be displayed falling on and beside the avatar based on a physics model of the falling confetti.

図11A及び図11Bは、一部の実施形態に係る、電子デバイスを使用してメディアアイテム視聴モードにおいてビジュアルエフェクトを表示するための方法を示すフロー図である。方法1100は、表示装置を有するデバイス(例えば、100、300、500、600)において実行される。方法1100におけるいくつかの動作は、任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 11A and 11B are flow diagrams illustrating methods for displaying visual effects in a media item viewing mode using an electronic device, according to some embodiments. Method 1100 is performed on a device (eg, 100, 300, 500, 600) having a display. Some acts in method 1100 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

以下に説明するように、方法1100は、メディアアイテム視聴モードでビジュアルエフェクトを表示するための直感的な仕方を提供する。この方法は、画像又はビデオにビジュアルエフェクトを表示している際のユーザへの認知負担を軽減し、それによって、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ビジュアルエフェクトをユーザーがより迅速かつ効率的に表示できるようにすることで、電力を節約し、バッテリ充電間の時間を増大させる。 As described below, method 1100 provides an intuitive way to display visual effects in media item viewing mode. This method reduces the cognitive burden on the user when displaying visual effects on images or videos, thereby creating a more efficient human-machine interface. Battery-operated computing devices save power and increase the time between battery charges by allowing users to display visual effects more quickly and efficiently.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、メディアユーザインタフェース(例えば、1005)を表示する(1102)。メディアユーザインタフェースは、メディアアイテム(例えば、静止画像又はビデオ)の表現(例えば、1010)を含む、メディア表示領域(例えば、1008)を含む(1104)。一部の実施形態では、メディアアイテムに対応する深度データは、エフェクトアフォーダンスの事前選択を検出した後に、電子デバイスのカメラによって取得される。 An electronic device (eg, 600) displays (1102) a media user interface (eg, 1005) via a display (eg, 601). The media user interface includes (1104) a media display area (eg, 1008) that includes a representation (eg, 1010) of a media item (eg, still image or video). In some embodiments, the depth data corresponding to the media item is obtained by the electronic device's camera after detecting the pre-selection of the effect affordance.

一部の実施形態では、メディアアイテムは、記録された画像又はビデオであり、エフェクトは、メディアアイテムが記録された後に深度データに基づいて適用される。一部の実施形態では、画像データがキャプチャされた(例えば、記録された)後に、ステッカー、仮想アバター、及びフルスクリーンエフェクトなどのビジュアルエフェクトを画像データに追加し、又は異なるビジュアルエフェクトに変更する(例えば、ステッカーを仮想アバターに置換する)ことができる。 In some embodiments, the media item is a recorded image or video and effects are applied based on depth data after the media item is recorded. In some embodiments, after the image data is captured (e.g., recorded), visual effects such as stickers, virtual avatars, and full-screen effects are added to the image data or changed to different visual effects ( For example, stickers can be replaced with virtual avatars).

メディアユーザインタフェース(例えば、1005)は、エフェクトアフォーダンス(例えば、1016、画像表示モードをアクティブ化するための機能(例えば、画像データが深度データを含む場合に、深度データを表示するモード)に関連するアフォーダンス)を含む(1106)。 A media user interface (e.g., 1005) is associated with an effect affordance (e.g., 1016, a function for activating an image display mode (e.g., a mode for displaying depth data if the image data includes depth data). affordances) (1106).

電子デバイス(例えば、600)は、エフェクトアフォーダンス(例えば、1016)に向けられたジェスチャ(例えば、1021)を検出する(1108)。一部の実施形態では、それぞれのエフェクトオプション(例えば、1024-1)は、メディアアイテム内に(例えば、その上に重ね合わせる)アバターを表示するためのエフェクトに対応する(1110)。一部の実施形態では、アバターをメディアアイテムに表示するときに、人の頭部の画像データが仮想アバターに置換される。人の頭部の画像データが仮想アバターに置換されたメディアアイテムにアバターを表示することにより、アバターが、置換されている人に関係がある、及び/又は関連付けられているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、アバターのカスタマイズ可能である。一部の実施形態において、アバターのカスタマイズ不可能である。 An electronic device (eg, 600) detects (1108) a gesture (eg, 1021) directed at an effect affordance (eg, 1016). In some embodiments, each effect option (eg, 1024-1) corresponds to an effect for displaying an avatar within (eg, overlaid on) the media item (1110). In some embodiments, image data of a person's head is replaced with a virtual avatar when the avatar is displayed in the media item. Displaying an avatar in a media item in which image data of a person's head has been replaced with a virtual avatar provides visual feedback that the avatar is related to and/or associated with the person being replaced. . By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the avatar is customizable. In some embodiments, avatars are not customizable.

一部の実施形態では、それぞれのエフェクトオプション(例えば、1024-3)は、メディアアイテム内を(例えば、その上にアニメーション風に重ね合わせられて)動く複数の仮想オブジェクト(例えば、1062、紙吹雪、風船など)を表示するためのエフェクトに対応する(1112)。一部の実施形態では、メディアアイテム内を移動する複数のオブジェクトの軌跡は、メディアアイテム内の(例えば、表される、特定される)オブジェクト(例えば、元の画像又はビデオ内の人物などの、仮想アバターではない、メディアアイテムに適用されるエフェクトの生成物であるオブジェクトではなく、元のメディアアイテムに符号化されたオブジェクト)のうちの少なくとも1つの存在、又はメディアアイテムに適用されたビジュアルエフェクト(例えば、アバター)に基づいて変更される。一部の実施形態では、紙吹雪又は風船などのオブジェクトが、画像内のユーザの前、背後、及び/又はユーザ上に表示される。一部の実施形態において、画像は、アバターなどの他のエフェクトを含み、紙吹雪又は風船などのオブジェクトは、アバターの前、背後、及び/又はアバター上に着地する。 In some embodiments, each effect option (eg, 1024-3) is represented by multiple virtual objects (eg, 1062, confetti) moving within (eg, animatedly superimposed on) the media item. , balloons, etc.) (1112). In some embodiments, the trajectory of a plurality of objects moving within the media item is the trajectory of the objects (eg, represented, identified) within the media item (eg, a person in the original image or video). objects that are not virtual avatars, objects that are products of effects applied to media items, but objects encoded in the original media items); avatar). In some embodiments, objects such as confetti or balloons are displayed in front of, behind, and/or on the user in the image. In some embodiments, the image includes other effects, such as an avatar, and objects such as confetti or balloons that land in front of, behind, and/or on the avatar.

一部の実施形態では、それぞれのエフェクトオプション(例えば、1024-2)は、メディアアイテム内に(例えば、その上に重ね合わせられる)1つ以上の選択可能なグラフィックアイコン(例えば、1042、ステッカー)を表示するためのエフェクトに対応する(1114)。 In some embodiments, each effect option (eg, 1024-2) is associated with one or more selectable graphic icons (eg, 1042, stickers) within (eg, overlaid on) the media item. (1114).

エフェクトアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプション(例えば、ステッカーアフォーダンス、アバターアフォーダンス)を表示し(1116)、(例えば、パラグラフ[179]及び[338]に記載するように)メディアアイテムが対応する深度データに関連付けられているとの判定(1118)に従って、複数のエフェクトオプションが、深度データに基づいてエフェクト(例えば、ステッカー、仮想アバター、フルスクリーンエフェクトなど)を適用するためのそれぞれのエフェクトオプション(例えば、1024)を含む、ことを含んでいる。一部の実施形態では、ジェスチャを検出したことに応じて、電子デバイスは、画像表示モード(例えば、深度データに基づく画像表示モード)をアクティブ化する。 In response to detecting a gesture directed to an effect affordance, the electronic device (eg, 600) provides multiple effect options (eg, sticker affordance, Avatar Affordances) are displayed 1116, and a plurality of effects according to determining 1118 that the media item is associated with corresponding depth data (e.g., as described in paragraphs [179] and [338]). Options include including respective effect options (eg, 1024) for applying effects (eg, stickers, virtual avatars, full-screen effects, etc.) based on depth data. In some embodiments, in response to detecting the gesture, the electronic device activates an image display mode (eg, an image display mode based on depth data).

一部の実施形態では、深度データに基づいてメディアアイテム(例えば、静止画像又はビデオ)上に表示できる複数のステッカーオプション(例えば、1042)を表示するために、ステッカーアフォーダンス(例えば1024-2)が選択可能である。例えば、ステッカーをメディアアイテム上に配置し、メディアアイテムに関連付けられた深度データに基づいて変更することができる。一部の実施形態では、ステッカーは、ビデオ内のオブジェクトの相対位置に関連付けられる。ビデオ内のオブジェクトの動きは、オブジェクトの動きに基づいて、ステッカーの表示されたアスペクト(例えば、サイズ、向き、位置など)を変更するために使用される深度成分を有する。例えば、ステッカーはオブジェクト上に表示され、オブジェクトがカメラ(例えば、602)から離れて(例えば、後方に)移動するにつれてステッカーは小さくなっていき、ステッカーがオブジェクトと共にカメラから遠ざかっていく外観を与える。一部の実施形態では、深度データに基づいてメディアアイテム上に表示できる複数のアバターオプション(例えば、図10AB)を表示するために、アバターアフォーダンス(例えば、1024-1)が選択可能である。例えば、アバターを画像又はビデオ内の顔に表示し、画像又はビデオ内の顔に関連付けられた深度データに基づいて修正することができる。例えば、顔が前方、後方、左右、又は画像データの深度成分に影響を及ぼす他の方法で動くと、深度データに基づいてアバターが表示及び変更される。このように、顔が動くにつれて、同じ方法でアバターが動いて表示される。 In some embodiments, a sticker affordance (eg, 1024-2) is used to display multiple sticker options (eg, 1042) that can be displayed on a media item (eg, still image or video) based on depth data. It is selectable. For example, stickers can be placed on media items and modified based on depth data associated with the media items. In some embodiments, stickers are associated with relative positions of objects in the video. Object motion in the video has a depth component that is used to change the displayed aspect (eg, size, orientation, position, etc.) of the sticker based on the object's motion. For example, a sticker may be displayed on an object, and as the object moves away (eg, backwards) from the camera (eg, 602), the sticker becomes smaller, giving the appearance that the sticker moves away from the camera with the object. In some embodiments, an avatar affordance (eg, 1024-1) is selectable to display multiple avatar options (eg, FIG. 10AB) that can be displayed on the media item based on depth data. For example, an avatar can be displayed on a face in an image or video and modified based on depth data associated with the face in the image or video. For example, the avatar is displayed and changed based on the depth data as the face moves forward, backward, left and right, or in other ways that affect the depth component of the image data. In this way, as the face moves, the avatar is displayed moving in the same way.

エフェクトアフォーダンスに向けられたジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、メディアアイテムの表現と同時に、メディアアイテムにエフェクトを適用するための複数のエフェクトオプション(例えば、1024、ステッカーアフォーダンス、アバターアフォーダンス)を表示し(1116)、画像データが深度データを含まないとの判定(1120)に従って、それぞれのエフェクトオプションが、複数のエフェクトオプションにおいてアクティブ化に利用できない(例えば、それぞれのエフェクトオプションが、表示された複数のエフェクトオプションから除外されているか、又は表示された複数のエフェクトオプションにおいて無効化されている)、ことを含んでいる。画像データが深度データを含まないとの判定に従って、複数のエフェクトオプションでアクティブ化するために利用可能でないそれぞれのエフェクトオプションは、画像データが必要な深度データを含まないというフィードバックを提供する。更なるユーザ入力を必要とせずに、条件のセットが満たされたときに操作を行うことにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、深度データに対応するアフォーダンス(例えば、エフェクトアフォーダンス)は、表示されないか、又は画像データが深度データを含まない場合には選択できない。 In response to detecting a gesture directed to an effect affordance, the electronic device (eg, 600) displays multiple effect options (eg, 1024, sticker affordances, avatar affordances) are displayed 1116 and, following a determination 1120 that the image data does not contain depth data, each effect option is not available for activation in multiple effect options (e.g., each effect option is excluded from the displayed effect options or disabled in the displayed effect options). Each effect option that is not available for activation in the plurality of effect options following the determination that the image data does not contain depth data provides feedback that the image data does not contain the required depth data. By performing an operation when a set of conditions are met, without the need for further user input, the usability of the device is improved and the user device interface (e.g., the appropriate making the device more efficient (by assisting the user in providing input and reducing user error), as well as powering the device by allowing the user to use the device more quickly and efficiently; Reduce usage and improve battery life. In some embodiments, affordances corresponding to depth data (eg, effect affordances) are not displayed or cannot be selected if the image data does not include depth data.

一部の実施形態では、複数のエフェクトオプション(例えば、1024)は、メディアアイテムに(例えば、その上に重ね合わせられて)ラベルを付加するためのオプション(例えば、1020)を含む。一部の実施形態では、テキストラベルを画像又はビデオに追加することができる。一部の実施形態では、複数のエフェクトオプションは、メディアアイテムに(例えば、その上に重ね合わせられて)1つ以上の画像フィルタを適用するためのオプションを含む。 In some embodiments, the plurality of effect options (eg, 1024) includes an option (eg, 1020) for adding a label to (eg, overlaid on) the media item. In some embodiments, text labels can be added to images or videos. In some embodiments, the plurality of effects options includes options for applying one or more image filters to (eg, overlaid on) the media item.

方法1100に関して上述された処理(例えば、図11A~図11B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1100に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、メッセージングアプリケーションユーザインタフェースにおいて画像データに表示される。別の例では、方法900は、方法1100に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラアプリケーションユーザインタフェースに対するユーザインタフェース内の画像データに表示される。別の例では、方法1300は、方法1100に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターのようなビジュアルエフェクトが、ライブビデオ通信セッションのためのユーザインタフェースにおいて画像データに表示される。別の例では、方法1500は、方法1100に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラユーザインタフェースに対して画像データに表示される。簡潔にするために、これらの詳細は、以下では繰り返さない。 Note that details of the processes described above with respect to method 1100 (eg, FIGS. 11A-11B) are also applicable in an analogous manner to the methods described above and below. For example, method 700 optionally includes one or more of the various method features described above with respect to method 1100 . For example, visual effects such as stickers and virtual avatars are displayed on the image data in the messaging application user interface. In another example, method 900 optionally includes one or more of the various method features described above with respect to method 1100 . For example, visual effects such as stickers and virtual avatars are displayed on the image data in the user interface for the camera application user interface. In another example, method 1300 optionally includes one or more of the various method features described above with respect to method 1100 . For example, visual effects such as stickers and virtual avatars are displayed on image data in user interfaces for live video communication sessions. In another example, method 1500 optionally includes one or more of the various method features described above with respect to method 1100 . For example, visual effects such as stickers and virtual avatars are displayed on the image data to the camera user interface. For the sake of brevity, these details are not repeated below.

図12A~図12APは、一部の実施形態に係る、ライブビデオ通信セッションにおけるビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図13A~図13Bにおける処理を含む、以下で説明される処理を例示するために使用される。 12A-12AP illustrate exemplary user interfaces for displaying visual effects in a live video communication session, according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 13A-13B.

図12Aでは、デバイス600は、2人以上の参加者間のライブビデオ通信セッション(例えば、ストリーミングビデオ通信)に対するユーザインタフェース1200を示す。ユーザインタフェース1200では、デバイスは、ライブビデオ通信セッションにおける参加者を表す参加者画像データ1204を表示する。ウィンドウ1202では、デバイス600は、デバイス600のカメラ(例えば、カメラ602)によって取得されたデータ、及びライブビデオ通信セッションの他の参加者に送信されているビデオデータの表現を含む、デバイス画像データ1201を表示する。図12Aでは、デバイス画像データ1201は、ビデオ通信セッションの参加者でもある(例えば、外部電子デバイス(例えば、デバイス600に類似のデバイス)を使用している)ユーザを表す。図12Aでは、デバイス画像データ1201は、デバイス600のカメラ602を使用してキャプチャされる。しかしながら、一部の実施形態では、デバイス画像データ1201を、デバイス600の背面カメラを使用してキャプチャすることができる。 In FIG. 12A, device 600 shows user interface 1200 for a live video communication session (eg, streaming video communication) between two or more participants. In user interface 1200, the device displays participant image data 1204 representing participants in a live video communication session. In window 1202, device 600 displays device image data 1201, which includes data captured by a camera of device 600 (e.g., camera 602) and representations of video data being transmitted to other participants in a live video communication session. display. In FIG. 12A, device image data 1201 represents a user (eg, using an external electronic device (eg, device similar to device 600)) who is also a participant in a video communication session. In FIG. 12A, device image data 1201 is captured using camera 602 of device 600 . However, in some embodiments, the device image data 1201 may be captured using the device 600's rear camera.

図12Bでは、デバイス600は、ユーザインタフェース1200上の入力1205を検出し、これに応じて、エフェクトアフォーダンス1208、カメラセレクタアフォーダンス1210、及びエンドアフォーダンス1212を有する、図12Cの、オプション表示領域1206を表示する。エンドアフォーダンス1212は、ライブビデオ通信セッションを終了させるための機能に関連付けられ、カメラセレクタアフォーダンス1210は、カメラ(例えば、背面カメラ及びカメラ602)間を切り替えるための機能に関連付けられている。エフェクトアフォーダンス1208は、エフェクトアフォーダンス622、822及び1016と同様であり、デバイス600がユーザインタフェース1200にビジュアルエフェクトを表示するために有効化又は無効化される、デバイス600のモード(ビジュアルエフェクトモード、エフェクトモード)を有効化又は無効化するために選択可能である。 In FIG. 12B, device 600 detects input 1205 on user interface 1200 and, in response, displays options display area 1206 of FIG. 12C having effect affordance 1208, camera selector affordance 1210, and end affordance 1212. do. End affordance 1212 is associated with functionality for terminating a live video communication session, and camera selector affordance 1210 is associated with functionality for switching between cameras (eg, the rear camera and camera 602). Effect affordance 1208 is similar to effect affordances 622 , 822 and 1016 and is the mode of device 600 (visual effects mode, effect mode ) to enable or disable.

図12Dでは、デバイス600は、エフェクトアフォーダンス1208上の入力1213を検出する。 In FIG. 12D, device 600 detects input 1213 on effect affordance 1208 .

図12Eでは、デバイス600は、入力1213を検出したことに応じて、ビジュアルエフェクトモードを可能化する。デバイス600は、参加者画像データ1204をウインドウ1202に表示することによって、デバイス画像データ1201及び参加者画像データ1204の表示位置を切り替え、ユーザインタフェース1200内の別の位置に任意選択的に移動する。デバイス600はまた、エフェクトアフォーダンス1208を強調表示し、ビジュアルエフェクトオプションアフォーダンス1214を含むようにオプション表示領域1206を拡大する。ビジュアルエフェクトオプションアフォーダンス1214は、上述したビジュアルエフェクトオプションアフォーダンス624、824、及び1024と同様であり、エフェクトアフォーダンス1208が有効化されているときに表示される。 In FIG. 12E, device 600 enables visual effects mode in response to detecting input 1213 . Device 600 switches the display position of device image data 1201 and participant image data 1204 by displaying participant image data 1204 in window 1202 and optionally moves to another position within user interface 1200 . Device 600 also highlights effects affordance 1208 and expands option display area 1206 to include visual effects option affordance 1214 . Visual effects option affordance 1214 is similar to visual effects option affordances 624, 824, and 1024 described above and is displayed when effects affordance 1208 is enabled.

図12Fでは、デバイス600は、アバターエフェクトアフォーダンス1214-1上の入力1215を検出する。図12Gでは、それに応じて、デバイス600は、選択可能なアバターオプション1218のスクロール可能なリストを含むアバターオプションメニュー1216を表示する。アバターオプションメニュー1216は、アバターオプションメニュー628及び828と同様であり、アバターオプション1218は、アバターオプション630及び830と同様である。 In FIG. 12F, device 600 detects input 1215 on avatar effect affordance 1214-1. In FIG. 12G, device 600 accordingly displays avatar options menu 1216 containing a scrollable list of selectable avatar options 1218 . Avatar options menu 1216 is similar to avatar options menu 628 and 828 , and avatar options 1218 is similar to avatar options 630 and 830 .

アバターオプション1218は、図6G~図6Q、図6BD~図6BE、図6BK~図6BN、及び図8F~図8AGに関して上述したのと同様の方法で、対応するアバターを、デバイス画像データ1201内の被写体の顔に適用するために選択されてもよい。一部の実施形態では、アバターオプション1218は、参加者画像データ1204に表示された参加者に対するのと同様の方法で、対応するアバターを適用するように選択できる。 Avatar option 1218 displays the corresponding avatar in device image data 1201 in a manner similar to that described above with respect to FIGS. 6G-6Q, 6BD-6BE, 6BK-6BN, and 8F-8AG. It may be selected for application to the subject's face. In some embodiments, avatar options 1218 can be selected to apply corresponding avatars in a similar manner to the participants displayed in participant image data 1204 .

図12Gでは、ヌルアバターオプション1218-1が選択されている(例えば、選択領域1219内に位置している)ので、アバターはデバイス画像データ1201内のユーザの顔に表示されない。 In FIG. 12G, null avatar option 1218-1 is selected (eg, located within selection area 1219), so no avatar is displayed on the user's face in device image data 1201. In FIG.

図12H~図12Pは、様々なアバターオプションを選択し、その間で切り替えて、デバイス画像データ1201内のユーザの顔に対応するアバターを表示するための処理を示す。例えば、デバイス600は、デバイス画像データ1201に他のオブジェクト(例えば、ユーザの身体及び背景1226)の表示を維持している間に、ロボットアバターオプション1218-2の選択を受信し、デバイス画像データ1201内のユーザーの顔に、ロボットアバター1222を表示する。デバイス600は、カメラ602を使用してユーザの顔の検出された変化に基づいてロボットアバター1222の外観を変更する。デバイス600は、エイリアンアバターオプション1218-3の選択を受信し、表示されたアバターをエイリアンアバター1223に遷移させる。デバイスは、ロボットアバターオプション1218-2の後続の選択を受信し、表示されたアバターをロボットアバター1222に再び遷移させる。一部の実施形態では、ユーザは、ヌルアバターオプション1218-0を選択することによって、デバイス画像データ1201内のアバターを除去(又は表示することをやめる)するよう選択することができる。これらの処理は、図6G~図6Q、図6BD~図6BE、図6BK~図6BN、及び図8F~図8AGに関して、上記で一層詳細に論じている。簡潔性のために、これらの処理の詳細は、ここでは繰り返さない。 12H-12P illustrate the process for selecting and switching between various avatar options to display an avatar corresponding to the user's face in device image data 1201. FIG. For example, device 600 receives selection of robot avatar option 1218-2 and displays device image data 1201 while maintaining display of other objects (eg, the user's body and background 1226) in device image data 1201. A robot avatar 1222 is displayed on the user's face inside. Device 600 alters the appearance of robot avatar 1222 based on detected changes in the user's face using camera 602 . Device 600 receives selection of alien avatar option 1218 - 3 and transitions the displayed avatar to alien avatar 1223 . The device receives a subsequent selection of robot avatar option 1218-2 and transitions the displayed avatar to robot avatar 1222 again. In some embodiments, the user may choose to remove (or stop displaying) avatars in device image data 1201 by selecting null avatar option 1218-0. These processes are discussed in greater detail above with respect to FIGS. 6G-6Q, 6BD-6BE, 6BK-6BN, and 8F-8AG. For the sake of brevity, the details of these processes are not repeated here.

図12Pのクローズアイコン1220の選択を(入力1221を介して)検出した後、デバイス600は、アバターオプションメニュー1216をクローズし、図12Qのオプション表示領域1206を再表示する。デバイス600は、デバイス画像データ1201内のユーザの頭部上にロボットアバター1222を表示し、カメラ602を使用してユーザの顔の検出された変化に基づいてアバターを変更する。 After detecting selection of close icon 1220 of FIG. 12P (via input 1221), device 600 closes avatar options menu 1216 and redisplays options display area 1206 of FIG. 12Q. The device 600 displays a robot avatar 1222 over the user's head in the device image data 1201 and uses the camera 602 to change the avatar based on detected changes in the user's face.

図12Rでは、デバイス600は、ステッカーエフェクトアフォーダンス1214-2の選択1227を検出し、図12Sでは、ステッカー1230を有するステッカーオプションメニュー1228を表示する。ステッカーオプションメニュー1228は、ステッカーオプションメニュー656及び856と同様であり、ステッカー1230は、ステッカー658及び858と同様である。 12R, device 600 detects selection 1227 of sticker effect affordance 1214-2 and displays sticker options menu 1228 with sticker 1230 in FIG. 12S. Sticker option menu 1228 is similar to sticker option menu 656 and 856 and sticker 1230 is similar to sticker 658 and 858 .

ステッカー1230は、図6U~図6AD、図8AH~図8AK、及び図8AR~図8AYに関して上述したのと同様の方法で、対応するステッカーをデバイス画像データ1201に適用するために選択されてもよい。一部の実施形態では、ステッカー1230を参加者画像データ1204に適用することができる。 Stickers 1230 may be selected to apply corresponding stickers to device image data 1201 in a manner similar to that described above with respect to FIGS. 6U-6AD, 8AH-8AK, and 8AR-8AY. . In some embodiments, stickers 1230 can be applied to participant image data 1204 .

図12T~図12AAは、デバイス画像データ1201にステッカーを適用し、変更する処理を示す。デバイス600は、眼鏡ステッカー1230-1の選択を検出し、眼鏡ステッカー1230-1をデバイス画像データ1201に表示する。デバイス600はまた、後続のジェスチャを検出して、ロボットアバター1222上の眼鏡ステッカー1230-1を移動させ、サイズを変更し、及び配置する。これらの処理は、図6U~図6AD、図8AH~図8AK、及び図8AR~図8AYに関して、上記で一層詳細に論じている。簡潔性のために、これらの処理の詳細は、ここでは繰り返さない。 12T-12AA illustrate the process of applying and modifying stickers to device image data 1201. FIG. Device 600 detects selection of eyeglasses sticker 1230 - 1 and displays eyeglasses sticker 1230 - 1 in device image data 1201 . Device 600 also detects subsequent gestures to move, resize, and position glasses sticker 1230 - 1 on robot avatar 1222 . These processes are discussed in greater detail above with respect to Figures 6U-6AD, Figures 8AH-8AK, and Figures 8AR-8AY. For the sake of brevity, the details of these processes are not repeated here.

一部の実施形態では、選択されたステッカー1230は、ユーザーがデバイス画像データ1201にステッカーを配置するまで、ライブ通信セッションの他の参加者には見ることができない。一部の実施形態では、配置されたステッカー1230に対する変更は、変更が完了するまで他の参加者には見えない。一部の実施形態では、いったん選択されたステッカーがユーザインタフェース1200内のデバイス画像データ1201上に現れると、たとえユーザがステッカー1230をまだ配置していないとしても、ビデオ通信セッションの参加者はステッカーを見ることができる。同様に、たとえユーザがステッカーの配置をまだ変更していても、ステッカーの継続的な変更がライブビデオ通信セッションの他の参加者に見えるように、配置されたステッカーに対する変更が可視化される。 In some embodiments, the selected sticker 1230 is not visible to other participants in the live communication session until the user places the sticker on the device image data 1201. In some embodiments, changes to placed stickers 1230 are not visible to other participants until the changes are completed. In some embodiments, once the selected sticker appears on the device image data 1201 in the user interface 1200, participants in the video communication session can place the sticker even if the user has not yet placed the sticker 1230. can see. Similarly, even if the user is still changing the placement of the stickers, changes to the placed stickers are made visible such that the ongoing change of the stickers is visible to other participants in the live video communication session.

図12ABでは、ロボットアバター1222、眼鏡ステッカー1230-1がデバイス画像データ1201に適用され、オプション表示領域1206が表示される。デバイス600は、ユーザインタフェース1200上のジェスチャ1232を検出し、これに応じて、デバイス画像データ1201が、ユーザインタフェース1200内の別の位置に任意選択的に移動するウインドウ1202内に表示されるように、図12ACでは、デバイス画像データ1201及び参加者画像データ1204の表示位置を切り替える。ビジュアルエフェクト(例えば、ロボットアバター1222及び眼鏡ステッカー1230-1)は、ウィンドウ1202に配置されたデバイス画像データ1201に表示される。 In FIG. 12AB, robot avatar 1222, glasses sticker 1230-1 are applied to device image data 1201, and option display area 1206 is displayed. Device 600 detects gesture 1232 on user interface 1200 and in response device image data 1201 is displayed within window 1202 that optionally moves to another position within user interface 1200 . 12AC, the display positions of the device image data 1201 and the participant image data 1204 are switched. Visual effects (eg, robot avatar 1222 and glasses sticker 1230 - 1 ) are displayed in device image data 1201 located in window 1202 .

図12ADに示すように、ウィンドウ1202上のジェスチャ1233を受信したことに応じて(参加者画像データ1204を用いて位置を再び切り替えることにより)、デバイス画像データ1201を再拡大することができる。デバイス600は、図12AEで切り替えられたデバイス画像データ1201及び参加者画像データ1204を、表示されたビジュアルエフェクト及びオプション表示領域1206と共に示す。エフェクトモードが有効化されているので、オプション表示領域1206が表示されると、ビジュアルエフェクトオプションアフォーダンス1214も表示される。 As shown in FIG. 12AD, in response to receiving gesture 1233 on window 1202 (by switching position again with participant image data 1204), device image data 1201 can be re-magnified. Device 600 shows device image data 1201 and participant image data 1204 switched in FIG. 12AE, with displayed visual effects and option display area 1206 . Since effects mode is enabled, visual effects option affordance 1214 is also displayed when option display area 1206 is displayed.

ライブビデオ通信セッションにおけるビジュアルエフェクトを表示するための前述の説明は、3人以上の参加者を有するライブビデオ通信セッションにも適用される。図12AF~図12APは、このような実施形態においてビジュアルエフェクトを適用するための様々な方法を示す。 The above description for displaying visual effects in a live video communication session also applies to live video communication sessions with three or more participants. Figures 12AF-12AP illustrate various methods for applying visual effects in such embodiments.

図12AFでは、デバイス600は、デバイス画像データ1201をユーザウィンドウ1251に、及びそれぞれの参加者画像データ1204-1~1204-4をそれぞれの参加者ウィンドウ1255-1~1255-4に有するユーザインタフェース1200表示する。 In FIG. 12AF, device 600 displays user interface 1200 with device image data 1201 in user window 1251 and respective participant image data 1204-1 through 1204-4 in respective participant windows 1255-1 through 1255-4. indicate.

図12AGでは、デバイス600は、ユーザインタフェース1200上の入力1256を受信し、これに応じて、図12AHで、エフェクトアフォーダンス1208、カメラセレクタアフォーダンス1210、及びエンドアフォーダンス1212を有する、オプション表示領域1206を表示する。デバイス600が入力1256を受信するときにはエフェクトモードが有効化されていないので、オプション表示領域1206が、ビジュアルエフェクトオプションアフォーダンス1214なしで表示される。 In FIG. 12AG, device 600 receives input 1256 on user interface 1200 and in response displays option display area 1206 having effect affordance 1208, camera selector affordance 1210, and end affordance 1212 in FIG. 12AH. do. Since effects mode is not enabled when device 600 receives input 1256 , option display area 1206 is displayed without visual effects option affordance 1214 .

図12AIでは、デバイス600は、ビジュアルエフェクトモードを有効化する、エフェクトアフォーダンス1208上の入力1257を検出する。次いで、デバイス600は、図12AJに示すように、拡大表示に拡張してユーザウィンドウ1251を表示し、ウィンドウ1251の背後にぼかしエフェクト1258を適用もしながら、オプション表示領域1206を拡張してビジュアルエフェクトオプションアフォーダンスス1214を表示する。拡張ウィンドウ1251は、図12AIに示すビューに戻るように選択可能なリターンアイコン1260を含む。 In FIG. 12AI, device 600 detects input 1257 on effects affordance 1208 that enables visual effects mode. Device 600 then expands to zoomed display to display user window 1251 and expands options display area 1206 to display the visual effects options while also applying a blur effect 1258 behind window 1251, as shown in FIG. 12AJ. Display affordances 1214 . Expansion window 1251 includes a selectable return icon 1260 to return to the view shown in FIG. 12AI.

上述したように、ビジュアルエフェクトは、ビジュアルエフェクトオプションアフォーダンス1214を使用してデバイス画像データ1201に適用することができる。例えば、デバイス600は、図12R~図12ABに関して上述したものと一致する方法で、ステッカーを貼り付けることができる。図12AK~図12ANは、デバイス画像データ1251内のユーザの顔に追加カスタマイズ可能なアバター1262を示す。例えば、図12AKでは、ヌルアバターオプション1218-1(アバターを表示することをやめるか、又は表示されたアバターを除去するかを選択可能)を含むアバターオプション1218を有するアバターオプションメニュー1216、カスタマイズ不可能なロボットアバターオプション1218-2、カスタマイズ可能なアバターオプション1218-3、及び新規アバターアフォーダンス1266(新規アバターアフォーダンス813と同様の方法で新規アバターを作成するために選択可能)を、デバイス600に表示させる、アバターエフェクトアフォーダンス1214-1が選択される(1264)。カスタマイズ可能なアバターオプション1218-3は、上述したカスタマイズ可能なアバターオプション830-5と同様の方法でカスタマイズできる。 As described above, visual effects can be applied to device image data 1201 using visual effects option affordances 1214 . For example, the device 600 can apply stickers in a manner consistent with that described above with respect to Figures 12R-12AB. 12AK-12AN show an avatar 1262 that can additionally be customized to the user's face in the device image data 1251. FIG. For example, in FIG. 12AK, avatar options menu 1216 with avatar options 1218 including null avatar option 1218-1 (you can choose to either stop displaying the avatar or remove the displayed avatar), not customizable. robot avatar option 1218-2, customizable avatar option 1218-3, and new avatar affordance 1266 (selectable to create a new avatar in a manner similar to new avatar affordance 813) are displayed on device 600; Avatar effect affordance 1214-1 is selected (1264). Customizable avatar option 1218-3 can be customized in a manner similar to customizable avatar option 830-5 described above.

図12AM~図12ANでは、カスタマイズ可能なアバターオプション1218-3が選択され、デバイス600は、カスタマイズ可能なアバター1273を、ウィンドウ1251に表示されたデバイス画像データ1201内のユーザの顔に表示する。デバイス600は、カメラ602の視野内に位置するユーザの顔の検出された変化に基づいて、カスタマイズ可能なアバター1273を変更する。デバイスは、本明細書で前述した先の実施形態に関して説明したように、ユーザの顔がカメラ602の視野内で検出されない場合を示す。 12AM-12AN, customizable avatar option 1218-3 is selected and device 600 displays customizable avatar 1273 on the user's face in device image data 1201 displayed in window 1251. In FIGS. Device 600 modifies customizable avatar 1273 based on detected changes in the user's face located within field of view of camera 602 . The device indicates when the user's face is not detected within the field of view of the camera 602 as described with respect to previous embodiments previously described herein.

図12ANでは、デバイス600は、リターンアイコン1260上の入力1274を検出し、これに応じて、図12AOに示すように、適用されたビジュアルエフェクト(例えば、カスタマイズ可能なアバター1273)を含みながら、デバイス画像データ1201をウィンドウ1251に表示する。図12AOに示す実施形態では、デバイス画像データ1201及び適用されたビジュアルエフェクトは、ライブビデオ通信セッションの他の参加者が見ることができる。ビジュアルエフェクトが有効化されるので、ビジュアルエフェクトオプションアフォーダンス1214及びエフェクトアフォーダンス1208が強調表示されて、オプション表示領域1206が表示される。 In FIG. 12AN, device 600 detects input 1274 on return icon 1260 and, in response, device 600 returns while including the applied visual effects (eg, customizable avatar 1273) as shown in FIG. 12AO. Image data 1201 is displayed in window 1251 . In the embodiment shown in FIG. 12AO, device image data 1201 and applied visual effects are visible to other participants in the live video communication session. Visual effects option affordance 1214 and effect affordance 1208 are highlighted and option display area 1206 is displayed because visual effects are enabled.

図12AOでは、デバイスは、ユーザインタフェース1200上の入力1275を検出し、それに応じて、オプション表示領域1206を隠し、図12APに示すように、様々な参加者ウィンドウ1255の位置をシフトし、サイズ変更する。一部の実施形態では、デバイス600は、参加者が話しているときに、それぞれの参加者ウィンドウを拡大する。例えば、図12APでは、デバイス600は、参加者画像データ1204-2に表された女性からの音声1276(例えば、笑い声)を検出し、それに応じて、女性の参加者ウィンドウ1255-2を拡大する。 In FIG. 12AO, the device detects input 1275 on user interface 1200 and accordingly hides option display area 1206 and shifts and resizes various participant windows 1255 as shown in FIG. 12AP. do. In some embodiments, device 600 expands each participant window when participants are speaking. For example, in FIG. 12AP, device 600 detects voice 1276 (eg, laughter) from a female represented in participant image data 1204-2 and expands female participant window 1255-2 accordingly. .

図13A~図13Bは、一部の実施形態に係る、電子デバイスを使用してライブビデオ通信セッションアプリケーションにビジュアルエフェクトを表示するための方法を示すフロー図である。方法1300は、表示装置を備えたデバイス(例えば、100、300、500、600)において実行される。方法1300におけるいくつかの動作は、任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 13A-13B are flow diagrams illustrating methods for displaying visual effects in a live video communication session application using an electronic device, according to some embodiments. Method 1300 is performed on a device (eg, 100, 300, 500, 600) with a display. Some acts in method 1300 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

以下に説明するように、方法1300は、ライブビデオ通信セッションにおいてビジュアルエフェクトを表示するための直感的な方法を提供する。この方法は、ビジュアルエフェクトを表示している際のユーザへの認知負担を軽減し、それによって、より効率的なヒューマンマシンインタフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ビジュアルエフェクトをユーザーがより迅速かつ効率的に表示できるようにすることで、電力を節約し、バッテリ充電間の時間を増大させる。 As described below, method 1300 provides an intuitive method for displaying visual effects in a live video communication session. This method reduces the cognitive burden on the user when displaying visual effects, thereby creating a more efficient human-machine interface. Battery-operated computing devices save power and increase the time between battery charges by allowing users to display visual effects more quickly and efficiently.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、ライブビデオ通信アプリケーションのライブビデオ通信ユーザインタフェース(例えば、1200)を表示する(1302)。ライブビデオ通信ユーザインタフェースは、ライブビデオ通信セッションに参加している被写体の表現(例えば、1201)を含む(1304)。ライブビデオ通信セッションに参加している被写体の表現を含むことにより、ユーザは、ライブビデオ通信セッションの他の参加者(単数又は複数)を迅速かつ容易に認識することができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ライブビデオ通信セッションに参加している被写体の表現は、電子デバイスに関連付けられたカメラ(例えば、602)によってキャプチャされた画像データを含む(1306)。一部の実施形態では、被写体は電子デバイスのユーザである。一部の実施形態では、ライブビデオ通信セッションに参加している被写体の表現は、第2の電子デバイスから電子デバイスに伝送された画像データを含む。一部の実施形態では、第2の電子デバイスは別のユーザのデバイスであり、被写体は他のユーザである。 An electronic device (eg, 600) displays (1302) a live video communications user interface (eg, 1200) of a live video communications application via a display (eg, 601). A live video communication user interface includes (1304) a representation (eg, 1201) of a subject participating in a live video communication session. By including representations of subjects participating in a live video communication session, users can quickly and easily recognize other participant(s) in the live video communication session. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the representation of the subject participating in the live video communication session includes (1306) image data captured by a camera (eg, 602) associated with the electronic device. In some embodiments, the subject is the user of the electronic device. In some embodiments, the representation of the subject participating in the live video communication session includes image data transmitted from the second electronic device to the electronic device. In some embodiments, the second electronic device is another user's device and the subject is the other user.

一部の実施形態では、ライブビデオ通信ユーザインタフェース(例えば、1200)は、ライブビデオ通信セッションにおける第2の参加者の表現(例えば、1204)、及びライブビデオ通信セッションにおける第3の参加者の表現を更に含む。一部の実施形態では、ライブビデオ通信セッションにおける第2及び第3の参加者の表現の表示サイズが、参加者のすべての表現が画面上に収まるように調整される。第2及び第3の参加者の表現のサイズを画面に合わせるように調整することにより、ユーザは、ユーザの表現に適用されるビジュアルエフェクトに対する彼らの反応を同時に見ることができ、それによって(例えば、ユーザが手動入力なしに他の参加者の反応を容易に見ることを可能にすることにより)、デバイスの操作性を向上させ、ユーザデバイスインタフェースをより効率的にし、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力消費を低減し、装置のバッテリ寿命を改善する。 In some embodiments, the live video communication user interface (eg, 1200) includes a representation of a second participant in the live video communication session (eg, 1204) and a representation of a third participant in the live video communication session. further includes In some embodiments, the display size of the representations of the second and third participants in the live video communication session is adjusted so that all representations of the participants fit on the screen. By adjusting the size of the representations of the second and third participants to fit the screen, the user can simultaneously see their reactions to the visual effects applied to their representation, thereby (e.g. , by allowing users to easily see the reactions of other participants without manual input), improve device usability, make user-device interfaces more efficient, and allow users to interact with their devices. It reduces power consumption and improves the battery life of the device by allowing it to be used more quickly and efficiently.

ライブビデオ通信ユーザインタフェース(例えば、1200)は、第1のアフォーダンス(例えば、1208、エフェクトアフォーダンス)(例えば、カメラエフェクトモード(例えば、様々なカメラエフェクトをライブビデオ通信セッション内のユーザの表現に適用できるモード)をアクティブ化するための機能に関連付けられたアフォーダンス)を含む(1308)。 A live video communication user interface (e.g., 1200) provides a first affordance (e.g., 1208, effect affordance) (e.g., a camera effects mode (e.g., various camera effects can be applied to a user's presentation within a live video communication session). Affordances associated with the function for activating the mode) (1308).

一部の実施形態では、電子デバイス(例えば、600)は、第1のアフォーダンス(例えば、1208)を表示する前に、ライブビデオ通信ユーザインタフェース(例えば、1200)上の第1の入力(例えば、1205)(例えば、ビデオ通話オプションを表示するためのライブビデオ通信ユーザインタフェース上のタップジェスチャ)を検出し、この第1の入力は、ライブビデオ通信セッションに関連付けられた1つ以上のオプション(例えば、通話を終了するオプション、カメラビューを切り替えるオプションなど)を表示する要求に対応する。一部の実施形態では、電子デバイスは、第1の入力を検出したことに応じて、ライブビデオ通信セッションに関連付けられた1つ以上のオプション(例えば、1208、1210、1212)を表示する。一部の実施形態では、電子デバイスは、第1のアフォーダンス(例えば、1208)を表示する。 In some embodiments, the electronic device (eg, 600) receives a first input (eg, 1205) (e.g., a tap gesture on a live video communication user interface to display video call options), where the first input is one or more options associated with the live video communication session (e.g., respond to requests to display options to end a call, switch camera views, etc.). In some embodiments, the electronic device displays one or more options (eg, 1208, 1210, 1212) associated with the live video communication session in response to detecting the first input. In some embodiments, the electronic device displays a first affordance (eg, 1208).

電子デバイス(例えば、600)は、第1のアフォーダンス(例えば、1208)に向けられたジェスチャ(例えば、1213)を検出する(1310)。第1のアフォーダンスに向けられたジェスチャを検出する(1312)ことに応じて、電子デバイスはカメラエフェクトモードをアクティブ化する(1314)。 An electronic device (eg, 600) detects (1310) a gesture (eg, 1213) directed at a first affordance (eg, 1208). In response to detecting (1312) a gesture directed at the first affordance, the electronic device activates (1314) a camera effects mode.

一部の実施形態では、第1のアフォーダンス(例えば、1208)に向けられたジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、ビジュアルエフェクトの第1のタイプに関連付けられた第1のビジュアルエフェクトアフォーダンス、及びビジュアルエフェクトの第1のタイプとは異なるビジュアルエフェクトの第2のタイプに関連付けられた第2のビジュアルエフェクトアフォーダンス、並びに任意選択的に、ビジュアルエフェクトの第1のタイプ及びビジュアルエフェクトの第2のタイプとは異なる、ビジュアルエフェクトの第3のタイプに関連付けられた第3のビジュアル関連付けられたエフェクトアフォーダンス(例えば、ステッカーアフォーダンス1214-2、アバターアフォーダンス1214-1、フルスクリーンエフェクトにアフォーダンス)を表示する。一部の実施形態では、ステッカーアフォーダンスは、ステッカーがライブビデオ通信セッションに参加している被写体の表現内に表示されるビジュアルエフェクトに関連付けられている。一部の実施形態では、アバターアフォーダンスは、仮想アバターがライブビデオ通信セッションに参加している被写体の表現上に表示されるビジュアルエフェクトに関連付けられている。一部の実施形態では、フルスクリーンエフェクトは、ライブビデオ通信セッションの参加者の前、背後、及び/又はその上に、紙吹雪又は風船などのグラフィカルオブジェクトが表示されるビジュアルエフェクトを含む。 In some embodiments, in response to detecting a gesture directed at a first affordance (eg, 1208), the electronic device (eg, 600) generates a first gesture associated with the first type of visual effect. one visual effect affordance and a second visual effect affordance associated with a second type of visual effect different from the first type of visual effect, and optionally the first type of visual effect and the visual A third visual associated effect affordance associated with a third type of visual effect that is different from the second type of effect (e.g., sticker affordance 1214-2, avatar affordance 1214-1, full screen effect affordance ). In some embodiments, the sticker affordance is associated with a visual effect in which the sticker is displayed within a representation of a subject participating in a live video communication session. In some embodiments, avatar affordances are associated with visual effects displayed over a representation of a subject whose virtual avatar is participating in a live video communication session. In some embodiments, full-screen effects include visual effects in which graphical objects such as confetti or balloons are displayed in front of, behind, and/or over participants in a live video communication session.

一部の実施形態では、電子デバイス(例えば、600)は、あるタイプのビジュアルエフェクトに関連付けられたアフォーダンス(例えば、ステッカーアフォーダンス1214-2、アバターアフォーダンス1214-1、フルスクリーンエフェクトに関連付けられたアフォーダンス)のうちの1つの選択(例えば、1215)を検出する。一部の実施形態では、ビジュアルエフェクトに関連付けられたアフォーダンスの選択を検出したことに応じて、電子デバイスは、ビジュアルエフェクトに対応する複数のビジュアルエフェクトオプション(1218)を表示する。ビジュアルエフェクトに関連付けられたアフォーダンスの選択を検出したことに応じて、ビジュアルエフェクトに対応する複数のビジュアルエフェクトオプションを表示することにより、ユーザは、対応するビジュアルエフェクトオプションに迅速かつ容易にアクセスすることができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ステッカーアフォーダンスは、静止グラフィカルオブジェクト(例えば、帽子、星、眼鏡など)の表現(例えば、ライブビデオ通信セッションに参加している被写体の表現)を画像データに表示することを含む、ビジュアルエフェクトに関連付けられる。一部の実施形態では、アバターアフォーダンスは、人の頭部の画像データが仮想アバターのグラフィック表現に置換されるように、仮想アバター(例えば、カスタマイズ可能な仮想アバター、又はカスタマイズ不可能な仮想アバター)の表現を表示することを含むビジュアルエフェクトと関連付けられる。一部の実施形態では、フルスクリーンエフェクトは、紙吹雪又は風船などのグラフィカルオブジェクトが、ライブビデオ通信セッションの参加者の前、背後、及び/又はその上に表示されるビジュアルエフェクトを含む。 In some embodiments, the electronic device (eg, 600) displays affordances associated with certain types of visual effects (eg, sticker affordances 1214-2, avatar affordances 1214-1, affordances associated with full-screen effects). Detects the selection (eg, 1215) of one of the . In some embodiments, in response to detecting selection of affordances associated with a visual effect, the electronic device displays multiple visual effect options (1218) corresponding to the visual effect. By displaying a plurality of visual effect options corresponding to the visual effect in response to detecting a selection of affordances associated with the visual effect, the user can quickly and easily access the corresponding visual effect options. can. By providing additional control options without cluttering the user interface with additional visible controls, the usability of the device is improved and the user device interface (e.g., appropriate inputs when manipulating/interacting with the device) and make it more efficient (by reducing user error), as well as reduce the power usage of the device by allowing the user to use the device more quickly and efficiently reduce and improve battery life. In some embodiments, sticker affordances refer to displaying representations of static graphical objects (eg, hats, stars, eyeglasses, etc.) (eg, representations of subjects participating in a live video communication session) in the image data. associated with a visual effect, including In some embodiments, an avatar affordance is a virtual avatar (eg, a customizable virtual avatar or a non-customizable virtual avatar) such that image data of a person's head is replaced with a graphical representation of the virtual avatar. associated with a visual effect that involves displaying a representation of In some embodiments, full-screen effects include visual effects in which graphical objects such as confetti or balloons are displayed in front of, behind, and/or over participants in a live video communication session.

電子デバイス(例えば、600)は、第1のアフォーダンスに向けられたジェスチャを検出すること(1312)に応じて、ライブビデオ通信セッションに参加している被写体の表現(例えば、1201)のサイズを増大させる(1316)。第1のアフォーダンスに向けられたジェスチャを検出すること(1312)に応じて、ライブビデオ通信セッションに参加している被写体の表現のサイズを増大させることにより、ユーザは、被写体の表現のサイズを迅速かつ容易に調整することができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、被写体の表現のサイズを増大することは、被写体の表示された表現の位置を、ライブビデオ通信セッションにおいて表示された参加者の位置に切り替えることを含む。 An electronic device (eg, 600) increases the size of a representation (eg, 1201) of a subject participating in a live video communication session in response to detecting (1312) a gesture directed at a first affordance. (1316). By increasing the size of the representation of the subject participating in the live video communication session in response to detecting 1312 a gesture directed to the first affordance, the user can quickly increase the size of the representation of the subject. and can be easily adjusted. By providing additional control options without cluttering the user interface with additional displayed controls, the usability of the device is improved and the user device interface (e.g., appropriate inputs when operating/interacting with the device) and make it more efficient (by reducing user error), as well as reduce the power usage of the device by allowing the user to use the device more quickly and efficiently reduce and improve battery life. In some embodiments, increasing the size of the representation of the subject includes switching the position of the displayed representation of the subject to the positions of the displayed participants in the live video communication session.

一部の実施形態では、カメラエフェクトモードがアクティブ化されている間に(1318)、電子デバイス(例えば、600)は、エフェクトオプションアフォーダンス(例えば、ライブビデオ通信セッションに参加している被写体の表現にビジュアルエフェクトを表示するための機能に関連付けられた選択可能なアイコン)の選択を検出する(1320)。一部の実施形態では、エフェクトオプションアフォーダンスは、ステッカーアフォーダンス、アバターアフォーダンス、又は紙吹雪若しくは風船などのフルスクリーンエフェクトに関連付けられたアフォーダンスである。 In some embodiments, while the camera effects mode is activated 1318, the electronic device (e.g., 600) provides effects option affordances (e.g., to representation of a subject participating in a live video communication session). A selectable icon associated with a function for displaying a visual effect) is detected (1320). In some embodiments, the effect option affordance is a sticker affordance, an avatar affordance, or an affordance associated with a full screen effect such as confetti or balloons.

一部の実施形態では、エフェクトオプションアフォーダンスの選択を検出したことに応じて、電子デバイスは、ライブビデオ通信セッションに参加している被写体の表現の外観を、選択されたエフェクトオプションアフォーダンスに関連付けられたビジュアルエフェクト(例えば、ステッカー、アバター、又はフルスクリーンエフェクトを表示すること)に基づいて変更する(1322)。選択されたエフェクトオプションアフォーダンスに関連付けられたビジュアルエフェクトに基づいて、ライブビデオ通信セッションに参加している被写体の表現の外観を変更することにより、選択されたビジュアルエフェクトの適用が成功したという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ステッカーアフォーダンスの選択を検出すること応じて、ライブビデオ通信セッションに参加しているユーザーの表現が、選択されたステッカーを表示するように変更される。一部の実施形態では、アバターアフォーダンスの選択を検出すること応じて、ライブビデオ通信セッションに参加しているユーザーの表現が、ユーザの顔に位置するアバターを表示するように変更される。一部の実施形態では、フルスクリーンエフェクトに関連付けられたアフォーダンスの選択を検出することに応じて、フルスクリーンエフェクトが、ライブビデオ通信セッションに参加しているユーザの表現に表示される(例えば、紙吹雪が、ユーザの表現の前、背後、及びその上に落ちていくように表示される)。 In some embodiments, in response to detecting selection of an effect option affordance, the electronic device modifies the appearance of the representation of the subject participating in the live video communication session as associated with the selected effect option affordance. Change 1322 based on visual effects (eg, displaying stickers, avatars, or full screen effects). Provides visual feedback of successful application of the selected visual effect by changing the appearance of the representation of the subject participating in the live video communication session based on the visual effect associated with the selected effect option affordance. offer. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, in response to detecting the selection of a sticker affordance, the representation of the user participating in the live video communication session is changed to display the selected sticker. In some embodiments, in response to detecting selection of an avatar affordance, a representation of a user participating in a live video communication session is changed to display an avatar positioned on the user's face. In some embodiments, the full-screen effect is displayed on a representation of a user participating in a live video communication session (e.g., paper A blizzard appears to fall in front of, behind, and over the user's representation).

一部の実施形態では、電子デバイス(例えば、600)は、ライブビデオ通信ユーザインタフェース(例えば、1200)上の、ライブビデオ通信セッションに参加している被写体の表現のサイズを縮小する要求に対応する第2の入力を検出する。一部の実施形態では、第2の入力を検出したことに応じて、電子デバイスは、選択されたエフェクトオプションアフォーダンスに関連付けられたビジュアルエフェクトに基づく変更された外観を有する、ライブビデオ通信セッションに参加している被写体の表現と、ライブビデオ通信セッションにおけるそれぞれの参加者の1つ以上の表現と、同時に表示する。第2の入力を検出したことに応じて、ライブビデオ通信セッションに参加している被写体の表現と、ライブビデオ通信セッションのそれぞれの参加者の1つ以上の表現とを同時に表示することにより、ユーザは、ライブビデオ通信の他の参加者を迅速かつ容易に(同時に)視認することができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、ライブビデオ通信セッションにおけるユーザの表現が、ライブビデオ通信セッションにおける他の参加者の表現と共に画面上に表示されるように、縮小される。 In some embodiments, an electronic device (eg, 600) responds to a request to reduce the size of a representation of a subject participating in a live video communication session on a live video communication user interface (eg, 1200). A second input is detected. In some embodiments, in response to detecting the second input, the electronic device joins a live video communication session with an altered appearance based on visual effects associated with the selected effect option affordance. Simultaneously display a representation of the subject playing and one or more representations of each participant in the live video communication session. by simultaneously displaying a representation of a subject participating in the live video communication session and one or more representations of each participant in the live video communication session in response to detecting a second input; can quickly and easily view (simultaneously) other participants in a live video communication. By providing additional control options without cluttering the user interface with additional visible controls, the usability of the device is improved and the user device interface (e.g., appropriate inputs when manipulating/interacting with the device) and make it more efficient (by reducing user error), as well as reduce the power usage of the device by allowing the user to use the device more quickly and efficiently reduce and improve battery life. In some embodiments, a representation of the user in the live video communication session is scaled down so that it is displayed on-screen along with representations of other participants in the live video communication session.

一部の実施形態では、カメラエフェクトモードがアクティブ化されている間に(1318)、電子デバイス(例えば、600)は、ライブビデオ通信セッションに参加している被写体の表現(例えば、1201)の外観を変更して(1324)1つ以上のビジュアルエフェクトを表示する。一部の実施形態では、ビジュアルエフェクトがステッカーエフェクトである場合、ライブビデオ通信セッションに参加している被写体の表現の外観は、静的なグラフィカルオブジェクト(例えば、ステッカー)の表示を含むように変更される。一部の実施形態では、静的グラフィカルオブジェクト(例えば、ステッカー)は、ライブビデオ通信セッションに参加している被写体の表現と対話する。一部の実施形態では、ビジュアルエフェクトがアバターエフェクトである場合、ライブビデオ通信セッションに参加している被写体の表現の外観は、被写体の頭部を置換する仮想アバター(例えば、カスタマイズ可能な仮想アバター、又はカスタマイズ不可能な仮想アバター)の表現を表示するように変更される。一部の実施形態では、ビジュアルエフェクトがフルスクリーンエフェクトである場合、ライブビデオ通信セッションに参加している被写体の表現の外観は、ライブビデオ通信セッションの参加者の前、背後、及び/又はその上に表示されるグラフィカルオブジェクト(例えば、グラフィックな紙吹雪、又はグラフィックな風船)を表示するように変更される。 In some embodiments, while the camera effects mode is activated (1318), the electronic device (eg, 600) displays the appearance of a representation (eg, 1201) of the subject participating in the live video communication session. is changed 1324 to display one or more visual effects. In some embodiments, when the visual effect is a sticker effect, the appearance of the representation of the subject participating in the live video communication session is modified to include the display of static graphical objects (e.g., stickers). be. In some embodiments, static graphical objects (eg, stickers) interact with representations of subjects participating in a live video communication session. In some embodiments, when the visual effect is an avatar effect, the appearance of the representation of the subject participating in the live video communication session is a virtual avatar that replaces the subject's head (e.g., a customizable virtual avatar, or a non-customizable virtual avatar) representation. In some embodiments, when the visual effect is a full screen effect, the appearance of the representation of the subject participating in the live video communication session is in front of, behind and/or above the participants in the live video communication session. is modified to display a graphical object (eg, a graphical confetti or a graphical balloon) displayed in the .

一部の実施形態では、変更された外観は、ライブビデオ通信セッションの他の参加者に送信/伝送される。一部の実施形態では、データを送信することは、選択されたビジュアルエフェクトに基づいて行われた変更を表すデータ(例えば、別個のデータ)と一緒に、画像データ(例えば、カメラの視野からの画像データのリアルタイムストリーム)を送信することを含む。一部の実施形態では、データを送信することは、選択されたビジュアルエフェクトに基づいて行われた変更を表すデータと結合されたカメラの視野からの画像データを含む、コンポジットビデオデータを送信することを含む。 In some embodiments, the modified look is sent/transmitted to other participants in the live video communication session. In some embodiments, transmitting the data includes image data (e.g., from a camera's field of view) along with data (e.g., separate data) representing changes made based on the selected visual effect. transmitting a real-time stream of image data). In some embodiments, transmitting data comprises transmitting composite video data including image data from a camera's field of view combined with data representing changes made based on the selected visual effect. including.

一部の実施形態では、カメラエフェクトモードがアクティブ化されている間に、電子デバイス(例えば、600)は、ライブビデオ通信セッションに参加している被写体の表現(例えば、1200)の外観を変更して仮想アバターを表示する。一部の実施形態では、電子デバイスは、電子デバイスの1つ以上のカメラ(例えば、602)の視野内の顔の変化を検出する。一部の実施形態では、電子デバイスは、顔の検出された変化に基づいて、仮想アバターの外観を変更する。顔の検出された変化に基づいて仮想アバターの外観を変更することにより、仮想アバターが顔に基づいている/関連付けられているという視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、仮想アバターは、ライブビデオ通信セッションに参加している被写体の動きを反映するように変更される。一部の実施形態では、顔の変化は、本明細書で論じるように、1つ以上の深度カメラ及び/又は深度マップを使用して検出される。 In some embodiments, the electronic device (eg, 600) modifies the appearance of a representation (eg, 1200) of a subject participating in a live video communication session while the camera effects mode is activated. to display a virtual avatar. In some embodiments, the electronic device detects facial changes within the field of view of one or more cameras (eg, 602) of the electronic device. In some embodiments, the electronic device modifies the appearance of the virtual avatar based on detected changes in the face. Changing the appearance of the virtual avatar based on detected changes in the face provides visual feedback that the virtual avatar is based on/associated with the face. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the virtual avatar is modified to reflect the movements of the subject participating in the live video communication session. In some embodiments, facial changes are detected using one or more depth cameras and/or depth maps as discussed herein.

一部の実施形態では、カメラエフェクトモードがアクティブ化されている間に、電子デバイス(例えば、600)は、ライブビデオ通信セッションに参加している被写体の表現に第1のビジュアルエフェクト(例えば、ステッカー)を表示する。一部の実施形態では、電子デバイスは、第1のビジュアルエフェクトに対応する入力(例えば、タッチ入力)を検出する。一部の実施形態では、第1のビジュアルエフェクトに対応する入力を検出したことに応じて、入力が第1のタイプ(例えば、タッチアンドドラッグジェスチャ)であるとの判定に従って、電子デバイスは、大きさ(例えば、ジェスチャが移動する距離)及び入力の方向に基づいて、ライブビデオ通信セッションに参加している被写体の表現における第1のビジュアルエフェクトの位置を変更する。一部の実施形態では、第1のビジュアルエフェクトに対応する入力を検出したことに応じて、入力が第2のタイプ(例えば、ピンチ又はデピンチジェスチャ)であるとの判定に従って、電子デバイスは、入力の大きさ(例えば、ピンチ/デピンチジェスチャの接触点間の調整された距離)に基づいて、第1のビジュアルエフェクトのサイズを変更する。入力の大きさに基づいてライブビデオ通信セッションに参加している被写体の表現における第1のビジュアルエフェクトの位置を変更するか、又は入力のタイプに基づく入力の大きさ(例えば、ピンチ/デピンチジェスチャの接触点間の調整された距離)に基づいて第1のビジュアルエフェクトのサイズを変更することにより、ユーザは、(入力のタイプを単に変更することによって)ビジュアルエフェクトの位置又はサイズを迅速かつ容易に調整することができる。操作を行うために必要な入力の数を低減することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, while the camera effects mode is activated, the electronic device (eg, 600) applies a first visual effect (eg, sticker ). In some embodiments, the electronic device detects input (eg, touch input) corresponding to the first visual effect. In some embodiments, in response to detecting input corresponding to a first visual effect and determining that the input is of a first type (eg, a touch-and-drag gesture), the electronic device performs a large The position of the first visual effect in the representation of the subject participating in the live video communication session is changed based on the motion (eg, distance traveled by the gesture) and the direction of the input. In some embodiments, in response to detecting input corresponding to a first visual effect and following determining that the input is of a second type (eg, a pinch or de-pinch gesture), the electronic device: Resize the first visual effect based on the magnitude of the input (eg, the adjusted distance between contact points of the pinch/de-pinch gesture). Change the position of the first visual effect in the representation of the subject participating in the live video communication session based on the magnitude of the input, or change the magnitude of the input based on the type of input (e.g. pinch/de-pinch gesture). By resizing the first visual effect based on the adjusted distance between the contact points of the user, the user can quickly and easily position or size the visual effect (by simply changing the type of input). can be adjusted to By reducing the number of inputs required to perform an operation, the usability of the device is improved and the user device interface (e.g. assisting the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reduce device power usage and improve battery life by allowing users to use the device more quickly and efficiently. do.

一部の実施形態では、第1のビジュアルエフェクトの位置を変更することは、以下の手順のうちの1つ以上を含む。入力(例えば、889)の終了を検出する前に、入力の大きさ及び方向に基づいて第1のビジュアルエフェクト(例えば、858-4)の動きを表示すること、第1のビジュアルエフェクト(例えば、ステッカー(858-4))が所定の位置(例えば、被写体の表情の一部(例えば、被写体の顔)に対応する位置)の境界領域を横切って移動したという判定に従って、第1のビジュアルエフェクトが境界領域を横切った(例えば、横切っている)というインジケーションを生成する(例えば、ブラケットを表示する(例えば、890)、又は触覚応答(例えば、892)を生成する)こと(例えば、図8BGに示すように、被写体の顔の表現の回りにブラケットを表示する)。一部の実施形態では、所定の位置の境界領域内に交差しているとき(又は後に)、デバイスは所定の位置の周囲にブラケットを表示し、及び/又は触覚フィードバック(例えば、触知出力)を生成して、ステッカーが被写体の顔に配置され、ジェスチャの終了時に被写体の顔に配置されることになる(例えば、ステッカーが被写体の顔の表現との関係を有することになる、例えば、ステッカーがユーザーの顔とのステッカーの関係に基づく挙動を有することになる)ことを示す。一部の実施形態では、所定の位置の境界領域外へ交差しているとき(又は後に)、デバイスは、所定の位置の周囲にブラケットを表示し、及び/又はステッカーがもはや被写体の顔に配置されていないことを示す触覚フィードバックを生成し、ジェスチャが終了しても被写体の顔に配置されることはない(例えば、ステッカーが被写体の顔の表現と異なる関係を有することになる、例えば、ステッカーは、ユーザーの顔に対するステッカーの関係に基づいて異なる挙動を有することになる、例えば、ステッカーは被写体の顔から離れた位置に配置されることになる)ことを示す。一部の実施形態では、インジケーションは、触覚フィードバック(例えば、触知出力及び/若しくは音声出力)、又は視覚フィードバック(例えば、境界領域の視覚的表現、所定位置の周囲に表示されるブラケット)のうちの少なくとも1つである。 In some embodiments, changing the position of the first visual effect includes one or more of the following procedures. Displaying movement of the first visual effect (eg, 858-4) based on the magnitude and direction of the input before detecting the end of the input (eg, 889); Upon determining that the sticker (858-4)) has moved across a bounding area of a predetermined location (eg, a location corresponding to a portion of the subject's expression (eg, the subject's face)), the first visual effect is activated. Generating an indication (e.g., displaying a bracket (e.g., 890) or generating a tactile response (e.g., 892)) that the boundary region has been crossed (e.g., crossed) (e.g., display brackets around the subject's facial representation, as shown). In some embodiments, the device displays brackets around the predetermined position and/or haptic feedback (e.g., tactile output) when (or after) crossing within the bounding area of the predetermined position. so that the sticker will be placed on the subject's face, and will be placed on the subject's face at the end of the gesture (e.g., the sticker will have a relationship with the subject's facial expression, e.g., the sticker will have behavior based on the sticker's relationship to the user's face). In some embodiments, when (or after) crossing outside the bounding area of the given position, the device displays a bracket around the given position and/or the sticker is no longer placed on the subject's face. generates haptic feedback indicating that the gesture has ended and is not placed on the subject's face (e.g. the sticker would have a different relationship to the subject's facial representation, e.g. the sticker will have different behavior based on the relationship of the sticker to the user's face, e.g., the sticker will be positioned away from the subject's face. In some embodiments, the indication is tactile feedback (e.g., tactile output and/or audio output) or visual feedback (e.g., visual representation of bounding areas, brackets displayed around predetermined positions). at least one of

第1のビジュアルエフェクトが境界領域を横切った(又は、横切っている)というインジケーションを生成することにより、ユーザにジェスチャを終了させてモデル化された挙動を試みることを要求することなく、ステッカーの挙動及び配置が変更されたという視覚フィードバック及び/又は触覚を、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 By generating an indication that the first visual effect has crossed (or is crossing) the bounding area, the sticker is displayed without requiring the user to finish the gesture and attempt the modeled behavior. Provide visual feedback and/or tactile feedback to the user that behavior and placement have changed. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、第1のビジュアルエフェクトの位置を変更することは、第1の位置から第2の位置へ、第1のビジュアルエフェクトの動きを表示することを含む。一部の実施形態では、第1のビジュアルエフェクトのサイズを変更することは、第1の表示サイズから第2の表示サイズへ、第1のビジュアルエフェクトの遷移を表示することを含む。一部の実施形態では、ステッカーがディスプレイ上で動かされているか、又はサイズ変更される場合、ユーザ及びライブビデオ通信セッションの他の参加者が、ステッカーが変更されているときの中間の移動/サイズ変更を含む変更を見ることができるように、ステッカーの移動及び/又はサイズ変更が表示される。 In some embodiments, changing the position of the first visual effect includes displaying movement of the first visual effect from the first position to the second position. In some embodiments, resizing the first visual effect includes displaying a transition of the first visual effect from a first display size to a second display size. In some embodiments, if the sticker is moved or resized on the display, the user and other participants in the live video communication session will be able to see the intermediate movement/size of the sticker as it is being changed. The moving and/or resizing of the sticker is displayed so that the changes, including the changes, can be seen.

一部の実施形態では、第1のビジュアルエフェクトの位置を変更することは、中間位置で現れる第1のビジュアルエフェクトを表示することなく、第1の位置での出現から第2の位置での出現へ、第1のビジュアルエフェクトを遷移させることを含む。一部の実施形態では、第1のビジュアルエフェクトのサイズを変更することは、中間サイズを有する第1のビジュアルエフェクトを表示することなく、第1の表示サイズから第2の表示サイズへ、第1のビジュアルエフェクトを遷移させることを含む。一部の実施形態では、ステッカーをディスプレイ上で動かされているか、又はサイズ変更している間に、ステッカーの移動及び/又はサイズ変更が表示され、ユーザのみが、ステッカーが変更されているときの中間の移動/サイズ変更を含む変化を見ることができるが、ライブビデオ通信セッションの他の参加者は、ステッカーの中間の動き/サイズ変更を見ることができない。このように、他の参加者は、変更後のステッカー(又は、ステッカーへの更新)のみを見る。 In some embodiments, changing the position of the first visual effect is from an appearance at the first position to an appearance at the second position without displaying the first visual effect appearing at an intermediate position. to, transitioning the first visual effect. In some embodiments, changing the size of the first visual effect comprises displaying the first visual effect from the first display size to the second display size without displaying the first visual effect having an intermediate size. including transitioning the visual effects of In some embodiments, the moving and/or resizing of the sticker is displayed while the sticker is being moved or resized on the display, and only the user can see when the sticker is being changed. Changes including intermediate movement/resizing can be seen, but other participants in the live video communication session cannot see intermediate movement/resizing of the sticker. In this way, other participants only see the modified sticker (or updates to the sticker).

一部の実施形態では、複数の参加者がライブビデオ通信セッションに参加しており、複数の参加者は、被写体(例えば、電子デバイスのユーザ)及び第1の遠隔参加者(例えば、第1の電子デバイスから離れた第2の電子デバイスのユーザ)を含む。一部の実施形態では、ライブビデオ通信ユーザインタフェース(例えば、1200)は、第1の遠隔参加者の表現を更に含む。一部の実施形態では、第1の遠隔参加者の表現は、遠隔デバイス/遠隔カメラから受信した画像データ又はビデオデータを含む。一部の実施形態では、電子デバイスは、第1のアフォーダンスに向けられたジェスチャを検出したことに更に応じて、第1の遠隔参加者の表現のサイズを縮小する。 In some embodiments, multiple participants participate in a live video communication session, wherein the multiple participants include a subject (eg, a user of an electronic device) and a first remote participant (eg, a first user of a second electronic device away from the electronic device). In some embodiments, the live video communication user interface (eg, 1200) further includes a representation of the first remote participant. In some embodiments, the representation of the first remote participant includes image data or video data received from a remote device/remote camera. In some embodiments, the electronic device reduces the size of the representation of the first remote participant further in response to detecting a gesture directed at the first affordance.

一部の実施形態では、複数の参加者がライブビデオ通信セッションに参加しており、複数の参加者は、被写体(例えば、電子デバイスのユーザ)及び第1の遠隔参加者(例えば、第1の電子デバイスから離れた第2の電子デバイスのユーザ)を含み、被写体の表現は、電子デバイス(例えば、600)のカメラ(例えば、602)の視野のライブプレビュー(例えば、カメラの視野内にあるものを表す画像データのストリーム)である。一部の実施形態では、電子デバイスは、選択されたエフェクトオプションアフォーダンスに関連付けられたビジュアルエフェクトに基づいてライブビデオ通信セッションに参加している被写体の表現(例えば、1201)の外観を変更した後、ライブビデオ通信セッションに参加している被写体の表現の変更された外観に対応するデータを、複数の参加者のうちの少なくとも遠隔参加者に伝送する。一部の実施形態では、データを送信することは、選択されたビジュアルエフェクトに基づいて行われた変更を表すデータ(例えば、別個のデータ)と一緒に、画像データ(例えば、カメラの視野からの画像データのリアルタイムストリーム)を送信することを含む。一部の実施形態では、データを送信することは、選択されたビジュアルエフェクトに基づいて行われた変更を表すデータと結合されたカメラの視野からの画像データを含む、コンポジットビデオデータを送信することを含む。 In some embodiments, multiple participants participate in a live video communication session, wherein the multiple participants include a subject (eg, a user of an electronic device) and a first remote participant (eg, a first user of a second electronic device away from the electronic device), and the representation of the subject is a live preview of the field of view of the camera (e.g., 602) of the electronic device (e.g., 600) (e.g., what is within the camera's field of view). is a stream of image data representing In some embodiments, after the electronic device modifies the appearance of the representation (eg, 1201) of the subject participating in the live video communication session based on the visual effect associated with the selected effect option affordance, Data corresponding to the altered appearance of a representation of a subject participating in a live video communication session is transmitted to at least a remote participant of the plurality of participants. In some embodiments, transmitting the data includes image data (e.g., from a camera's field of view) along with data (e.g., separate data) representing changes made based on the selected visual effect. transmitting a real-time stream of image data). In some embodiments, transmitting data comprises transmitting composite video data including image data from a camera's field of view combined with data representing changes made based on the selected visual effect. including.

一部の実施形態では、電子デバイス(例えば、600)は、第1アフォーダンスなしでライブビデオ通信ユーザインタフェース(例えば、1200)を表示する。一部の実施形態では、電子デバイスは、ライブビデオ通信ユーザインタフェース(例えば、1206)上のタッチ入力(例えば、ビデオコールオプションを表示するライブビデオ通信ユーザインタフェース上のタップジェスチャ)を検出する。一部の実施形態では、タッチ入力を検出したことに応じて、カメラエフェクトモードがアクティブ化されているとの判定に従って、電子デバイスは、第1のアフォーダンスと複数のビジュアルエフェクトアフォーダンス(例えば、ステッカーアフォーダンス、アバターアフォーダンス、フルスクリーンエフェクトに関連付けられたアフォーダンス)とを含むライブビデオ通信オプションユーザインタフェースを表示する。一部の実施形態では、タッチ入力を検出したことに応じて、カメラエフェクトモードがアクティブ化されていないとの判定に従って、電子デバイスは、第1のアフォーダンスを含み、かつ、複数のビジュアルエフェクトアフォーダンスを除く、ライブビデオ通信オプションユーザインタフェースを表示する。第1のアフォーダンスを含み、及び複数のビジュアルエフェクトアフォーダンスを含むか、又は複数のビジュアルエフェクトアフォーダンスを除外するかのいずれかの、ライブビデオ通信オプションユーザーインタフェースを表示することにより、カメラエフェクトモードがアクティブ化されているか否かの判定に基づいて、カメラエフェクトモードが現在アクティブ化されているか否かを示す。更なるユーザ入力を必要とせずに、条件のセットが満たされたときに操作を行うことにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, an electronic device (eg, 600) displays a live video communication user interface (eg, 1200) without a first affordance. In some embodiments, the electronic device detects touch input (eg, a tap gesture on the live video communications user interface that displays video call options) on the live video communications user interface (eg, 1206). In some embodiments, in response to detecting touch input and following determining that the camera effects mode is activated, the electronic device provides a first affordance and a plurality of visual effects affordances (e.g., sticker affordances). , avatar affordances, and affordances associated with full-screen effects). In some embodiments, in response to detecting touch input and following a determination that the camera effects mode is not activated, the electronic device includes the first affordance and renders the plurality of visual effects affordances. View the live video communication option user interface, except. A camera effects mode is activated by displaying a live video communication options user interface that includes a first affordance and either includes a plurality of visual effects affordances or excludes a plurality of visual effects affordances. indicates whether the camera effects mode is currently activated based on the determination of whether the camera effects mode is currently activated. By performing an operation when a set of conditions are met, without the need for further user input, the usability of the device is improved and the user device interface (e.g., the appropriate making the device more efficient (by assisting the user in providing input and reducing user error), as well as powering the device by allowing the user to use the device more quickly and efficiently; Reduce usage and improve battery life.

方法1300に関して上述された処理(例えば、図13A~図13B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1300に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、メッセージングアプリケーションユーザインタフェースにおいて画像データに表示される。別の例では、方法900は、方法1300に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラユーザインタフェースにおいて画像データに表示される。別の例では、方法1100は、方法1300に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、メディアユーザインタフェースにおいて画像データに表示される。別の例では、方法1500は、方法1300に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ステッカー及び仮想アバターなどのビジュアルエフェクトが、カメラユーザインタフェースに対して画像データに表示される。簡潔にするために、これらの詳細は、以下では繰り返さない。 Note that the details of the processing described above with respect to method 1300 (eg, FIGS. 13A-13B) are also applicable in a similar manner to the methods described above and below. For example, method 700 optionally includes one or more of the various method features described above with respect to method 1300 . For example, visual effects such as stickers and virtual avatars are displayed on the image data in the messaging application user interface. In another example, method 900 optionally includes one or more of the various method features described above with respect to method 1300 . For example, visual effects such as stickers and virtual avatars are displayed on the image data in the camera user interface. In another example, method 1100 optionally includes one or more of the various method features described above with respect to method 1300 . For example, visual effects such as stickers and virtual avatars are displayed on the image data in the media user interface. In another example, method 1500 optionally includes one or more of the various method features described above with respect to method 1300 . For example, visual effects such as stickers and virtual avatars are displayed on the image data to the camera user interface. For the sake of brevity, these details are not repeated below.

図14A~図14Mは、一部の実施形態に係る、カメラアプリケーションにおいてビジュアルエフェクトを表示するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図15A~図15Bにおける処理を含む、以下で説明する処理を例示するために使用される。 14A-14M illustrate exemplary user interfaces for displaying visual effects in a camera application, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 15A-15B.

図14Aは、図8A~図8BQに関して上述したカメラアプリケーションユーザインタフェース815と同様の、カメラアプリケーションユーザインタフェース1405の実施形態を示す。カメラアプリケーションユーザインタフェース1405は、例えば、カメラ(例えば、背面カメラ又はカメラ602)の視野内に位置するオブジェクトを表すストリーミングされた画像データ(例えば、ライブカメラプレビュー、ライブカメラ記録、若しくはライブビデオ通信セッション)、又は、例えば写真若しくはビデオ録画などのメディアアイテム、などの画像データの表現を表示する(画像表示領域820と同様の)画像表示領域1420を含む。図14Aに示す実施形態では、画像表示領域1420は、カメラ602からのライブカメラプレビュー1420-1を示す。 FIG. 14A shows an embodiment of a camera application user interface 1405 similar to the camera application user interface 815 described above with respect to FIGS. 8A-8BQ. The camera application user interface 1405 can, for example, display streamed image data (eg, live camera previews, live camera recordings, or live video communication sessions) representing objects located within the field of view of a camera (eg, rear camera or camera 602). or an image display area 1420 (similar to image display area 820) for displaying representations of image data, such as media items such as photographs or video recordings. In the embodiment shown in FIG. 14A, image display area 1420 shows a live camera preview 1420-1 from camera 602. In the embodiment shown in FIG.

図14Aに示す実施形態は、図8Fに示すものと同様である。画像表示領域1420は、カメラ602の視野内に位置する被写体1422の表現、及び被写体1422の表現の背後に表示される背景1426を示す。本明細書で論じるように、一部の実施形態では、カメラ602を使用してキャプチャされた画像データは、カメラ602の視野内のオブジェクトの深度を決定するために使用され得る深度データを含む。一部の実施形態では、デバイス600は、検出されたこれらのオブジェクトの深度に基づいてオブジェクト(例えば、画像データ内の)を解析し、この判定を使用して、本明細書で論じるビジュアルエフェクトを適用する。例えば、デバイス600は、被写体1422の表現をライブカメラプレビュー1420-1の前景にあるものとして、ユーザの背後に位置するオブジェクトをライブカメラプレビュー1420-1の背景にあるものとして、分類することができる。これらの背景オブジェクトは、ここでは背景1426と総称する。 The embodiment shown in Figure 14A is similar to that shown in Figure 8F. Image display area 1420 shows a representation of subject 1422 located within the field of view of camera 602 and a background 1426 displayed behind the representation of subject 1422 . As discussed herein, in some embodiments, image data captured using camera 602 includes depth data that can be used to determine the depth of objects within the field of view of camera 602. In some embodiments, device 600 analyzes objects (e.g., in image data) based on the detected depth of these objects and uses this determination to generate the visual effects discussed herein. Apply. For example, the device 600 can classify the representation of the subject 1422 as being in the foreground of the live camera preview 1420-1 and objects located behind the user as being in the background of the live camera preview 1420-1. . These background objects are collectively referred to herein as background 1426 .

図14A及び図14Bでは、被写体1422の表記は帽子1423を着用して示され、ひさしが被写体1422の前に突き出ており、被写体1422の表現上にアバターは表示されない。デバイス600は、画像表示領域1420に仮想アバターを表示するように選択できるアバターオプション1410を有するアバターオプションメニュー1408(アバターオプションメニュー828と同様)を表示する。 In FIGS. 14A and 14B, the representation of subject 1422 is shown wearing a hat 1423, the canopy protrudes in front of subject 1422, and no avatar is displayed over the representation of subject 1422. FIG. Device 600 displays avatar options menu 1408 (similar to avatar options menu 828 ) having avatar options 1410 that can be selected to display a virtual avatar in image display area 1420 .

図14Bでは、デバイス600は、アバターオプション1410-1上の入力1411を検出する。それに応じて、図14Cでは、デバイス600は、選択領域1429にアバターオプション1410-1を表示し、アバターオプション1410-1が選択されていることを示す触覚フィードバック1412(例えば、音声出力を含む又は含まない触知出力)を生成する。 In FIG. 14B, device 600 detects input 1411 on avatar option 1410-1. Accordingly, in FIG. 14C, device 600 displays avatar option 1410-1 in selection area 1429 and haptic feedback 1412 (eg, includes or includes audio output) indicating that avatar option 1410-1 is selected. tactile output).

図14Cに示すように、デバイス600はまた、選択されたアバターオプション1410-1に対応する仮想アバター1421を表示するためにライブカメラプレビュー1420-1を更新する。アバター1421は、被写体1422及び背景1426の表現の他の部分の表示を維持しながら、被写体の帽子1423を含む被写体1422の表現の一部を重ね合わせられて表示される。図14A~図14Kに示すように、デバイス600は、(例えば、被写体の検出された動きに基づいて)被写体1422の表現及びアバター1421に対して判定された空間的関係に応じて、アバター1421を動的に変更して、アバター1421の特定の部分を隠すか又は表示する。これによって、アバター1421の外観が、被写体1422の表現の頭部上に物理的に配置される。 As shown in FIG. 14C, device 600 also updates live camera preview 1420-1 to display virtual avatar 1421 corresponding to selected avatar option 1410-1. Avatar 1421 is displayed with part of the representation of subject 1422 , including subject's hat 1423 , superimposed while other parts of the representation of subject 1422 and background 1426 remain visible. As shown in FIGS. 14A-14K , device 600 may select avatar 1421 depending on the representation of subject 1422 and the determined spatial relationship to avatar 1421 (eg, based on detected motion of the subject). It dynamically changes to hide or show certain parts of the avatar 1421 . This places the appearance of the avatar 1421 physically over the head of the representation of the subject 1422 .

一部の実施形態では、アバター1421の動的変更は、カメラ602の視野内のオブジェクト(被写体(被写体1422の表現に対応する)及び背景(背景1426に対応する)を含む)の初期深度マップをキャプチャするために、1つ以上の深度センサ(例えば、深度カメラセンサ175)を使用して達成される。次いで、初期深度マップが変更され(例えば、初期深度マップのぼかし、フェーディング、又は平滑化遷移のうちの1つ以上を使用して)、アバターの表示部分と非表示部分との間の突然の遷移のインスタンスを減少させる。これにより、特に、アバターの様々な部分が被写体の動きに応じて隠され又は表示されるので、より流動的でアバター1421の動的外観を提供する。 In some embodiments, the dynamic modification of the avatar 1421 changes the initial depth map of the objects within the field of view of the camera 602, including the subject (corresponding to the representation of the subject 1422) and the background (corresponding to the background 1426). The capture is accomplished using one or more depth sensors (eg, depth camera sensor 175). The initial depth map is then modified (e.g., using one or more of blurring, fading, or smoothing transitions of the initial depth map) to provide abrupt transitions between visible and hidden portions of the avatar. Decrease transition instances. This provides, among other things, a more fluid and dynamic appearance of the avatar 1421, as different parts of the avatar are hidden or displayed depending on the movement of the subject.

図14Cでは、アバター1421は、アバター頭部の下方に位置して被写体の首部の表現上に表示される影1430を含み、被写体1422の表現上のアバター1421の存在によって投影された影を表す。一部の実施形態では、影1430の位置は、アバターの形状、並びに被写体1422の表現、アバター1421、及び光源(例えば、カメラ602の視野内で検出された光源、又はシミュレーションされた光源)の相対位置に基づいて決定される。 In FIG. 14C, avatar 1421 includes a shadow 1430 positioned below the avatar's head and displayed on the subject's neck representation, representing the shadow cast by the presence of avatar 1421 on the subject's 1422 representation. In some embodiments, the position of the shadow 1430 is relative to the shape of the avatar and the representation of the subject 1422, the avatar 1421, and the light source (eg, a detected light source within the field of view of the camera 602 or a simulated light source). Determined based on location.

デバイス600は、被写体の肩の表現の前及び背後に垂れ下がった長い髪部を有するアバター1421を表示する。被写体の肩の表現に対する髪部の特定の部分の位置は、被写体1422の表現(及び被写体1422の表現の特定の部分(例えば、被写体の首部及び/又は肩の表現))の深度位置に対するアバター1421(アバター髪部を含む)の空間的位置を示す深度データに基づいて決定される。一部の実施形態では、動的に表示されるアバターの部分(例えば、アバターの一部は、被写体1422の表現との空間的関係に応じて表示又は非表示のいずれかとすることができる)は、被写体1422の表現に隣接する位置においてブレンドエフェクト1432を有するように示される。このブレンドエフェクトは、アバターの部分と被写体1422の表現との間の表示された遷移を滑らかにする。 The device 600 displays an avatar 1421 with long hair hanging in front of and behind a shoulder representation of the subject. The position of a particular portion of the hair relative to a representation of the subject's shoulders is the avatar 1421 relative to the depth position of the subject's 1422 representation (and certain portions of the subject's 1422 representation (eg, a representation of the subject's neck and/or shoulders)). (including avatar hair) based on depth data indicating spatial location. In some embodiments, the portion of the avatar that is dynamically displayed (eg, the portion of the avatar can be either displayed or hidden depending on its spatial relationship with the representation of the subject 1422) , with a blending effect 1432 at a position adjacent to the representation of the object 1422 . This blending effect smoothes the displayed transition between the avatar portion and the subject 1422 representation.

デバイス600は、被写体の頭部と顔の検出された変化に応じて、アバター1421を変更する。例えば、図14D~図14Fに示すように、デバイス600は、ウインクして笑顔になりながら、横を向いた被写体の頭部を検出し、これに応じて、アバターの動きに基づいて影1430の位置を調整もしながら、アバター1421を変更してこれらの同じ動きを反映する(例えば、アバター1421は、アバター頭部がウインクと笑顔と共に斜めに向いて示される)。アバター頭部の動きは、被写体1422の表現に対するアバター髪部の空間的位置に影響を及ぼす。その結果、デバイス600は、変更された空間的関係に基づいてアバターのいくつかの部分を動的に変更する。例えば、頭部が回転するにつれて、デバイス600は、被写体の肩の表現上、及び/又は被写体の首部の表現の背後にわたって移動する、参照番号1424-1に示すアバター髪部の一部を表示する(例えば、デバイス600は、アバターの髪部の一部を隠す)。逆に、アバター頭部が回転するにつれて、デバイス600はまた、アバター頭部を回す前に、以前は隠されていた(例えば、被写体の首部又は肩の表現の背後に以前は隠されていた)、参照番号1424-2に示すアバター髪部の部分も表示する(例えば、明らかにする)。このように、デバイス600は、それに応じてアバターの動きに影響を及ぼすユーザーの位置の変化に基づいて、アバターの動的部分(アバター髪部の一部など)を隠すか、又は表示する。 Device 600 modifies avatar 1421 in response to detected changes in the subject's head and face. For example, as shown in FIGS. 14D-14F, the device 600 detects the head of a subject turned sideways while winking and smiling, and in response casts a shadow 1430 based on the movement of the avatar. Avatar 1421 is modified to reflect these same movements, while also adjusting position (eg, avatar 1421 is shown with the avatar head pointing at an angle with a wink and smile). Movement of the avatar head affects the spatial position of the avatar hair relative to the subject's 1422 representation. As a result, device 600 dynamically changes portions of the avatar based on the changed spatial relationships. For example, as the head rotates, the device 600 displays a portion of the avatar hair shown at reference number 1424-1 that moves over the subject's shoulder representation and/or behind the subject's neck representation. (eg, device 600 hides part of the avatar's hair). Conversely, as the avatar head rotates, the device 600 is also previously hidden (eg, previously hidden behind a representation of the subject's neck or shoulders) prior to rotating the avatar head. , the portion of the avatar hair shown at 1424-2 is also displayed (eg, revealed). In this manner, the device 600 hides or displays dynamic portions of the avatar (such as portions of the avatar's hair) based on changes in the user's position that affect the avatar's movement accordingly.

一部の実施形態では、アバター1421の部分は、被写体1422、又は深度マップ内の任意の他のオブジェクトの表現に対するいかなる空間的関係にかかわらず、持続的に表示される。例えば、被写体1422の表現は、被写体1422の表現の前に突き出したひさしを含む帽子1423を着用しているが、アバター頭部1421-3及びアバター顔部1421-4は、被写体の頭部及び帽子1423の表現の前に持続的に表示される。これにより、カメラ602の視野内のオブジェクト、特に、被写体1422の表現上のオブジェクト(又は被写体の表現の一部)が、アバター1421の一部(具体的には、被写体1422の表現上に配置されたアバター1421の外観をレンダリングするように常に表示されるべきアバター1421の部分)を通り抜けて現れることを防止する。一部の実施形態では、アバター1421の持続的に表示される部分には、アバターの顔(1421-4)、頭部(1421-3)、及びアバターの髪部の部分(1421-1)を含むことができる。 In some embodiments, portions of avatar 1421 are persistently displayed regardless of any spatial relationship to the representation of subject 1422, or any other object within the depth map. For example, a representation of subject 1422 is wearing a hat 1423 with a brim that protrudes in front of the representation of subject 1422, while avatar head 1421-3 and avatar face 1421-4 are the subject's head and hat. It is displayed persistently before the 1423 representation. As a result, an object within the field of view of the camera 602, in particular, an object on the representation of the subject 1422 (or part of the representation of the subject) is placed on a part of the avatar 1421 (specifically, on the representation of the subject 1422). (portions of avatar 1421 that should always be displayed to render the appearance of avatar 1421). In some embodiments, the persistently displayed portions of the avatar 1421 include the avatar's face (1421-4), the head (1421-3), and the avatar's hair portion (1421-1). can contain.

別の例として、図14Dは、カメラ602に向かって被写体1422の表現の前に差し出された被写体の手1425の表現を示す。手1425の表現は被写体1422の表現のかなり手前に配置されているが、手1425の表現の空間位置が、アバター髪部分1421-1よりも明らかにカメラ602に近いにもかかわらず、アバター髪部の部分1421-1は、手1425の表示の一部の上に表示される。明瞭にするため、アバター髪部分1421-1が動的(例えば、持続的に表示されていない)であった場合、以下に論じるアバター髪部(例えば、1421-2)の動的部分と同様に、アバター髪部分1421-1は図14Dの手1425の表現の背後に隠され得る。 As another example, FIG. 14D shows a representation of subject's hand 1425 held out in front of a representation of subject 1422 towards camera 602 . Although the representation of hand 1425 is placed well in front of the representation of subject 1422, the spatial position of the representation of hand 1425 is clearly closer to camera 602 than avatar hair 1421-1. portion 1421 - 1 is displayed over a portion of the display of hand 1425 . For clarity, if the avatar hair portion 1421-1 was dynamic (eg, not displayed persistently), it would be displayed similarly to the dynamic portion of the avatar hair portion (eg, 1421-2) discussed below. , avatar hair portion 1421-1 may be hidden behind the representation of hand 1425 in FIG. 14D.

図14Eは、被写体の肩の表現に近い、被写体1422に向かって戻された手1425の表現を示す。手1425の表現が被写体1422の表現に近づくにつれて、デバイス600は、手1425の表現の空間的位置がアバター髪部の動的部分内に移動すると判定する。その結果、デバイス600は、手1425の表現の前に配置された追加のアバター髪部1421-2を表示する。同様に、図14Fは、被写体1422の表現に一層近づくように配置された手1425の表現、及び手1425の表現の前に表示されたより大量の髪部を示す。図14D~図14Fでは、アバター髪部と被写体の右肩1422-1の表現との空間的関係は、頭部を回転した後も変化しないので、被写体の右肩1422-1の表現の前に位置する髪部の量は変化しない。 FIG. 14E shows a representation of hand 1425 brought back toward subject 1422, which approximates a representation of the subject's shoulder. As the representation of hand 1425 approaches the representation of subject 1422, device 600 determines that the spatial position of the representation of hand 1425 moves within the dynamic portion of the avatar hair. As a result, device 600 displays additional avatar hair 1421 - 2 positioned in front of representation of hand 1425 . Similarly, FIG. 14F shows a representation of hand 1425 positioned more closely to the representation of subject 1422, and a larger amount of hair displayed before the representation of hand 1425. FIG. 14D-14F, the spatial relationship between the avatar hair and the representation of the subject's right shoulder 1422-1 does not change after rotating the head, so The amount of hair located does not change.

図14Gでは、被写体はニュートラルな表情を有する正面向きの位置に戻り、デバイス600は、それに応じてアバター1421を変更する。 In FIG. 14G, the subject returns to a front-facing position with a neutral expression and device 600 changes avatar 1421 accordingly.

図14Hでは、被写体が見上げると、デバイス600はそれに応じてアバター1421を変更する。デバイス600は、アバター頭部の下側を明らかにするために頭部が上方に傾いたアバター1421を示し、アバター1421は、被写体の首部の表現がアバター1421と交差する位置においてブレンドエフェクト1434を含む。一部の実施形態では、ブレンドエフェクト1434は、ブレンドエフェクト1432と同様である。図14Hでは、影1430もまた、アバターの頭部の傾斜した位置に基づいて調節される(例えば、アバターの顎の下に動かされる)。アバター1421が見上げているとき、被写体の首部の表現の背後に位置するアバター髪部は、被写体の首部の表現の背後に隠れたままであり、被写体の首部の表現を通り抜けて突き出ることはない。 In FIG. 14H, when the subject looks up, device 600 changes avatar 1421 accordingly. Device 600 shows avatar 1421 with its head tilted upward to reveal the underside of the avatar's head, and avatar 1421 includes a blending effect 1434 at a location where a representation of the subject's neck intersects avatar 1421. . In some embodiments, blend effect 1434 is similar to blend effect 1432 . In FIG. 14H, shadow 1430 is also adjusted based on the tilted position of the avatar's head (eg, moved under the avatar's chin). When the avatar 1421 is looking up, avatar hair located behind the subject's neck representation remains hidden behind the subject's neck representation and does not protrude through the subject's neck representation.

図14I~図14Jは、本開示の一実施形態に係る、異なるアバターの選択を示す。 14I-14J illustrate selection of different avatars according to one embodiment of the present disclosure.

図14K~図14Mでは、デバイス600は、被写体の頭部及び首部の表現上に配置されたユニコーンアバター1435を有する被写体1422の表現を示す。ユニコーンアバター1435は、頭部分1435-1、及びたてがみ1435-3を含む首部分1435-2を含む。被写体の首部の表現が表示されないように、首部分1435-2は、被写体の首部の表現の周りに表示される。ユニコーン首部分1435-2が被写体の首部の表現の基部と出会うところで、ブレンドエフェクト1438が表示される。ブレンドエフェクト1438は、本明細書で論じる他のブレンドエフェクトと同様である。 14K-14M, the device 600 shows a representation of a subject 1422 with a unicorn avatar 1435 positioned over representations of the subject's head and neck. Unicorn avatar 1435 includes head portion 1435-1 and neck portion 1435-2 including mane 1435-3. A neck portion 1435-2 is displayed around a representation of the subject's neck such that the representation of the subject's neck is not displayed. A blending effect 1438 is displayed where the unicorn neck portion 1435-2 meets the base of the subject's neck representation. Blend effect 1438 is similar to other blend effects discussed herein.

ユニコーンアバター1435はまた、ユニコーンアバター1435の一部上、及び被写体1432の表現上に表示される影1436(例えば、アバターによって被写体の表現上へ投影される影の表現)を含む。一部の実施形態では、表示された影は、アバターの形状、及びアバターと被写体1432の表現との光源(例えば、カメラ602の視野内で検出された光源、又はシミュレーションされた光源)に対する相対的位置に基づいて決定された形状及び位置を有する。図14K~図14Mに示すように、影1436はユニコーンアバター1435の動きに応じて移動する。図14Kでは、影1436は、(ユニコーンアバターの顔の細長い形状のために)細長い形状を有し、首部分1435-2上及び被写体1422の表現の胸部上に配置される。図14Lでは、頭部分1435-1が側方に回転すると、追加の首部分1435-2及びたてがみ1435-3を明らかにする。図14Kのユニコーンアバター1435の背面上に位置していた、たてがみ1435-3の部分1435-4は、被写体の肩1422-1及びアバター首部分1435-2の前に位置してここでは示されている。影1436が横に移動すると、頭部分1435-1の下に(例えば、首部分1435-2上に)、次いで被写体1422の表現の肩の上に部分的に配置される。図14Mでは、頭部分1435-1は前方を向いて傾斜しており、影1436は頭部分1435-1の下に(首部分1435-2上に)位置しており、頭部分1435-1の上向き傾斜のためにサイズが縮小されている。加えて、頭部が上方に傾けられると、たてがみ1435-3は首部分1435-2の背面上に位置したままであり、首部分を通り抜けては表示されない。 The unicorn avatar 1435 also includes a shadow 1436 displayed on a portion of the unicorn avatar 1435 and on a representation of the subject 1432 (eg, a shadow representation projected by the avatar onto the subject's representation). In some embodiments, the displayed shadow is the shape of the avatar and the representation of the avatar and subject 1432 relative to a light source (eg, a detected light source within the field of view of camera 602 or a simulated light source). It has a shape and position determined based on the position. As shown in FIGS. 14K-14M, shadow 1436 moves as unicorn avatar 1435 moves. In FIG. 14K, shadow 1436 has an elongated shape (because of the elongated shape of the unicorn avatar's face) and is placed on neck portion 1435-2 and on the chest of the subject's 1422 representation. In FIG. 14L, head portion 1435-1 rotates sideways to reveal additional neck portion 1435-2 and mane 1435-3. The portion 1435-4 of the mane 1435-3 that was located on the back of the unicorn avatar 1435 of FIG. 14K is now shown located in front of the subject's shoulders 1422-1 and avatar neck portion 1435-2. there is As the shadow 1436 moves laterally, it is positioned partially under the head portion 1435 - 1 (eg, over the neck portion 1435 - 2 ) and then partially over the shoulders of the subject 1422 representation. In FIG. 14M, head portion 1435-1 is angled forward, shadow 1436 is located below head portion 1435-1 (above neck portion 1435-2), and head portion 1435-1 Reduced in size due to upward tilt. Additionally, when the head is tilted upward, the mane 1435-3 remains positioned on the dorsal surface of the neck portion 1435-2 and is not displayed through the neck portion.

図15A~図15Bは、一部の実施形態に係る、電子デバイスを使用してカメラアプリケーションにビジュアルエフェクトを表示するための方法を示すフロー図である。方法1500は、1つ以上のカメラと表示装置とを備えたデバイス(例えば、100、300、500、600)において実行される。方法1500におけるいくつかの動作は、任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 15A-15B are flow diagrams illustrating methods for displaying visual effects in a camera application using an electronic device, according to some embodiments. Method 1500 is performed on a device (eg, 100, 300, 500, 600) with one or more cameras and displays. Some acts in method 1500 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

以下に説明するように、方法1500は、カメラアプリケーションにビジュアルエフェクトを表示するための直感的な仕方を提供する。この方法は、カメラアプリケーションにおいて閲覧される画像にビジュアルエフェクトを適用するためのユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作コンピューティングデバイスでは、画像にビジュアルエフェクトをユーザーがより迅速かつ効率的に表示できるようにすることで、電力を節約し、バッテリ充電間の時間を増大させる。 As described below, method 1500 provides an intuitive way to display visual effects in camera applications. This method reduces the user's cognitive burden for applying visual effects to images viewed in a camera application, thereby creating a more efficient human-machine interface. Battery-operated computing devices conserve power and increase the time between battery charges by allowing users to display visual effects on images more quickly and efficiently.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、1つ以上のカメラ(例えば、602)を介してキャプチャされた画像データ(例えば、1420-1)の表現を表示する(1502)。一部の実施形態では、表現は、被写体(例えば、1422)の表現(例えば、被写体の少なくとも一部の表現)を含み、画像データは被写体の深度データ(例えば、被写体の他の部分及び/又は1つ以上のカメラの視野内の他のオブジェクトに対する、被写体の1つ以上の部分を位置決めする相対的深度についての情報)を含む深度データに対応する(例えば、画像データは、可視光カメラ及び深度カメラによってキャプチャされたデータを含む)。一部の実施形態では、深度データは、深度マップ又は深度マスクの形態である。 An electronic device (eg, 600) displays, via a display (eg, 601), a representation of image data (eg, 1420-1) captured via one or more cameras (eg, 602). (1502). In some embodiments, the representation includes a representation of the subject (eg, 1422) (eg, a representation of at least a portion of the subject), and the image data is depth data of the subject (eg, other portions of the subject and/or information about the relative depth positioning one or more portions of a subject with respect to other objects within the field of view of one or more cameras (e.g., the image data corresponds to the visible light camera and the depth data). including data captured by cameras). In some embodiments the depth data is in the form of a depth map or depth mask.

一部の実施形態では、電子デバイス(例えば、600)は、1つ以上の深度センサ(例えば、175、602)を含む。一部の実施形態では、仮想アバター(例えば、1421)の表現を表示する前に、電子デバイスは、1つ以上の深度センサを介して、被写体に対する初期深度データ(例えば、1つ以上のカメラ(例えば、602)によってキャプチャされた画像データに対応する初期若しくは未変更深度マップ及び/又は深度マスク、被写体の初期又は未変更の深度マスク)をキャプチャする。電子デバイスは、被写体に対する初期深度データを変更することによって、被写体の深度データを生成する。一部の実施形態では、初期深度データを変更することにより、特に、被写体の姿勢が電子デバイスに関して変化するときに、仮想アバターの第1の部分(例えば、1421-2)の表現を含むこと、又は除外することの間の突然の遷移のインスタンスを減少させることができる。被写体の初期深度データを変更することにより、ユーザの姿勢が変化するときに、仮想アバターの表現の表示中のより滑らかな遷移が可能になり、それによって被写体において検出された変化の(仮想アバターに対する対応する変化によって表される)視覚フィードバックを改善することができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) includes one or more depth sensors (eg, 175, 602). In some embodiments, prior to displaying a representation of the virtual avatar (eg, 1421), the electronic device receives initial depth data (eg, one or more cameras) for the subject via one or more depth sensors. For example, capture an initial or unmodified depth map and/or depth mask corresponding to the image data captured by 602), the initial or unmodified depth mask of the subject). The electronic device generates depth data for the subject by modifying initial depth data for the subject. In some embodiments, modifying the initial depth data to include a representation of the first portion (e.g., 1421-2) of the virtual avatar, particularly when the pose of the subject changes with respect to the electronic device; Or instances of abrupt transitions between exclusions can be reduced. Altering the initial depth data of the subject allows for smoother transitions during display of the representation of the virtual avatar when the user's pose changes, thereby allowing changes detected in the subject (relative to the virtual avatar) to be smoother. Visual feedback (represented by corresponding changes) can be improved. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、被写体の初期深度データを変更することは、初期深度奥行きデータをぼかすこと(例えば、深度データの異なるレベル間の遷移をブレンドするために、初期深度データをデフォーカスすること、例えば、初期深度マスクの値(例えば、グレースケール値)をぼかすこと)、初期深度データをフェードアウトすること(例えば、深度値を減少させるために深度データを下向きに変調すること)、及び初期深度データをスムージングすること(例えば、特に初期深度データの異なる深度層間の遷移において初期深度データをブレンドするために数学的関数を適用すること)からなる群から選択された、最初深度データ上に1つ以上の変換を実行することを含む。 In some embodiments, modifying the initial depth data of the subject includes blurring the initial depth data (e.g., defocusing the initial depth data to blend transitions between different levels of depth data). , e.g., blurring the values of the initial depth mask (e.g., grayscale values), fading out the initial depth data (e.g., modulating the depth data downward to decrease depth values), and initial depth one on the initial depth data selected from the group consisting of smoothing the data (e.g., applying a mathematical function to blend the initial depth data, particularly at transitions between different depth layers of the initial depth data); Including performing the above transformations.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、被写体の表現(例えば、1422、1423)の少なくとも一部の代わりに(例えば、仮想アバターの少なくとも一部が、被写体の少なくとも一部を部分的又は完全に重ね合わせられて(例えば、不明瞭化されて))表示される(例えば、塞ぐか、又はその上部に表示される)仮想アバター(例えば、1421)の表現(例えば、表わされるときに、構成物の一部又はすべてを含むことができる仮想アバター構成物の視覚表現)を表示する(1504)。被写体の表現の少なくとも一部の上に仮想アバターの視覚表現を表示することにより、仮想アバターが被写体に重ね合わせられたときにどのように見えるかの視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、仮想アバターは、被写体の深度データに基づいて決定された被写体の表現に対してシミュレーションされた深度に(例えば、仮想アバターが、ユーザインタフェースの深度範囲で、被写体の表現の少し前に表示されるように選択された位置に)配置される。 An electronic device (eg, 600), via a display device (eg, 601), instead of at least a portion of a representation (eg, 1422, 1423) of a subject (eg, at least a portion of a virtual avatar A representation (e.g., 1421) of a virtual avatar (e.g., 1421) displayed (e.g., occluded or displayed on top of it) at least partially or fully overlaid (e.g., obscured) For example, display 1504 a visual representation of the virtual avatar composition, which may include some or all of the composition when presented. Displaying a visual representation of the virtual avatar over at least a portion of the representation of the subject provides the user with visual feedback of what the virtual avatar will look like when superimposed on the subject. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the virtual avatar is at a simulated depth for the representation of the subject determined based on the depth data of the subject (e.g., the virtual avatar is at the depth range of the user interface). (in a position chosen to appear slightly earlier).

一部の実施形態では、深度データに基づいて、仮想アバターの第1の部分(例えば、1421-2)(例えば、アバター髪部分)が深度ベース表示基準のセットを満たすとの判定に従って、デバイス(例えば、600)は、仮想アバター(例えば、1421)の表現の一部として、被写体の第1の部分(例えば、被写体の表現の第1の部分)の代わりに表示される、仮想アバター(例えば、1421-2)の第1の部分の表現を含める(1506)(例えば、図14Eに示すように、被写体の手1425の表現の一部にわたってアバター髪部の部分1421-2が表示される)。仮想アバターの第1の部分は、被写体の一部によって不明瞭化されていないので、深度ベース表示基準を満たすと、仮想アバターの第1の部分が表示される。表示される前に仮想アバターの第1の部分が不明瞭化されているかどうかを判定することにより、ユーザに可視化される仮想アバターの一部を表示するだけで、ユーザデバイスインタフェースをより効率的にすることが可能になる。仮想アバターの可視部分の視覚フィードバックを提供することにより、ユーザは、仮想アバターが被写体の上に重ね合わされたときに結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、深度ベース表示基準が満たされるように(例えば、深度ベース基準のセットは、仮想アバターの一部が、被写体の一部(例えば、被写体の耳)によって不明瞭化しない位置に表示されるときに満たされる基準を含む)、深度ベースの表示基準は、被写体の深度データが、仮想アバターの第1の部分が被写体の対応する第1の部分(例えば、被写体の表現の対応する第1の部分)(例えば、首部、肩、及び/又は身体)の前にあるシミュレーションされた深度を有することを示すという要求を含む。 In some embodiments, the device ( For example, 600) is a virtual avatar (e.g., 1421-2) includes 1506 a representation of the first portion of 1421-2 (eg, avatar hair portion 1421-2 is displayed over a portion of the representation of the subject's hand 1425, as shown in FIG. 14E). Since the first portion of the virtual avatar is not obscured by part of the subject, the first portion of the virtual avatar is displayed when depth-based display criteria are met. Making a user device interface more efficient by only displaying a portion of a virtual avatar that is visible to a user by determining whether a first portion of the virtual avatar is obscured before being displayed. it becomes possible to By providing visual feedback of the visible portion of the virtual avatar, the user can see the resulting image when the virtual avatar is superimposed over the subject. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, depth-based display criteria are met (e.g., a set of depth-based criteria is a position where a portion of the virtual avatar is not obscured by a portion of the subject (e.g., the subject's ears)). ), a depth-based display criterion is one in which the subject's depth data matches the first portion of the virtual avatar to which the subject corresponds (e.g., the representation of the subject corresponds to including a request to indicate having a certain simulated depth in front of the first part (eg, neck, shoulders, and/or body).

一部の実施形態では、深度データに基づいて、仮想アバターの第1の部分(例えば、1421-2)が、被写体の第1の部分(例えば、1425)に対する深度ベース表示基準のセットを満たさないとの判定(例えば、被写体の深度データが、仮想アバターの第1の部分が被写体の対応する第1の部分の背後にあるシミュレーションされた深度を有することを示すため)に従って、デバイス(例えば、600)は、仮想アバター(例えば、1421)の表現から、仮想アバターの第1の部分の表現を除外する(1508)(例えば、髪部が領域1424-1で被写体の肩1422-1の背後に位置するため、髪部が表示されない)(例えば、追加のアバター髪部1421-2は、手1425の背後に位置する配置するため、図14Dでは示されない)。一部の実施形態では、電子デバイスはまた、仮想アバターの第1の部分によって占められていたであろう領域内に、被写体の第1の部分(例えば、被写体の表現の第1の部分)を表示する(例えば、仮想アバターの第1の部分の表現を、その部分が被写体によって不明瞭化されるべきであるため、仮想アバターの表現の一部として含めるのをやめる)。仮想アバターの第1の部分が、被写体の一部によって不明瞭化されているので、深度ベース表示基準を満たさない場合には、仮想アバターの第1の部分は、仮想アバターの表示された表現から除外される。表示される前に仮想アバターの第1の部分が不明瞭化されているかどうかを判定することにより、ユーザに可視化される仮想アバターの一部を除外することによって、ユーザデバイスインタフェースをより効率的にすることが可能になる。仮想アバターの視覚フィードバックを提供することにより、ユーザは、仮想アバターが被写体の上に重ね合わされたときに結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, based on the depth data, the first portion of the virtual avatar (eg, 1421-2) does not meet the set of depth-based display criteria for the first portion of the subject (eg, 1425) (e.g., because the depth data of the subject indicates that the first portion of the virtual avatar has a simulated depth behind the corresponding first portion of the subject), the device (e.g., 600 ) excludes (1508) from the representation of the virtual avatar (eg, 1421) the representation of the first portion of the virtual avatar (eg, hair located behind the subject's shoulders 1422-1 in region 1424-1). (eg, additional avatar hair 1421-2 is not shown in FIG. 14D for placement behind hand 1425). In some embodiments, the electronic device also moves the first portion of the subject (eg, the first portion of the representation of the subject) into the area that would have been occupied by the first portion of the virtual avatar. Display (eg, stop including a representation of the first part of the virtual avatar as part of the representation of the virtual avatar, since that part should be obscured by the subject). Because the first portion of the virtual avatar is obscured by part of the subject, the first portion of the virtual avatar is removed from the displayed representation of the virtual avatar if the depth-based display criteria are not met. Excluded. Making a user device interface more efficient by excluding a portion of a virtual avatar that is visible to a user by determining whether a first portion of the virtual avatar is obscured before being displayed it becomes possible to By providing visual feedback of the virtual avatar, the user can see the resulting image when the virtual avatar is superimposed over the subject. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、仮想アバター(例えば、1421)(例えば、アバター頭部)の第1の部分は、被写体の動きに基づいて動く。一部の実施形態では、仮想アバターの第1の部分は、被写体の頭部の動き又は被写体の頭部の表現に基づいて動く。 In some embodiments, a first portion of the virtual avatar (eg, 1421) (eg, avatar head) moves based on motion of the subject. In some embodiments, the first portion of the virtual avatar moves based on the subject's head movement or representation of the subject's head.

一部の実施形態では、仮想アバターの表現は、仮想アバターの第2の部分が、被写体の表現の対応する第2の部分の前又は背後にあるシミュレーションされた深度を有することを、深度データが示すか否かにかかわらず、被写体の表現の第2の部分(例えば、1425、1423)の上に表示される仮想アバターの第2の部分(例えば、1421-1、1421-3、1421-4、1435-1)(例えば、アバター頭部(1421-3)の上部)の表現を含む。アバター頭部の上部などの仮想アバターの第2の部分の表現が、永続的に表示される。これにより、たとえ被写体の表現がアバターよりもカメラ(例えば、602)により近くに位置するオブジェクトを含んでいても、仮想アバターの第2の部分を常に表示することができる(例えば、被写体の頭部の表現上に位置する帽子(1423)は、アバター(1421)によって覆われることになる)。仮想アバターの一部を持続的に表示することにより、ユーザが、特定のオブジェクトを無視するためにデバイスの深度設定を調整する必要なしに選択されたアバターを表示できるようにすることによって、デバイスのより多くの制御をユーザに提供することができる。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなくデバイスの追加の制御を提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、仮想アバターの第2の部分(例えば、アバター頭部)は、被写体の表現の対応する第2の部分の代わりに持続的に表示される。一部の実施形態では、仮想アバターの部分と被写体の表現の部分との空間的関係が、仮想アバターの部分が被写体の部分によって不明瞭化されるべきであることを示し得る場合でも、深度ベース基準に関係なく表示されるアバターの部分は、仮想アバターを通り抜けて突き出る被写体の表現の部分例えば、帽子(1423)、被写体の髪部)を表示するのを避けるため、被写体の上方に持続的に表示される。一部の実施形態では、仮想アバターの第2の部分(例えば、アバター頭部)は、被写体(例えば、1422)の動き(例えば、被写体の頭部の動きに基づいて、又は被写体の頭部の表現の動きに基づいて)に基づいて動く。 In some embodiments, the representation of the virtual avatar indicates that the second portion of the virtual avatar has a simulated depth in front of or behind the corresponding second portion of the representation of the subject. A second portion of the virtual avatar (eg, 1421-1, 1421-3, 1421-4) displayed above the second portion of the subject's representation (eg, 1425, 1423), whether shown or not. , 1435-1) (eg, the top of the avatar's head (1421-3)). A representation of a second portion of the virtual avatar, such as the top of the avatar's head, is permanently displayed. This allows a second part of the virtual avatar to always be displayed (e.g. the subject's head The hat (1423) located on the representation of will be covered by the avatar (1421)). of the device by persistently displaying a portion of the virtual avatar, allowing the user to view a selected avatar without having to adjust the device's depth settings to ignore certain objects. More control can be provided to the user. By providing additional control of the device without cluttering the user interface with additional displayed controls, the usability of the device is improved and the user device interface (e.g., making the device more efficient (by assisting the user in providing input and reducing user error), as well as powering the device by allowing the user to use the device more quickly and efficiently; Reduce usage and improve battery life. In some embodiments, a second portion of the virtual avatar (eg, the avatar head) is persistently displayed in place of the corresponding second portion of the subject's representation. In some embodiments, even if the spatial relationship between portions of the virtual avatar and portions of the subject's representation may indicate that portions of the virtual avatar should be obscured by portions of the subject, depth-based The portion of the avatar that is displayed regardless of the criteria should be continuously above the subject to avoid displaying portions of the subject's representation that protrude through the virtual avatar (e.g., hat (1423), subject's hair). Is displayed. In some embodiments, the second portion of the virtual avatar (eg, avatar head) is based on movement of the subject (eg, 1422) (eg, movement of the subject's head, or movement of the subject's head). based on the movement of the expression).

一部の実施形態では、仮想アバター(例えば、1421-2)の第1の部分(例えば、深度データに基づいて含まれるか又は除外される部分)は、第1のアバター特徴の第1のサブ部分(例えば、アバター髪部、アバター耳、アバターアクセサリー(例えば、アバターイヤリング)などの仮想アバターの要素)であり、仮想アバターの第2の部分(例えば、1421-1、1421-3、1421-4、1435-1、1435-2)は、(例えば、深度データに基づいて含まれるか又は除外される部分、すなわち、深度データとは独立して含まれる)は、第1のアバター特徴(例えば、アバター髪部)の第2のサブ部分である。一部の実施形態では、第1のサブ部分は、前方に面して(例えば、カメラに面して)、仮想アバターが中立位置(例えば、被写体の顔又は頭部の姿勢に変化が検出されなかったときの仮想アバターの表示位置)にあるときに(例えば、図14Kに示すように)、仮想アバターの背面上に位置する仮想アバター(例えば、1435)の部分(例えば、1435-3)である。一部の実施形態では、第2のサブ部分(例えば、1435-2)は、仮想アバターの前面上に配置される仮想アバターの部分であるか、又は、仮想アバターが前方に面して中立位置にあるときには、仮想アバターの背面上に配置されない。一部の実施形態では、第1のアバター特徴はアバター髪部であり、第2のサブ部分は、仮想アバター頭部(例えば、1421-3)の前面上に表示されるアバター髪部(例えば、1421-1)(例えば、切り下げ前髪)の前面部であり、第1のサブ部分は、被写体の首部、及び/又は肩(例えば、1422-1)などの被写体(例えば、1422)の一部によって少なくとも部分的に不明瞭化されているアバター髪部の後面部(例えば、背面の長髪部)である。 In some embodiments, a first portion (eg, included or excluded based on depth data) of the virtual avatar (eg, 1421-2) is a first sub-feature of the first avatar feature. part (e.g., elements of the virtual avatar such as avatar hair, avatar ears, avatar accessories (e.g., avatar earrings)) and second parts of the virtual avatar (e.g., 1421-1, 1421-3, 1421-4). , 1435-1, 1435-2) are (eg, included or excluded based on the depth data, i.e., included independently of the depth data) the first avatar feature (eg, A second sub-portion of the avatar hair). In some embodiments, the first sub-portion is forward-facing (e.g., facing the camera) such that the virtual avatar is in a neutral position (e.g., when a change in the subject's face or head pose is detected). 14K), the portion (eg, 1435-3) of the virtual avatar (eg, 1435) located on the back of the virtual avatar (eg, as shown in FIG. 14K). be. In some embodiments, the second sub-portion (eg, 1435-2) is the portion of the virtual avatar that is positioned on the front of the virtual avatar or is in a neutral position with the virtual avatar facing forward. , it is not placed on the back of the virtual avatar. In some embodiments, the first avatar feature is the avatar hair and the second sub-portion is the avatar hair (eg, 1421-1) is the front part of the (eg, cut-down bangs), and the first sub-part is the front part of the subject (eg, 1422), such as the subject's neck and/or shoulders (eg, 1422-1). 3 is a back portion of the avatar hair (eg, back long hair) that is at least partially obscured.

一部の実施形態では、仮想アバター(例えば、1421、1435)は、仮想アバターの第1の部分(例えば、1421-1)を含むアバター髪部特徴(例えば、長いアバター髪部)を含む。電子デバイス(例えば、600)は、アバター髪部特徴の第2の部分のシミュレーションされた深度が、被写体の深度データに基づき、被写体の表現(例えば、首部、肩、及び/又は身体)の第3の部分(例えば、1422-1)の前又は背後にあるか否かに基づいて、アバター髪部特徴(例えば、1421-1)の第1の部分を表示し、アバター髪部特徴(例えば、1421-2)の第2の部分を条件的に表示する(例えば、アバター髪部特徴の持続的部分の表現を表示し、仮想アバターの第1の部分を深度に応じて可変的に含める(又は除外する))ことによって仮想アバターの表現を表示する。アバター髪部特徴の第1の部分及び髪部特徴の第2の部分が、被写体の首部、肩又は身体などの、被写体の表現の第3の部分の前又は背後にあるかどうかを判定する。表示する前に髪部特徴の第2の部分の可視性を判定することにより、ユーザに可視化されるアバター髪部特徴の一部を表示するだけで、ユーザデバイスインタフェースをより効率的にすることが可能になる。仮想アバターの視覚フィードバックを提供することにより、ユーザは、アバター髪部特徴が被写体の表現と共に表示されるときに、結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the virtual avatar (eg, 1421, 1435) includes an avatar hair feature (eg, long avatar hair) that includes the first portion (eg, 1421-1) of the virtual avatar. The electronic device (eg, 600) determines that the simulated depth of the second portion of the avatar hair feature is based on the depth data of the subject, and the third depth of the subject's representation (eg, neck, shoulders, and/or body). display the first part of the avatar hair feature (eg, 1421-1) based on whether it is in front of or behind the part (eg, 1422-1) of the avatar hair feature (eg, 1421 - conditionally displaying the second part of 2) (e.g., displaying a representation of the persistent part of the avatar hair features and variably including (or excluding) the first part of the virtual avatar depending on depth; )) to display a representation of the virtual avatar. A determination is made as to whether the first portion of the avatar hair feature and the second portion of the hair feature are in front of or behind a third portion of the subject's representation, such as the subject's neck, shoulders, or body. By determining the visibility of the second portion of the hair feature prior to display, it is possible to make the user device interface more efficient by only displaying a portion of the avatar hair feature that is visible to the user. be possible. By providing visual feedback of the virtual avatar, the user can see the resulting image when the avatar hair features are displayed along with a representation of the subject. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、仮想アバターは、仮想アバターの第1の部分(例えば、1435-4)を含むアバター首部特徴(例えば、1435-3)(例えば、馬のようなアバター(例えば、ユニコーン又は馬)の首部、例えば、アバターたてがみ)を含む。電子デバイスは、被写体の深度データに基づき、アバター首部特徴の部分のシミュレーションされた深度が、被写体の表現(首部又は肩)の第4の部分(例えば、1422-1)の前又は背後にあるか否かに基づいて、アバター首部特徴の一部を条件的に表示することによって、仮想アバター(例えば、1435)の表現を表示する(例えば、アバター首部特徴の持続的部分の表現を表示し、仮想アバターの第1の部分を深度に応じて可変的に含める(又は除外する))。アバター首部特徴の部分が、被写体の首部などの、被写体の表現の第4の部分の前又は背後にあるかどうかを判断する。表示する前に首部特徴の一部の可視性を判定することにより、ユーザに可視化されるアバター首部特徴の一部を表示するだけで、ユーザデバイスインタフェースをより効率的にすることが可能になる。仮想アバターの視覚フィードバックを提供することにより、ユーザは、アバター髪部特徴が被写体の表現と共に表示されるときに、結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the virtual avatar has an avatar neck feature (eg, 1435-3) that includes a first portion (eg, 1435-4) of the virtual avatar (eg, a horse-like avatar (eg, a unicorn or (horse) neck, e.g. avatar mane). Based on the depth data of the subject, the electronic device determines whether the simulated depth of the portion of the avatar neck feature is in front of or behind the fourth portion (eg, 1422-1) of the subject's representation (neck or shoulders). Display a representation of the virtual avatar (eg, 1435) by conditionally displaying a portion of the avatar neck feature based on whether the virtual Variable inclusion (or exclusion) of the first part of the avatar depending on depth). Determine whether a portion of the avatar neck feature is in front of or behind a fourth portion of the subject's representation, such as the subject's neck. Determining the visibility of the portion of the neck feature prior to display allows the user device interface to be more efficient by only displaying the portion of the avatar neck feature that is visible to the user. By providing visual feedback of the virtual avatar, the user can see the resulting image when the avatar hair features are displayed along with a representation of the subject. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、被写体の表現の部分(例えば、被写体の頭部)が、1つ以上のカメラに(直接的に)面する姿勢を有する(例えば、被写体の頭部がカメラに面して前方に配置される)ときには、仮想アバター(例えば、1421、1435)の第1の部分(例えば、1421-2、1435-3)は、表示されない仮想アバター(例えば、アバター首部の背後)の不明瞭な部分(例えば、1435-4)を含む。ユーザーはアバターの不明確な部分を見ることができ得ないため、アバターの不明瞭な部分は表示されない。表示する前に仮想アバターの第1の部分の可視性を判定することにより、ユーザに可視化されるアバター首部特徴の一部を表示するだけで、ユーザデバイスインタフェースをより効率的にすることが可能になる。仮想アバターの視覚フィードバックを提供することにより、ユーザは、アバター髪部特徴が被写体の表現と共に表示されるときに、結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、仮想アバターの不明瞭な部分は、被写体の首部又は頭部の背後に位置するアバターの首部の背後(例えば、1435-2、1435-3)、又は仮想アバターの部分(例えば、アバターの髪部の背後)を含む。一部の実施形態では、これによって、アバターの首部の背後(又はアバター頭部の背面上のアバターの部分、若しくは被写体の首部の背後に位置する部分)が、被写体の頭部が傾け上げられたとき(例えば、見上げる)に、被写体の首部の表現を通り抜けて突き出て表示されることを防止する。 In some embodiments, a portion of the subject's representation (e.g., the subject's head) has a pose that faces (directly) one or more cameras (e.g., the subject's head faces the camera). 1421, 1435), the first part (eg, 1421-2, 1435-3) of the virtual avatar (eg, 1421, 1435) is positioned behind the invisible virtual avatar (eg, behind the avatar's neck). Contains clear parts (eg, 1435-4). The avatar ambiguity is not displayed because the user cannot see the avatar ambiguity. Determining the visibility of the first portion of the virtual avatar prior to display allows the user device interface to be more efficient by only displaying a portion of the avatar neck features that are visible to the user. Become. By providing visual feedback of the virtual avatar, the user can see the resulting image when the avatar hair features are displayed along with a representation of the subject. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the obscured portion of the virtual avatar is behind the neck of the avatar located behind the subject's neck or head (eg, 1435-2, 1435-3), or the portion of the virtual avatar ( For example, behind the avatar's hair). In some embodiments, this causes the back of the avatar's neck (or the portion of the avatar on the back of the avatar's head, or the portion located behind the subject's neck) to tilt the subject's head up. to prevent the display from protruding through the representation of the subject's neck when (e.g., looking up).

一部の実施形態では、仮想アバター(例えば、1421)の表現を表示することは、仮想アバターの第1の部分(例えば、1421-1)に隣接する(例えば、及び被写体(例えば、1422-1)の表現の少なくとも一部に隣接する)仮想アバターの第3の部分(例えば、1432)の視覚的外観を、アバターの外観及び被写体の表現の外観の両方に基づく外観に変更すること(例えば、ブレンド、ぼかし、フェザリング、又は隠蔽度を徐々に変化させること)を更に含む。一部の実施形態では、アバター髪部の部分が、被写体の表示された表現の肩(1422-1)と交差する、仮想アバターの表現の部分において、アバター髪部(例えば、1432)の一部が、被写体(例えば、1422)の表現とブレンドされる。一部の実施形態では、アバター頭部の下部が被写体の首部の表示された表現(例えば、図14H)と交差する、仮想アバターの表現の部分において、アバター頭部の下部が、被写体の表現とブレンドされる(例えば、1434)。 In some embodiments, displaying a representation of the virtual avatar (eg, 1421) is adjacent (eg, and subject (eg, 1422-1) to the first portion (eg, 1421-1) of the virtual avatar. changing the visual appearance of a third portion (e.g., 1432) of the virtual avatar (adjacent at least a portion of the representation of ) to an appearance based on both the appearance of the avatar and the appearance of the subject's representation (e.g., blending, blurring, feathering, or gradually changing the degree of obscurity). In some embodiments, a portion of the avatar hair (eg, 1432) in the portion of the virtual avatar representation where the avatar hair portion crosses the shoulders (1422-1) of the displayed representation of the subject. is blended with a representation of the object (eg, 1422). In some embodiments, in portions of the virtual avatar representation where the avatar head bottom intersects the subject's neck representation (e.g., FIG. 14H), the avatar head bottom is aligned with the subject's representation. blended (eg, 1434).

一部の実施形態では、電子デバイス(例えば、600)は、被写体(例えば、1422)の頭部分の姿勢の変化(例えば、被写体の頭部が側方に向く)を検出する。被写体の頭部分の姿勢の変化を検出する電子デバイスに応じて、電子デバイスは、深度データ及び姿勢の変化に基づいて、仮想アバターの表現(例えば、アバターの髪部)から除外される、仮想アバター(例えば、1421-2)の量(例えば、仮想アバターの表現に含まれるか又は除外されるかのいずれかのサイズ)を変更する(例えば、増大又は減少する)。被写体の頭部分の姿勢の変化に基づいて、表示された仮想アバターを更新することにより、仮想アバターの視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、変更は、アバター頭部(例えば、1421-3)を被写体の頭部の動きに合わせるように側方に回すときに、仮想アバター(例えば、1421)の表現に表示されるアバターの髪部の量を増加又は減少させることを含む。一部の実施形態では、アバターの第1の部分(例えば、アバターの髪部)の表示量は、アバターの一部が、姿勢の変化に応じて被写体の表現の一部によって不明瞭化されるかどうかによって変更される。例えば、アバター頭部の回転に応じて、アバター頭部の一部がユーザ首部又は肩(例えば、1422-1)によって不明瞭化されると、アバターの髪部の一部の表示量(例えば、サイズ)が減少する(例えば、頭部を回転させることで被写体の肩(例えば、1424-1)の背後にアバター髪部が配置されるので、アバター頭部を回転させることにより、被写体の肩の前に位置する以前に表示された髪部がもはや表示されなくなる)。加えて、被写体の肩、首部又は頭部の背後に以前に隠れていた頭部の部分(例えば、1424-2)が、アバター頭部が側方に回転した結果、可視化されると、アバター髪部の部分の表示量が増大する(例えば、アバターの頭部を回転させることによりアバター髪部が被写体の肩の前に配置されるため、ここで被写体の肩の背後に位置する髪部が可視化される)。 In some embodiments, the electronic device (eg, 600) detects a change in the pose of the subject's (eg, 1422) head portion (eg, the subject's head turns to the side). In response to the electronic device detecting a change in pose of the subject's head portion, the electronic device is excluded from the representation of the virtual avatar (e.g., the avatar's hair) based on the depth data and the pose change. (eg, 1421-2) (eg, the size of either included or excluded from the representation of the virtual avatar) is changed (eg, increased or decreased). Visual feedback of the virtual avatar is provided by updating the displayed virtual avatar based on changes in the pose of the subject's head. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, the change is displayed in the representation of the virtual avatar (eg, 1421) as the avatar head (eg, 1421-3) is turned sideways to match the movement of the subject's head. This includes increasing or decreasing the amount of hair on the avatar. In some embodiments, the amount of representation of the first part of the avatar (eg, the avatar's hair) is such that part of the avatar is obscured by part of the subject's representation as the pose changes. changed depending on whether For example, depending on the rotation of the avatar head, when part of the avatar head is obscured by the user's neck or shoulders (eg, 1422-1), the amount of display of part of the avatar's hair (eg, size) is reduced (e.g., rotating the head places the avatar hair behind the subject's shoulders (e.g., 1424-1), so rotating the avatar head reduces the size of the subject's shoulders. Previously displayed hairs located in front are no longer visible). In addition, when portions of the head that were previously hidden behind the subject's shoulders, neck, or head (eg, 1424-2) become visible as a result of the avatar head being rotated to the side, the avatar hair is removed. (For example, by rotating the avatar's head, the avatar's hair is placed in front of the subject's shoulders, so the hair behind the subject's shoulders is now visible.) is done).

一部の実施形態では、デバイス(例えば、600)は、被写体の姿勢の変化を検出する(1510)。被写体(例えば、1422)の姿勢の変化を検出したこと(例えば、ユーザの肩(例えば、1422-1)上の手(例えば、1425)の動きを検出したことこと、例えば、被写体の頭部の回転又は傾きを検出したこと)に応じて、電子デバイス(例えば、600)は、姿勢の変化に基づいて、仮想アバター(例えば、1421)の表示された表現を変更する(1512)。被写体の姿勢の変化に基づいて、表示された仮想アバターを更新することにより、仮想アバターの視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、被写体の姿勢の変化を考慮に入れた深度データに基づいて、仮想アバター(例えば、1421)の第1の部分(例えば、1421-2)が深度ベース表示基準のセットを満たすとの判定に従って、電子デバイスは、仮想アバターの第1の部分(例えば、1421-2)を除外した第1の外観(例えば、図14D)(例えば、仮想アバターの第1の部分が、被写体(例えば、1425)の表現によって不明瞭化されているため、表示されていない外観)(例えば、アバターの髪部の一部が、被写体の手、首部、及び/又は肩の背後に隠れている)から、仮想アバターの第1の部分を含む第2の外観(例えば、図14E)に、仮想アバターの表現の外観を更新する(1514)。一部の実施形態では、被写体の姿勢の変化を考慮に入れた深度データに基づいて、仮想アバターの第1の部分が深度ベース表示基準のセットを満たさないとの判定に従って、電子デバイスは、仮想アバターの第1の部分を含む第3の外観(例えば、図14C)から、仮想アバターの第1の部分を除外した第4の外観(例えば、14D)に、仮想アバターの表現の外観を更新する(1516)(例えば、1424-1は、表示される髪部の量の減少を示す)。一部の実施形態では、仮想アバターの第1の部分は、被写体の動きに基づいて動的に隠される(例えば、被写体の動きに基づいて、アバターの隠れた部分を表示されるようにでき、及びアバターの表示された部分を隠されるようにできる)。 In some embodiments, a device (eg, 600) detects (1510) a change in the subject's pose. Detecting a change in the posture of the subject (eg, 1422) (eg, detecting movement of a hand (eg, 1425) on the user's shoulder (eg, 1422-1); In response to detecting a rotation or tilt), the electronic device (eg, 600) changes (1512) the displayed representation of the virtual avatar (eg, 1421) based on the change in pose. Visual feedback of the virtual avatar is provided by updating the displayed virtual avatar based on changes in the pose of the subject. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, a first portion (eg, 1421-2) of the virtual avatar (eg, 1421) uses a set of depth-based display criteria based on depth data that takes into account changes in subject pose. In accordance with the determination that the electronic device satisfies (e.g., appearances not shown because they are obscured by the representation of (e.g., 1425)) (e.g., part of the avatar's hair is hidden behind the subject's hands, neck, and/or shoulders) ) to a second appearance (eg, FIG. 14E) that includes the first portion of the virtual avatar (1514). In some embodiments, following a determination that the first portion of the virtual avatar does not meet a set of depth-based display criteria based on the depth data that takes into account changes in the subject's pose, the electronic device performs a virtual Update the appearance of the representation of the virtual avatar from a third appearance including the first portion of the avatar (eg, FIG. 14C) to a fourth appearance excluding the first portion of the virtual avatar (eg, 14D). (1516) (eg, 1424-1 indicates a reduction in the amount of displayed hair). In some embodiments, the first portion of the virtual avatar is dynamically hidden based on movement of the subject (e.g., hidden portions of the avatar can be made visible based on movement of the subject, and visible parts of the avatar can be hidden).

一部の実施形態では、電子デバイス(例えば、600)は、被写体(例えば、1422)の表現の一部の変化(例えば、姿勢の変化(例えば、向き、回転、並進など)、例えば、表情の変化)を検出する。電子デバイスは、被写体の表現の一部において検出された変化に基づいて、仮想アバター(例えば、1421、1435)の外観を変更する(例えば、リアルタイムで、被写体の表現の一部において検出された変化に基づいて、仮想アバターの位置及び/又は表情を変更する)。被写体の表現の変化に基づいて、表示された仮想アバターを更新することにより、仮想アバターの視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (e.g., 600) changes some representation of the subject (e.g., 1422) (e.g., pose changes (e.g., orientation, rotation, translation, etc.), e.g., facial expressions). change). The electronic device modifies the appearance of the virtual avatar (e.g., 1421, 1435) based on the detected change in the portion of the subject's representation (e.g., in real-time, the detected change in the portion of the subject's representation). change the position and/or facial expression of the virtual avatar based on the Visual feedback of the virtual avatar is provided by updating the displayed virtual avatar based on changes in the representation of the subject. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、被写体の表現の少なくとも第5の部分(例えば、被写体の胸、首部、又は肩)上に表示される、仮想アバター(例えば、1421、1435)によって投影された影(例えば、1430、1436)の表現を表示する。このデバイスは、被写体の表現の部分の上に仮想表現によって投影された影の表現を表示して、シミュレーションされた光源で表示された仮想アバターのより現実的な表現を提供する。仮想アバターの視覚フィードバックを提供することにより、ユーザは、結果として得られる画像を見ることができる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザデバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。一部の実施形態では、仮想アバターによって投影された影の表現は、100%未満の不透明度を有する被写体の表現上に重ね合わせられる。一部の実施形態では、表示された仮想アバターとシミュレーションされた光源との相対位置に基づいて判定される被写体の部分は、任意選択的に、カメラの視野内で検出された光源に基づいて判定される。一部の実施形態では、影の表示された表現の1つ以上の特性(例えば、位置、強度、形状など)は、仮想アバターの形状に基づく。一部の実施形態では、表示された影の形状は、異なるアバターが異なる形状の陰を投影して見えるように、仮想アバターの形状に基づいて決定される。 In some embodiments, the electronic device (e.g., 600) displays, via a display (e.g., 601), over at least a fifth portion of the subject's representation (e.g., the subject's chest, neck, or shoulders) Display a representation of the shadows (eg, 1430, 1436) cast by the displayed virtual avatars (eg, 1421, 1435). The device displays a shadow representation projected by the virtual representation over portions of the subject's representation to provide a more realistic representation of the virtual avatar displayed with simulated light sources. By providing visual feedback of the virtual avatar, the user can see the resulting image. By providing improved visual feedback to the user, the usability of the device is improved and the user device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. In some embodiments, a representation of the shadow cast by the virtual avatar is overlaid on a representation of the subject with less than 100% opacity. In some embodiments, the portion of the subject determined based on the relative position of the displayed virtual avatar and the simulated light source is optionally determined based on the light source detected within the field of view of the camera. be done. In some embodiments, one or more properties (eg, position, intensity, shape, etc.) of the displayed representation of the shadow are based on the shape of the virtual avatar. In some embodiments, the shape of the displayed shadow is determined based on the shape of the virtual avatar such that different avatars appear to project differently shaped shadows.

一部の実施形態では、影(例えば、1430、1436)の表示された表現の1つ以上の特性(例えば、位置、強度、形状など)は、1つ以上のカメラ(例えば、602)の視野内の照明条件(例えば、周囲光の検出量、検出された光源など)に基づく。一部の実施形態では、影の位置は、カメラの視野内の光源の位置に基づいて決定される。例えば、光源(例えば、検出された光源、又はモデル化された光源)が、カメラの視野内の被写体(例えば、1422)の表現の背後に配置される場合、影は、被写体の表現に対して光源の位置とは反対の被写体の表現上に配置される。一部の実施形態では、影の強度は、1つ以上のカメラの視野内で検出された照明条件の明るさに基づいて決定される(例えば、より明るい照明条件では影がより強く(明瞭に、より暗くなど)、より暗い照明条件では強さが少なくなる)。 In some embodiments, one or more characteristics (eg, position, intensity, shape, etc.) of the displayed representation of shadows (eg, 1430, 1436) are captured by the field of view of one or more cameras (eg, 602). based on the lighting conditions within (e.g., detected amount of ambient light, detected light sources, etc.). In some embodiments, the shadow position is determined based on the position of the light source within the field of view of the camera. For example, if a light source (e.g., a detected light source or a modeled light source) is placed behind a representation of an object (e.g., 1422) within the field of view of the camera, the shadow will be cast relative to the representation of the object. It is placed on the representation of the object opposite to the position of the light source. In some embodiments, the shadow intensity is determined based on the brightness of the lighting conditions detected within the field of view of one or more cameras (e.g., brighter lighting conditions produce stronger shadows (clearer , darker, etc.), less intensity in darker lighting conditions).

一部の実施形態では、影(例えば、1430、1436)の表示された表現の1つ以上の特性(例えば、位置、強度、形状など)は、深度データに基づく。一部の実施形態では、(例えば、深度マップ又は深度マスクの形式の)深度データを使用して影の位置及び/又は形状が決定されて、1つ以上のカメラの視野内の被写体(例えば、1422)の表現の3次元位置決めに基づく、影エフェクトのより現実的な表現を提供する(例えば、アバターから被写体へのシミュレーションされた距離、及び光源からアバターへのシミュレーションされた距離に基づいて、アバターの影が被写体上に落ちるように見えるように)。 In some embodiments, one or more characteristics (eg, position, intensity, shape, etc.) of the displayed representation of shadows (eg, 1430, 1436) are based on depth data. In some embodiments, depth data (e.g., in the form of depth maps or depth masks) is used to determine the location and/or shape of shadows to determine the location and/or shape of objects (e.g., 1422) provides a more realistic representation of shadow effects (e.g., based on the simulated distance from the avatar to the subject and the simulated distance from the light source to the avatar, the avatar (so that the shadow of the image appears to fall on the subject).

なお、方法1500に関して上述された処理(例えば、図15A~図15B)の詳細はまた、以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1500に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、仮想アバターなどのビジュアルエフェクトが、メッセージングアプリケーションユーザインタフェースにおいて画像データに表示される。別の例では、方法900は、方法1500に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、仮想アバターなどのビジュアルエフェクトが、カメラユーザインタフェースにおいて画像データに表示される。別の例では、方法1100は、方法1500に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、仮想アバターなどのビジュアルエフェクトが、メディアユーザインタフェースにおいて画像データに表示される。別の例では、方法1300は、方法1500に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、仮想アバターなどのビジュアルエフェクトが、ライブビデオ通信セッションのためのユーザインタフェースにおいて画像データに表示される。簡潔にするために、これらの詳細は、以下では繰り返さない。 Note that the details of the processing described above with respect to method 1500 (eg, FIGS. 15A-15B) are also applicable in an analogous manner to the methods described below. For example, method 700 optionally includes one or more of the various method features described above with respect to method 1500 . For example, visual effects such as virtual avatars are displayed on the image data in the messaging application user interface. In another example, method 900 optionally includes one or more of the various method features described above with respect to method 1500 . For example, a visual effect, such as a virtual avatar, is displayed on the image data in the camera user interface. In another example, method 1100 optionally includes one or more of the various method features described above with respect to method 1500 . For example, a visual effect, such as a virtual avatar, is displayed on the image data in the media user interface. In another example, method 1300 optionally includes one or more of the various method features described above with respect to method 1500 . For example, visual effects such as virtual avatars are displayed on image data in user interfaces for live video communication sessions. For the sake of brevity, these details are not repeated below.

上述の説明は、説明の目的で、特定の実施形態を参照して説明されてきた。しかしながら、上記例示的な議論は、包括的であることを意図しておらず、又は発明を開示された簡易的な形式に限定することを意図していない。上記教示を考慮して多くの修正及び変形が可能である。技術の原理及びそれらの実際の適用を最良に説明するために実施形態が選択及び説明されてきた。それによって、他の当業者は、考えられる特定の使用に適切な様々な修正で、技術及び様々な実施形態を最良に利用することが可能である。 The foregoing description, for purposes of explanation, has been described with reference to specific embodiments. However, the illustrative discussion above is not intended to be exhaustive or to limit the invention to the simple form disclosed. Many modifications and variations are possible in light of the above teaching. The embodiments have been chosen and described in order to best explain the principles of the technology and their practical application. Others skilled in the art are thereby enabled to best utilize the techniques and various embodiments with various modifications appropriate to the particular uses envisioned.

開示及び実施例が添付図面を参照して完全に説明されてきたが、様々な変更及び修正が当業者にとって明らかであることに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるように、開示及び実施例の範囲内に含まれるものとして理解されることになる。 Although the disclosure and examples have been fully described with reference to the accompanying drawings, it should be noted that various changes and modifications will become apparent to those skilled in the art. Such changes and modifications are intended to be included within the scope of the disclosure and examples, as defined by the claims.

上述のように、本技術の一態様は、他のユーザとの共有のために、様々なソースから入手可能なデータを収集及び使用することである。本開示は、場合によっては、この収集されたデータは、特定の人を一意的に特定するか、又はその人に連絡するか、若しくはその人のロケーションを特定するために用いることができる個人情報データを含んでよいことを企図している。このような個人情報データには、人口統計データ、ロケーションベースのデータ、電話番号、電子メールアドレス、ツイッターID、ホームアドレス、ユーザの健康又はフィットネスのレベル(例えば、バイタルサイン測定、服薬情報、運動情報)に関するデータ若しくは記録、誕生日、又は任意の他の識別情報若しくは個人情報を含むことができる。 As noted above, one aspect of the present technology is the collection and use of data available from various sources for sharing with other users. This disclosure indicates that, in some cases, this collected data is personal information that uniquely identifies a particular person or can be used to contact that person or identify that person's location. It is contemplated that it may contain data. Such personal data may include demographic data, location-based data, phone number, email address, Twitter ID, home address, user's health or fitness level (e.g., vital sign measurements, medication information, exercise information, ), date of birth, or any other identifying or personal information.

本開示は、この技術のそのような個人情報データを使用してユーザを利することができることを理解する。例えば、個人情報データを使用して、会話中のユーザをよりよく表現することができる。更に、ユーザを利する個人情報データに関する他の使用もまた、本開示により意図されている。例えば、健康データ及びフィットネスデータは、ユーザの全般的なウェルネスついての洞察を提供するために使用されてもよく、あるいはウェルネスの目標を追求するために技術を使用して個人に積極的なフィードバックとして使用されてもよい。 The present disclosure understands that such personal information data of this technology can be used to benefit users. For example, personal information data can be used to better represent a user in a conversation. Further, other uses of personal information data that benefit users are also contemplated by this disclosure. For example, health and fitness data may be used to provide insight into a user's overall wellness, or as positive feedback to individuals using technology to pursue wellness goals. may be used.

本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶又は他の使用に応答するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守することとなることを企画する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための業界又は政府の要件を満たすか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し常に使用すべきである。このようなポリシーは、ユーザが容易にアクセスすることができ、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更に、そのような収集/共有は、ユーザに告知して同意を得た後にのみ実施すべきである。加えて、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じるべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。加えて、ポリシー及び慣行は、収集かつ/又はアクセスされる特定の種類の個人情報データに適合され、また、管轄権特有の考慮を含む、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国において、ある健康データの収集又はアクセスは、例えば、Health Insurance Portability and Accountability Act(HIPAA)なのどの、連邦法及び/又は州法によって管理されてもよく、他の国における健康データは、他の規制及び政策の影響下にあってもよく、それに従って対処されるべきである。したがって、異なるプライバシー慣行を、各国の異なる個人データの種類に対して保つべきである。 This disclosure contemplates that entities responding to the collection, analysis, disclosure, transmission, storage or other use of such personal data will adhere to robust privacy policies and/or practices. Specifically, such entities will, at all times, implement privacy policies and practices that are generally recognized as meeting or exceeding industry or governmental requirements for the confidentiality and confidentiality of personal information data. should be used. Such policies should be easily accessible to users and updated as data collection and/or use changes. Personal information from users should be collected for the entity's lawful and legitimate use and should not be shared or sold except for those lawful uses. Further, such collection/sharing should only occur after informing and obtaining consent from the user. In addition, such entities protect and secure access to such Personal Data and ensure that others who have access to that Personal Data comply with their privacy policies and procedures. all necessary measures should be taken to Further, such entities may themselves be evaluated by third parties to certify their adherence to widely accepted privacy policies and practices. In addition, policies and practices should be tailored to the specific types of personal information data collected and/or accessed and to be consistent with applicable laws and standards, including jurisdiction-specific considerations. For example, in the United States, collection or access to certain health data may be governed by federal and/or state laws, such as, for example, the Health Insurance Portability and Accountability Act (HIPAA); may be subject to regulatory and policy ramifications and should be dealt with accordingly. Different privacy practices should therefore be maintained for different types of personal data in each country.

前述のことがらにもかかわらず、本開示はまた、ユーザが、個人情報データの使用又は個人情報データへのアクセスを選択的に阻止する実施形態も企図している。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、アバターを送信する場合、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択することを可能にするように構成することができる。「オプトイン」及び「オプトアウト」オプションを提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを企画している。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。 Notwithstanding the foregoing, the present disclosure also contemplates embodiments in which a user selectively prevents use of or access to personal information data. That is, the present disclosure contemplates that hardware and/or software elements may be provided to prevent or inhibit access to such personal information data. For example, when submitting an avatar, the technology may allow users to choose to “opt-in” or “opt-out” of participation in the collection of personal data during registration for the service or at any time thereafter. can be configured to In addition to providing "opt-in" and "opt-out" options, this disclosure contemplates providing notice regarding access or use of personal information. For example, the user may be notified upon downloading an app that will access the user's personal data, and then reminded again just before the personal data is accessed by the app.

更に、本開示の意図は、個人情報データを、意図しない又は不正なアクセス又は使用の危険性を最小にする方法で管理かつ取り扱うべきであることである。リスクは、データの収集を制限し、データがもはや必要ではなくなった時点でデータを削除することによって、最小化することができる。加えて、適用可能な場合には、ある健康関連アプリケーションにおいても、データ非特定化は、ユーザのプライバシーを保護するために使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって情報集約すること)及び/又は他の方法によって、容易にすることができる。 Further, it is the intent of this disclosure that personal information data should be managed and handled in a manner that minimizes the risk of unintended or unauthorized access or use. Risk can be minimized by limiting data collection and deleting data when it is no longer needed. Additionally, where applicable, data de-identification can also be used to protect user privacy in certain health-related applications. De-identification includes, where appropriate, removing certain identifiers (e.g. date of birth, etc.), controlling the amount or specificity of data stored (e.g. location data rather than address level). city level), controlling how data is stored (e.g., aggregating data across users), and/or in other ways.

したがって、本開示は、1つ以上の様々な開示された実施形態を実施するための個人情報データの使用を広範に網羅しているが、本開示は、それらの様々な実施形態がまた、そのような個人情報データにアクセスすることを必要とせずに実施されることも可能であることも企図している。すなわち、本技術の様々な実施形態は、そのような個人情報データのすべて又は一部分の欠如により、実施不可能となるものではない。 Thus, while this disclosure broadly covers the use of personal information data to implement one or more of the various disclosed embodiments, this disclosure does not disclose that those various embodiments also It is also contemplated that it can be performed without the need to access such personal information data. That is, the lack of all or part of such personal information data does not render the various embodiments of the present technology inoperable.

Claims (20)

方法であって、
1つ以上のカメラと表示装置とを有する電子デバイスにおいて、
前記表示装置を介して、前記1つ以上のカメラを介してキャプチャされた画像データの表現を表示することであって、前記表現が被写体の表現を含み、かつ、前記画像データが前記被写体の深度データを含む深度データに対応する、ことと、
前記表示装置を介して、前記被写体の前記表現の少なくとも一部の代わりに表示される仮想アバターの表現を表示することであって、前記仮想アバターは、前記被写体の前記深度データに基づいて決定される、前記被写体の前記表現に対してシミュレーションされた深度に配置される、ことと、を含み、前記仮想アバターの前記表現を表示することは、
前記深度データに基づいて、前記仮想アバターの第1の部分が、深度ベース表示基準であって、前記仮想アバターの前記第1の部分が前記被写体の対応する第1の部分の前にあるシミュレーションされた深度を有することを、前記被写体の前記深度データが示すという要求を含む、深度ベース表示基準のセットを満たすとの判定に従って、前記深度ベース表示基準が満たされるように、前記仮想アバターの前記表現の一部として、前記被写体の前記第1の部分の代わりに表示される前記仮想アバターの前記第1の部分の表現を含めることと、
前記深度データに基づいて、前記仮想アバターの前記第1の部分が、前記被写体の前記第1の部分に対する前記深度ベース表示基準のセットを満たさないとの判定に従って、前記仮想アバターの前記表現から、前記仮想アバターの前記第1の部分の前記表現を除外し、前記仮想アバターの前記第1の部分が占有していたであろう領域に、前記被写体の前記第1の部分を表示することと、を含み、
前記仮想アバターの前記表現は、前記仮想アバターの第2の部分が、前記被写体の前記表現の対応する第2の部分の前又は背後にあるシミュレーションされた深度を有することを、前記深度データが示すか否かにかかわらず、前記被写体の前記表現の前記第2の部分の上方に表示される前記仮想アバターの前記第2の部分の表現を含み、前記方法は、さらに、
前記被写体の姿勢の変化を検出することと、
前記被写体の姿勢の前記変化を検出したことに応じて、前記仮想アバターの前記表示された表現を、前記姿勢の変化に基づいて変更することであって、
前記被写体の姿勢の前記変化を考慮に入れた前記深度データに基づいて、前記仮想アバターの前記第1の部分が前記深度ベース表示基準のセットを満たすとの判定に従って、前記仮想アバターの前記第1の部分を除外した第1の外観から、前記仮想アバターの前記第1の部分を含めた第2の外観に、前記仮想アバターの前記表現の外観を更新すること、及び
前記被写体の姿勢の前記変化を考慮に入れた前記深度データに基づいて、前記仮想アバターの前記第1の部分が前記深度ベース表示基準のセットを満たさないとの判定に従って、前記仮想アバターの前記第1の部分を含めた第3の外観から、前記仮想アバターの前記第1の部分を除外した第4の外観に、前記仮想アバターの前記表現の前記外観を更新すること、を含む、こと、を含む方法。
a method,
In an electronic device having one or more cameras and a display,
displaying, via the display device, a representation of image data captured via the one or more cameras, the representation comprising a representation of an object, and the image data representing the depth of the object. corresponding to depth data containing data;
displaying, via the display device, a representation of a virtual avatar displayed in place of at least a portion of the representation of the subject, the virtual avatar being determined based on the depth data of the subject; positioned at a depth simulated with respect to the representation of the subject, and displaying the representation of the virtual avatar;
Based on the depth data, a first portion of the virtual avatar is simulated with depth-based display criteria and the first portion of the virtual avatar is in front of a corresponding first portion of the subject. the representation of the virtual avatar such that the depth-based display criteria are satisfied according to a determination that it satisfies a set of depth-based display criteria including a request that the depth data of the subject indicates that the subject has a depth of including a representation of the first portion of the virtual avatar displayed in place of the first portion of the subject as part of
from the representation of the virtual avatar, in accordance with determining, based on the depth data, that the first portion of the virtual avatar does not meet the set of depth-based display criteria for the first portion of the subject; excluding the representation of the first portion of the virtual avatar and displaying the first portion of the subject in an area that would have been occupied by the first portion of the virtual avatar; , including
The depth data indicates that the representation of the virtual avatar has a simulated depth in which a second portion of the virtual avatar is in front of or behind a corresponding second portion of the representation of the subject. a representation of the second portion of the virtual avatar displayed above the second portion of the representation of the subject, whether or not the method further comprises:
detecting a change in posture of the subject;
responsive to detecting the change in pose of the subject, changing the displayed representation of the virtual avatar based on the change in pose;
the first portion of the virtual avatar in accordance with a determination that the first portion of the virtual avatar satisfies the set of depth-based display criteria based on the depth data that takes into account the change in pose of the subject; updating the appearance of the representation of the virtual avatar from a first appearance excluding the portion of the virtual avatar to a second appearance including the first portion of the virtual avatar; and the change in pose of the subject. a first portion of the virtual avatar, according to a determination that the first portion of the virtual avatar does not meet the set of depth-based display criteria, based on the depth data that takes into account and updating the appearance of the representation of the virtual avatar from the appearance of 3 to a fourth appearance excluding the first portion of the virtual avatar.
前記仮想アバターの前記第1の部分は、前記被写体の動きに基づいて動く、請求項1に記載の方法。 2. The method of claim 1, wherein the first portion of the virtual avatar moves based on motion of the subject. 前記仮想アバターの前記第2の部分は、前記被写体の前記表現の前記対応する第2の部分の代わりに持続的に表示される、請求項1又は2に記載の方法。 3. A method according to claim 1 or 2, wherein said second portion of said virtual avatar is persistently displayed instead of said corresponding second portion of said representation of said subject. 前記仮想アバターの前記第2の部分は、前記被写体の動きに基づいて動く、請求項1~3のいずれか1項に記載の方法。 A method according to any preceding claim, wherein said second portion of said virtual avatar moves based on movement of said subject. 前記仮想アバターの前記第1の部分は第1のアバター特徴の第1のサブ部分であり、前記仮想アバターの前記第2の部分は前記第1のアバター特徴の第2のサブ部分である、請求項1~4のいずれか1項に記載の方法。 3. wherein said first portion of said virtual avatar is a first sub-portion of a first avatar characteristic and said second portion of said virtual avatar is a second sub-portion of said first avatar characteristic. Item 5. The method according to any one of Items 1 to 4. 前記仮想アバターは、前記仮想アバターの前記第1の部分を含むアバター髪部特徴を含み、
前記仮想アバターの前記表現を表示することは、前記アバター髪部特徴の第2の部分のシミュレーションされた深度が、前記被写体の前記深度データに基づき、前記被写体の前記表現の第3の部分の前又は背後にあるか否かに基づいて、前記アバター髪部特徴の第1の部分を表示し、かつ、前記アバター髪部特徴の前記第2の部分を条件的に表示すること、を含む、請求項1~5のいずれか1項に記載の方法。
the virtual avatar includes an avatar hair feature that includes the first portion of the virtual avatar;
displaying the representation of the virtual avatar includes: determining a simulated depth of a second portion of the avatar hair features before a third portion of the representation of the subject based on the depth data of the subject; or displaying the first portion of the avatar hair feature and conditionally displaying the second portion of the avatar hair feature based on whether or not it is behind. Item 6. The method according to any one of items 1 to 5.
前記仮想アバターは、前記仮想アバターの前記第1の部分を含むアバター首部特徴を含み、
前記仮想アバターの前記表現を表示することは、前記アバター首部特徴の部分のシミュレーションされた深度が、前記被写体の前記深度データに基づき、前記被写体の前記表現の第4の部分の前又は背後にあるか否かに基づいて、前記アバター首部特徴の前記部分を条件的に表示すること、を含む、請求項1~6のいずれか1項に記載の方法。
the virtual avatar includes an avatar neck feature that includes the first portion of the virtual avatar;
displaying the representation of the virtual avatar, wherein a simulated depth of the portion of the avatar neck feature is in front of or behind a fourth portion of the representation of the subject based on the depth data of the subject; The method of any one of claims 1-6, comprising conditionally displaying the portion of the avatar neck feature based on whether or not the avatar neck feature.
前記仮想アバターの前記第1の部分は、前記被写体の前記表現の前記部分が前記1つ以上のカメラに面する姿勢を有するときには表示されない、前記仮想アバターの不明瞭な部分を含む、請求項1~7のいずれか1項に記載の方法。 2. The first portion of the virtual avatar comprises an obscure portion of the virtual avatar that is not displayed when the portion of the representation of the subject has a pose facing the one or more cameras. 8. The method according to any one of 1 to 7. 前記被写体の頭部分の姿勢の変化を検出することと、
前記被写体の前記頭部分の姿勢の前記変化を検出したことに応じて、前記深度データ及び姿勢の前記変化に基づいて、前記仮想アバターの前記表現から除外される前記仮想アバターの量を変更することと、を更に含む、請求項1~8のいずれか1項に記載の方法。
detecting a change in posture of the subject's head;
Responsive to detecting the change in pose of the head portion of the subject, changing an amount of the virtual avatar excluded from the representation of the virtual avatar based on the depth data and the change in pose. The method of any one of claims 1-8, further comprising:
前記仮想アバターの前記表現を表示することは、前記仮想アバターの前記第1の部分に隣接する、前記仮想アバターの第3の部分の視覚的外観を、前記アバターの前記外観及び前記被写体の前記表現の前記外観の両方に基づく外観に変更すること、を更に含む、請求項1~9のいずれか1項に記載の方法。 Displaying the representation of the virtual avatar may include visual appearance of a third portion of the virtual avatar adjacent to the first portion of the virtual avatar, the appearance of the avatar and the representation of the subject. 10. The method of any one of claims 1-9, further comprising modifying an appearance based on both of the appearances of . 前記電子デバイスは、1つ以上の深度センサを含み、前記方法は、
前記仮想アバターの前記表現を表示する前に、前記1つ以上の深度センサを介して、前記被写体の初期深度データをキャプチャすることと、
前記被写体に対する前記初期深度データを変更することによって、前記被写体に対する前記深度データを生成することと、
を更に含む、請求項1~10のいずれか1項に記載の方法。
The electronic device includes one or more depth sensors, and the method includes:
capturing initial depth data of the subject via the one or more depth sensors prior to displaying the representation of the virtual avatar;
generating the depth data for the subject by modifying the initial depth data for the subject;
The method of any one of claims 1-10, further comprising
前記被写体に対する前記初期深度データを変更することは、前記初期深度データをぼかすこと、前記初期深度データをフェードアウトすること、及び前記初期深度データをスムージングすることからなる群から選択される、前記最初深度データ上に1つ以上の変換を実行することを含む、請求項11に記載の方法。 wherein modifying the initial depth data for the subject is selected from the group consisting of blurring the initial depth data, fading out the initial depth data, and smoothing the initial depth data. 12. The method of claim 11, comprising performing one or more transformations on the data. 前記被写体の前記表現の前記部分における変化を検出することと、
前記被写体の前記表現の前記部分における前記検出された変化に基づいて、前記仮想アバターの外観を変更することと、
を更に含む、請求項1~12のいずれか1項に記載の方法。
detecting a change in the portion of the representation of the subject;
changing the appearance of the virtual avatar based on the detected change in the portion of the representation of the subject;
The method of any one of claims 1-12, further comprising
前記表示装置を介して、前記被写体の前記表現の少なくとも第5の部分上に表示された、前記仮想アバターによって投影された影の表現を表示すること、
を更に含む、請求項1~13のいずれか1項に記載の方法。
displaying, via the display device, a representation of a shadow cast by the virtual avatar displayed over at least a fifth portion of the representation of the subject;
The method of any one of claims 1-13, further comprising
前記影の前記表示された表現の1つ以上の特性は、前記仮想アバターの形状に基づく、請求項14に記載の方法。 15. The method of claim 14, wherein one or more characteristics of the displayed representation of the shadow are based on the shape of the virtual avatar. 前記影の前記表示された表現の1つ以上の特性は、前記1つ以上のカメラの視野内の照明条件に基づく、請求項14に記載の方法。 15. The method of claim 14, wherein one or more characteristics of the displayed representation of the shadow are based on lighting conditions within the field of view of the one or more cameras. 前記影の前記表示された表現の1つ以上の特性は、前記深度データに基づく、請求項14に記載の方法。 15. The method of claim 14, wherein one or more characteristics of the displayed representation of the shadow are based on the depth data. 請求項1~17のいずれか1項に記載の方法をコンピュータに実行させる命令を含むコンピュータプログラム。 A computer program comprising instructions for causing a computer to perform the method of any one of claims 1-17. 電子デバイスであって、
1つ以上のカメラと、
表示装置と、
請求項18に記載のコンピュータプログラムを記憶したメモリと、
前記メモリに記憶されたコンピュータプログラムを実行する機能を有する1つ以上のプロセッサと、を備える電子デバイス。
an electronic device,
one or more cameras;
a display device;
a memory storing a computer program according to claim 18;
and one or more processors capable of executing computer programs stored in said memory.
電子デバイスであって、
1つ以上のカメラと、
表示装置と、
請求項1~17のいずれか1項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
one or more cameras;
a display device;
means for carrying out the method of any one of claims 1-17;
An electronic device comprising:
JP2021166686A 2018-05-07 2021-10-11 creative camera Active JP7285291B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023083816A JP7349044B2 (en) 2018-05-07 2023-05-22 creative camera
JP2023146062A JP7404587B2 (en) 2018-05-07 2023-09-08 creative camera
JP2023210355A JP2024028968A (en) 2018-05-07 2023-12-13 creative camera

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
US201862668227P 2018-05-07 2018-05-07
US62/668,227 2018-05-07
US201862679934P 2018-06-03 2018-06-03
US62/679,934 2018-06-03
DKPA201870366 2018-06-12
DKPA201870367 2018-06-12
DKPA201870366 2018-06-12
DKPA201870368 2018-06-12
DKPA201870368 2018-06-12
DKPA201870367 2018-06-12
US16/110,514 2018-08-23
US16/110,514 US10375313B1 (en) 2018-05-07 2018-08-23 Creative camera
JP2018182607A JP7073238B2 (en) 2018-05-07 2018-09-27 Creative camera
JP2020193703A JP6960513B2 (en) 2018-05-07 2020-11-20 Creative camera

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020193703A Division JP6960513B2 (en) 2018-05-07 2020-11-20 Creative camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023083816A Division JP7349044B2 (en) 2018-05-07 2023-05-22 creative camera

Publications (2)

Publication Number Publication Date
JP2022008997A JP2022008997A (en) 2022-01-14
JP7285291B2 true JP7285291B2 (en) 2023-06-01

Family

ID=87579418

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2021166686A Active JP7285291B2 (en) 2018-05-07 2021-10-11 creative camera
JP2023083816A Active JP7349044B2 (en) 2018-05-07 2023-05-22 creative camera
JP2023146062A Active JP7404587B2 (en) 2018-05-07 2023-09-08 creative camera
JP2023210355A Pending JP2024028968A (en) 2018-05-07 2023-12-13 creative camera

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2023083816A Active JP7349044B2 (en) 2018-05-07 2023-05-22 creative camera
JP2023146062A Active JP7404587B2 (en) 2018-05-07 2023-09-08 creative camera
JP2023210355A Pending JP2024028968A (en) 2018-05-07 2023-12-13 creative camera

Country Status (1)

Country Link
JP (4) JP7285291B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101528A (en) 2011-11-09 2013-05-23 Sony Corp Information processing apparatus, display control method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222439A (en) 2013-05-14 2014-11-27 ソニー株式会社 Information processing apparatus, part generating and using method, and program
JP6628354B2 (en) 2015-09-07 2020-01-08 株式会社ハイスピードボーイズ Server device, program, and communication system
US11237717B2 (en) 2015-11-04 2022-02-01 Sony Corporation Information processing device and information processing method
DK179978B1 (en) 2016-09-23 2019-11-27 Apple Inc. Image data for enhanced user interactions

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101528A (en) 2011-11-09 2013-05-23 Sony Corp Information processing apparatus, display control method, and program

Also Published As

Publication number Publication date
JP2023116485A (en) 2023-08-22
JP2022008997A (en) 2022-01-14
JP2024028968A (en) 2024-03-05
JP7404587B2 (en) 2023-12-25
JP2023175756A (en) 2023-12-12
JP7349044B2 (en) 2023-09-21

Similar Documents

Publication Publication Date Title
US11178335B2 (en) Creative camera
US20220070385A1 (en) Creative camera
JP6960513B2 (en) Creative camera
AU2022215297B2 (en) Creative camera
JP7285291B2 (en) creative camera
KR102357342B1 (en) Creative camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230522

R150 Certificate of patent or registration of utility model

Ref document number: 7285291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150