JP2023085356A - Avatar creation user interface - Google Patents

Avatar creation user interface Download PDF

Info

Publication number
JP2023085356A
JP2023085356A JP2023043407A JP2023043407A JP2023085356A JP 2023085356 A JP2023085356 A JP 2023085356A JP 2023043407 A JP2023043407 A JP 2023043407A JP 2023043407 A JP2023043407 A JP 2023043407A JP 2023085356 A JP2023085356 A JP 2023085356A
Authority
JP
Japan
Prior art keywords
avatar
feature
color
option
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023043407A
Other languages
Japanese (ja)
Inventor
オーエス, マルセル ヴァン
Van Os Marcel
ジェイソン リックワルド,
RICKWALD Jason
アラン, シー. ダイ,
C Dye Alan
アウレリオ グズマン,
Guzman Aurelio
ニコラス ヴィー. スカペル,
V Scapel Nicolas
クリストファー ウィルソン,
Wilson Christopher
アリアン ベハザディ,
Behzadi Arian
クリス ロムニー,
Romney Chris
ジャンカルロ イェルケス,
Yerkes Giancarlo
アンドレ バーリエ, ギヨーム ピエール
Pierre Andre Barlier Guillaume
ジェイディー ガードナー,
Gardner Jd
リサ ケイ. フォルセル,
K Forssell Lisa
ロベルト サード ガルシア,
Garcia Robert III
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DKPA201870374A external-priority patent/DK201870374A1/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2023085356A publication Critical patent/JP2023085356A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2024Style variation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a faster and more efficient method and interface for creating and editing an avatar.SOLUTION: The present invention is directed to a method of navigation between avatars in an application. The method includes: displaying an avatar of a first kind on an avatar navigation user interface upon determining that when a gesture directed to the avatar navigation user interface is detected while the avatar navigation user interface is being displayed, the gesture is carried out in a first direction; and displaying an avatar of a second kind different from the avatar of the first kind on the avatar navigation user interface upon determining that the gesture is carried out in a second direction opposed to the first direction.SELECTED DRAWING: Figure 7

Description

(関連出願の相互参照)
本出願は、2018年5月7日に出願された米国特許仮出願第62/668,200号「Avatar Creation User Interface」に関連している。本出願の内容は、参照によりその全体が本明細書に組み込まれる。
(Cross reference to related applications)
This application is related to U.S. Provisional Patent Application No. 62/668,200, entitled "Avatar Creation User Interface," filed May 7, 2018. The contents of this application are incorporated herein by reference in their entirety.

本開示は、概して、コンピュータユーザインターフェースに関し、より詳細にはアバターを作成及び編集する技術に関する。 TECHNICAL FIELD This disclosure relates generally to computer user interfaces, and more particularly to techniques for creating and editing avatars.

アバターは、電子デバイスのユーザを表すために使用される。アバターは、ユーザの外観を表すことができ、あるいはユーザの理想化された表現又は完全に架空の表現を表すことができる。その後、アバターは、他のユーザへのアバターの外観が、ユーザとの関連付け又はリンクをトリガするように、ユーザに関連付けられ得る。マルチメディア通信における使用を含む、このような用途のために、アバターを作成し、編集することができる。 Avatars are used to represent users of electronic devices. An avatar can represent the appearance of the user, or it can represent an idealized or completely fictional representation of the user. The avatar can then be associated with the user such that the appearance of the avatar to other users triggers an association or link with the user. Avatars can be created and edited for such uses, including use in multimedia communications.

しかし、電子デバイスを使用してアバターを作成及び編集する一部の技術は、概して面倒であり、非効率である。例えば、一部の既存の技術では、複数回のキー押下又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインターフェースが使用されている。既存の技術では、必要以上の時間が必要であり、ユーザの時間及びデバイスの電力を浪費する。後者の問題は、バッテリ動作デバイスにおいては特に重大である。 However, some techniques for creating and editing avatars using electronic devices are generally cumbersome and inefficient. For example, some existing technologies use complex and time-consuming user interfaces that may involve multiple key presses or keystrokes. Existing techniques require more time than necessary, wasting user time and device power. The latter problem is particularly acute in battery operated devices.

したがって、本技術は、アバターを作成及び編集するための、より速く、より効率的な方法及びインターフェースを電子デバイスに提供する。このような方法及びインターフェースは、アバターを作成する他の方法を任意選択的に補完するか、又は置き換える。そのような方法及びインターフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマン-マシンインターフェースを実現する。バッテリ動作式のコンピューティングデバイスの場合には、このような方法及びインターフェースにより、電力が節約され、バッテリを充電する間隔が増す。 Accordingly, the present technology provides electronic devices with faster, more efficient methods and interfaces for creating and editing avatars. Such methods and interfaces optionally complement or replace other methods of creating avatars. Such methods and interfaces reduce the cognitive burden on users and enable more efficient human-machine interfaces. For battery-operated computing devices, such methods and interfaces conserve power and increase intervals between battery charging.

方法が説明される。この方法は、表示装置及び1つ以上の入力デバイスを有する電子デバイスで実行される。この方法は、表示装置を介してアバターナビゲーションユーザインターフェースを表示することであって、このアバターナビゲーションユーザインターフェースがアバターを含んでいる、ことと、アバターナビゲーションユーザインターフェースが表示されている間に、1つ以上の入力デバイスを介して、アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出することと、ジェスチャを検出することに応じて、ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターをアバターナビゲーションユーザインターフェースに表示することと、ジェスチャが第1の方向と反対の第2の方向であるという判定に従って、第1の種類と異なる第2の種類のアバターをアバターナビゲーションユーザインターフェースに表示することと、を含む。 A method is described. The method is performed on an electronic device having a display and one or more input devices. The method comprises displaying an avatar navigation user interface via a display device, the avatar navigation user interface including an avatar, and while the avatar navigation user interface is being displayed, one detecting a gesture directed at the avatar navigation user interface via any of the above input devices; on the avatar navigation user interface; and displaying a second type of avatar different from the first type on the avatar navigation user interface according to determining that the gesture is in a second direction opposite the first direction. including.

非一時的コンピュータ可読記憶媒体が説明される。非一時的コンピュータ可読記憶媒体は、表示装置及び1つ以上の入力デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する。これらの1つ以上のプログラムは、表示装置を介してアバターナビゲーションユーザインターフェースであって、アバターナビゲーションユーザインターフェースがアバターを含む、アバターナビゲーションユーザインターフェースを表示し、アバターナビゲーションユーザインターフェースが表示されている間に、1つ以上の入力デバイスを介して、アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出し、ジェスチャを検出することに応じて、ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターをアバターナビゲーションユーザインターフェースに表示し、ジェスチャが第1の方向と反対の第2の方向であるという判定に従って、第1の種類と異なる第2の種類のアバターをアバターナビゲーションユーザインターフェースに表示する、命令を含む。 A non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display and one or more input devices. These one or more programs display an avatar navigation user interface via a display device, the avatar navigation user interface including an avatar, and while the avatar navigation user interface is being displayed , via one or more input devices, detecting a gesture directed at the avatar navigation user interface, and responsive to detecting the gesture, following a determination that the gesture is in a first direction, a first type of displaying an avatar on the avatar navigation user interface, and displaying a second type of avatar on the avatar navigation user interface that is different from the first type according to determining that the gesture is in a second direction opposite the first direction; including instructions.

一時的コンピュータ可読記憶媒体が説明される。一時的コンピュータ可読記憶媒体は、表示装置及び1つ以上の入力デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する。これらの1つ以上のプログラムは、表示装置を介してアバターナビゲーションユーザインターフェースであって、アバターナビゲーションユーザインターフェースがアバターを含む、アバターナビゲーションユーザインターフェースを表示し、アバターナビゲーションユーザインターフェースが表示されている間に、1つ以上の入力デバイスを介して、アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出し、ジェスチャを検出することに応じて、ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターをアバターナビゲーションユーザインターフェースに表示し、ジェスチャが第1の方向と反対の第2の方向であるという判定に従って、第1の種類と異なる第2の種類のアバターをアバターナビゲーションユーザインターフェースに表示する、命令を含む。 A temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display and one or more input devices. These one or more programs display an avatar navigation user interface via a display device, the avatar navigation user interface including an avatar, and while the avatar navigation user interface is being displayed , via one or more input devices, detecting a gesture directed at the avatar navigation user interface, and responsive to detecting the gesture, following a determination that the gesture is in a first direction, a first type of displaying an avatar on the avatar navigation user interface, and displaying a second type of avatar on the avatar navigation user interface that is different from the first type according to determining that the gesture is in a second direction opposite the first direction; including instructions.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上の入力デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えており、これらの1つ以上のプログラムは、表示装置を介してアバターナビゲーションユーザインターフェースであって、アバターナビゲーションユーザインターフェースがアバターを含む、アバターナビゲーションユーザインターフェースを表示しアバターナビゲーションユーザインターフェースが表示されている間に、1つ以上の入力デバイスを介して、アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出し、ジェスチャを検出することに応じて、ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターをアバターナビゲーションユーザインターフェースに表示し、ジェスチャが第1の方向と反対の第2の方向であるという判定に従って、第1の種類と異なる第2の種類のアバターをアバターナビゲーションユーザインターフェースに表示する、命令を含む。 An electronic device is described. The electronic device includes a display device, one or more input devices, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. and the one or more programs display an avatar navigation user interface via a display device, the avatar navigation user interface including an avatar, and the avatar navigation user interface being displayed. detecting a gesture directed at the avatar navigation user interface via one or more input devices while in the first direction; type of avatar in the avatar navigation user interface, and displaying a second type of avatar different from the first type in the avatar navigation user interface according to a determination that the gesture is in a second direction opposite to the first direction Display, including instructions.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上の入力デバイスと、表示装置を介してアバターナビゲーションユーザインターフェースを表示する手段であって、このアバターナビゲーションユーザインターフェースがアバターを含んでいる、手段と、アバターナビゲーションユーザインターフェースが表示されている間に、1つ以上の入力デバイスを介して、アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出する手段と、ジェスチャを検出することに応じて、ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターをアバターナビゲーションユーザインターフェースに表示し、ジェスチャが第1の方向と反対の第2の方向であるという判定に従って、第1の種類と異なる第2の種類のアバターをアバターナビゲーションユーザインターフェースに表示する手段と、を含む。 An electronic device is described. The electronic device comprises a display device, one or more input devices, means for displaying an avatar navigation user interface via the display device, the avatar navigation user interface including an avatar; means for detecting, via one or more input devices, a gesture directed at the avatar navigation user interface while the navigation user interface is displayed; displaying an avatar of a first type in an avatar navigation user interface according to a determination that the gesture is a direction; and means for displaying the avatar of type in the avatar navigation user interface.

方法が説明される。この方法は、表示装置を有する電子デバイスで実行される。この方法は、表示装置を介して、複数のアバター特徴部を有するアバターと、個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示することであって、個別のアバター特徴部の第2の特性が個別のアバター特徴部の第1の特性と異なっている、ことと、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することと、を含む。 A method is described. The method is performed on an electronic device having a display. The method includes, via a display device, an avatar having a plurality of avatar features and a first set of feature options corresponding to a set of candidate values for a first property of the individual avatar features. an individual avatar feature first option selection region and an individual avatar feature containing a second set of feature options corresponding to a set of candidate values for a second property of the individual avatar feature; and simultaneously displaying a second option selection area, wherein the second characteristic of the individual avatar feature is the first characteristic of the individual avatar feature. and the appearance of at least one of the second set of feature options in response to detecting selection of one of the feature options in the first set of feature options is different from from a first appearance to a second appearance.

非一時的コンピュータ可読記憶媒体が説明される。この非一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、複数のアバター特徴部を有するアバターと、個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、個別のアバター特徴部の第2の特性であって、個別のアバター特徴部の第2の特性が個別のアバター特徴部の第1の特性と異なっている、個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示し、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更する、命令を含む。 A non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display, wherein the one or more programs are configured to Via a device, an avatar having a plurality of avatar features and an individual avatar feature including a first set of feature options corresponding to a set of candidate values for a first property of the individual avatar feature and a second characteristic of the discrete avatar feature, wherein the second characteristic of the discrete avatar feature is different than the first characteristic of the discrete avatar feature. a separate avatar feature second option selection area containing a second set of feature options corresponding to a set of candidate values for the second property of the avatar feature of the in response to displaying an avatar editing user interface and detecting selection of one of the feature options in the first set of feature options, at least one of the second set of feature options It contains instructions to change one appearance from a first appearance to a second appearance.

一時的コンピュータ可読記憶媒体が説明される。この一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、複数のアバター特徴部を有するアバターと、個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、及び個別のアバター特徴部の第2の特性であって、個別のアバター特徴部の第2の特性が個別のアバター特徴部の第1の特性と異なっている、個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示し、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更する、命令を含む。 A temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, wherein the one or more programs are configured to be executed by the display device. an avatar having a plurality of avatar features and an individual avatar feature including a first set of feature options corresponding to a set of candidate values for the first property of the individual avatar feature via a first option selection area; and a second characteristic of the discrete avatar feature, wherein the second characteristic of the discrete avatar feature is different than the first characteristic of the discrete avatar feature. a separate avatar feature second option selection area containing a second set of feature options corresponding to a set of candidate values for the second property of the avatar feature of the in response to displaying an avatar editing user interface and detecting selection of one of the feature options in the first set of feature options, at least one of the second set of feature options It contains instructions to change one appearance from a first appearance to a second appearance.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えており、これらの1つ以上のプログラムは、表示装置を介して、複数のアバター特徴部を有するアバターと、個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、及び個別のアバター特徴部の第2の特性であって、個別のアバター特徴部の第2の特性が個別のアバター特徴部の第1の特性と異なっている、個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示し、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更する、命令を含む。 An electronic device is described. The electronic device comprises a display, one or more processors, and memory storing one or more programs configured to be executed by the one or more processors, one of which The above program includes an avatar having a plurality of avatar features and a first set of feature options corresponding to a set of candidate values for the first characteristic of the individual avatar features, via a display device. and a second property of the individual avatar feature, wherein the second property of the individual avatar feature is the first property of the individual avatar feature. an individual avatar feature second option selection area containing a second set of feature options corresponding to a set of candidate values for a second characteristic of the individual avatar feature that is different from the characteristic; and displaying a second set of feature options in response to detecting selection of one of the feature options in the first set of feature options. to change the appearance of at least one of the set of from a first appearance to a second appearance.

電子デバイスが説明される。この電子デバイスは、表示装置と、表示装置を介して、複数のアバター特徴部を有するアバターと、個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、及び個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示する手段であって、個別のアバター特徴部の第2の特性が個別のアバター特徴部の第1の特性と異なっている、手段と、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更する手段と、を備える。 An electronic device is described. The electronic device comprises a display device, and, via the display device, an avatar having a plurality of avatar features and a first feature option corresponding to a set of candidate values for the first characteristic of the individual avatar features. a first option selection area for an individual avatar feature containing a set and a second set of feature options corresponding to a set of candidate values for a second property of the individual avatar feature; a second option selection area of an individual avatar feature; means, and in response to detecting selection of one of the feature options in the first set of feature options, different from the first property of the feature option, a second set of feature options; and means for changing the appearance of at least one of them from the first appearance to the second appearance.

方法が説明される。この方法は、表示装置を有する電子デバイスで実行される。この方法は、表示装置を介して、1つ以上の色の第1の集合を有する個別の特徴、及び個別の特徴の複数の色オプションを含んでいるユーザインターフェースオブジェクトを表示することと、第2の色に対応する複数の色オプションのうちの色オプションの選択を検出することと、この選択を検出することに応じて、個別の特徴の色をこの色オプションに変更し、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御を表示することと、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第2の集合を有している間に、第1の色調整制御に対応する入力を検出することと、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更することと、を含む。 A method is described. The method is performed on an electronic device having a display. The method includes, via a display device, displaying a user interface object including an individual feature having a first set of one or more colors and a plurality of color options for the individual feature; detecting a selection of a color option among a plurality of color options corresponding to the color of the , and responsive to detecting this selection, changing the color of the individual feature to this color option and one or more colors displaying a first color adjustment control for color options corresponding to a second set of and while the individual feature of the user interface object has the second set of one or more colors; , detecting an input corresponding to the first color adjustment control; and, in response to detecting input corresponding to the first color adjustment control, converting the discrete feature color to 1 based on the second color. changing from the second set of one or more colors to a modified version of the second set of one or more colors.

非一時的コンピュータ可読記憶媒体が説明される。この非一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する個別の特徴、及び個別の特徴の複数の色オプションを含んでいるユーザインターフェースオブジェクトを表示し、第2の色に対応する複数の色オプションのうちの色オプションの選択を検出し、この選択を検出することに応じて、個別の特徴の色をこの色オプションに変更し、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御を表示し、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第2の集合を有している間に、第1の色調整制御に対応する入力を検出し、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更する、命令を含む。 A non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display, wherein the one or more programs are configured to displaying, via the device, a user interface object that includes an individual feature having a first set of one or more colors and multiple color options for the individual feature; detecting a selection of a color option among the color options, and responsive to detecting the selection, changing the color of the individual feature to the color option and a color corresponding to a second set of one or more colors; displaying a first color adjustment control for options and input corresponding to the first color adjustment control while the individual feature of the user interface object has a second set of one or more colors; and, in response to detecting input corresponding to the first color adjustment control, based on the second color, one or more distinct feature colors from the second set of one or more colors. to a modified version of the second set of colors.

一時的コンピュータ可読記憶媒体が説明される。この一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する個別の特徴、及び個別の特徴の複数の色オプションを含んでいるユーザインターフェースオブジェクトを表示し、第2の色に対応する複数の色オプションのうちの色オプションの選択を検出し、この選択を検出することに応じて、個別の特徴の色をこの色オプションに変更し、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御を表示し、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第2の集合を有している間に、第1の色調整制御に対応する入力を検出し、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更する、命令を含む。 A temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, wherein the one or more programs are configured to be executed by the display device. to display a user interface object containing an individual feature having a first set of one or more colors and multiple color options for the individual feature, and multiple colors corresponding to the second color detecting a selection of a color option among the options, and responsive to detecting this selection, changing the color of the individual feature to this color option and a color option corresponding to a second set of one or more colors; displaying a first color adjustment control for and input corresponding to the first color adjustment control while the individual feature of the user interface object has a second set of one or more colors and responsive to detecting an input corresponding to the first color adjustment control, based on the second color, one or more distinct feature colors from the second set of one or more colors. Includes instructions to change to a modified version of the second set of colors.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えており、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する個別の特徴、及び個別の特徴の複数の色オプションを含んでいるユーザインターフェースオブジェクトを表示し、第2の色に対応する複数の色オプションのうちの色オプションの選択を検出し、この選択を検出することに応じて、個別の特徴の色をこの色オプションに変更し、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御を表示し、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第2の集合を有している間に、第1の色調整制御に対応する入力を検出し、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更する、命令を含む。 An electronic device is described. The electronic device comprises a display, one or more processors, and memory storing one or more programs configured to be executed by the one or more processors, one of which The above program displays, via a display device, a user interface object including an individual feature having a first set of one or more colors and multiple color options for the individual feature; detecting a selection of a color option among a plurality of color options corresponding to a color; changing the color of the individual feature to the color option in response to detecting the selection; displaying a first color adjustment control for color options corresponding to a set of the first color while the individual feature of the user interface object has a second set of one or more colors Detecting an input corresponding to the adjustment control and, in response to detecting an input corresponding to the first color adjustment control, based on the second color, the individual feature color to one or more second colors. to a modified version of a second set of one or more colors.

電子デバイスが説明される。この電子デバイスは、表示装置と、表示装置を介して、1つ以上の色の第1の集合を有する個別の特徴、及び個別の特徴の複数の色オプションを含んでいるユーザインターフェースオブジェクトを表示する手段と、第2の色に対応する複数の色オプションのうちの色オプションの選択を検出する手段と、この選択を検出することに応じて、個別の特徴の色をこの色オプションに変更する手段と、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御を表示する手段と、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第2の集合を有している間に、第1の色調整制御に対応する入力を検出する手段と、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更する手段と、を備える。 An electronic device is described. The electronic device displays a display and, via the display, individual features having a first set of one or more colors, and a user interface object including multiple color options for the individual features. means for detecting a selection of a color option among a plurality of color options corresponding to a second color; and means for changing the color of the individual feature to the color option in response to detecting this selection. and means for displaying a first color adjustment control for color options corresponding to a second set of one or more colors; and a discrete feature of the user interface object displaying the second set of one or more colors means for detecting input corresponding to the first color adjustment control while having a second color based on the second color in response to detecting input corresponding to the first color adjustment control; and means for changing the color of the individual feature from the second set of one or more colors to a modified version of the second set of one or more colors.

方法が説明される。この方法は、表示装置を有する電子デバイスで実行される。この方法は、表示装置を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示することと、複数の色オプションの個別の色オプションの選択を検出することと、第1のアバター特徴部の複数の色オプションの個別の色オプションの選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、第1のアバター特徴部を1つ以上の色の第2の集合に変更することを含めて、アバターの外観を更新することと、第2のアバター特徴部を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更することと、を含む。 A method is described. The method is performed on an electronic device having a display. The method includes, via a display device, a first avatar feature having a first set of one or more colors and a first avatar feature having one or more colors based on the first set of one or more colors. an avatar having a plurality of avatar features including a second avatar feature having a set of one or more colors different from the one set; a plurality of color options corresponding to the first avatar feature; , detecting selection of an individual color option of the plurality of color options, and displaying an individual color of the plurality of color options of the first avatar feature In response to detecting selection of the option, convert the first avatar feature to the second set of one or more colors in accordance with a determination that the individual color option corresponds to the second set of one or more colors. and making a second avatar feature different from the second set of one or more colors based on the second set of one or more colors. , changing to one or more sets of colors.

非一時的コンピュータ可読記憶媒体が説明される。この非一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示し、複数の色オプションの個別の色オプションの選択を検出し、第1のアバター特徴部の複数の色オプションの個別の色オプションの選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、第1のアバター特徴部を1つ以上の色の第2の集合に変更することを含めて、アバターの外観を更新し、第2のアバター特徴部を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更する、命令を含む。 A non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display, wherein the one or more programs are configured to Via the device, a first avatar feature having a first set of one or more colors and different from the first set of one or more colors based on the first set of one or more colors , an avatar having a plurality of avatar features including a second avatar feature having a set of one or more colors, and a plurality of color options corresponding to the first avatar features. responsive to displaying an avatar editing user interface comprising; detecting selection of an individual color option of the plurality of color options; detecting selection of an individual color option of the plurality of color options of the first avatar feature; , including changing the first avatar feature to the second set of one or more colors according to a determination that the individual color option corresponds to the second set of one or more colors. and change the second avatar feature to one or more sets of colors that are different from the second set of one or more colors based on the second set of one or more colors. , including instructions.

一時的コンピュータ可読記憶媒体が説明される。この一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示し、複数の色オプションの個別の色オプションの選択を検出し、第1のアバター特徴部の複数の色オプションの個別の色オプションの選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、第1のアバター特徴部を1つ以上の色の第2の集合に変更することを含めて、アバターの外観を更新し、第2のアバター特徴部を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更する、命令を含む。 A temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, wherein the one or more programs are configured to be executed by the display device. a first avatar feature having a first set of one or more colors, and different from the first set of one or more colors based on the first set of one or more colors via displaying an avatar having a plurality of avatar features including a second avatar feature having a set of one or more colors; and a plurality of color options corresponding to the first avatar feature. in response to displaying an avatar editing user interface, detecting selection of an individual color option of the plurality of color options, and detecting selection of an individual color option of the plurality of color options of the first avatar feature. , including changing the first avatar feature to the second set of one or more colors according to a determination that the individual color option corresponds to the second set of one or more colors. updating the appearance and changing the second avatar feature to one or more sets of colors that are different from the second set of one or more colors based on the second set of one or more colors; including instructions.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示し、複数の色オプションの個別の色オプションの選択を検出し、第1のアバター特徴部の複数の色オプションの個別の色オプションの選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、第1のアバター特徴部を1つ以上の色の第2の集合に変更することを含めて、アバターの外観を更新し、第2のアバター特徴部を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更する、命令を含む。 An electronic device is described. The electronic device comprises a display device, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors, one or more of which The program sends, via a display device, a first avatar feature having a first set of one or more colors and a first set of one or more colors based on the first set of one or more colors. an avatar having a plurality of avatar features including a second avatar feature having a set of one or more colors different from the set of and a plurality of color options corresponding to the first avatar feature; displaying an avatar editing user interface comprising displaying; detecting selection of a discrete color option of the plurality of color options; and detecting selection of a discrete color option of the plurality of color options of the first avatar feature. in response to changing the first avatar feature to the second set of one or more colors according to the determination that the individual color option corresponds to the second set of one or more colors. updating the appearance of the avatar, and rendering a second avatar feature of one or more colors based on the second set of one or more colors and different from the second set of one or more colors; Contains instructions to change to a set.

電子デバイスが説明される。この電子デバイスは、表示装置と、表示装置を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示する手段と、複数の色オプションの個別の色オプションの選択を検出する手段と、第1のアバター特徴部の複数の色オプションの個別の色オプションの選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、第1のアバター特徴部を1つ以上の色の第2の集合に変更する手段を含めて、アバターの外観を更新する手段と、第2のアバター特徴部を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更する手段と、を備える。 An electronic device is described. The electronic device comprises a display, and via the display, a first avatar feature having a first set of one or more colors, and a an avatar having a plurality of avatar features including a second avatar feature having one or more sets of colors different from said first set of colors; means for displaying an avatar editing user interface comprising displaying a color option for a first avatar feature; means for detecting selection of an individual color option of the plurality of color options; responsive to detecting selection of an optional individual color option, converting the first avatar feature to one or more colors in accordance with a determination that the individual color option corresponds to a second set of one or more colors; means for updating the appearance of the avatar, including means for changing the second set of one or more colors to a second set of one or more colors; means for changing to one or more sets of colors different from the two sets.

方法が説明される。この方法は、表示装置を有する電子デバイスで実行される。この方法は、表示装置を介して、選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバター、及び複数のアバターのアクセサリオプションを表示することを含んでいるアバター編集ユーザインターフェースを表示することと、個別のアクセサリオプションの選択を検出することと、複数のアバターのアクセサリオプションの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従ってアバター上に配置される第1のアクセサリオプションの表現を表示することを含めて、個別のアクセサリオプションの表現を含めるようにアバターの外観を変更することと、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分の形状を変更することと、を含む。 A method is described. The method is performed on an electronic device having a display. The method includes displaying, via a display device, an avatar having a plurality of avatar features including avatar hair having a selected avatar hairstyle, and a plurality of avatar accessory options. In response to displaying the editing user interface, detecting selection of the individual accessory option, and detecting selection of the individual accessory option of the accessory options of the plurality of avatars, the individual accessory option is selected from the first changing the appearance of the avatar to include a representation of the individual accessory option, including displaying a representation of the first accessory option to be placed on the avatar according to the determination that it is an accessory option; changing the shape of the first portion of the avatar's hair based on the position of the representation of the first accessory option on the avatar while maintaining the avatar's hairstyle.

非一時的コンピュータ可読記憶媒体が説明される。この非一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバター、及び複数のアバターのアクセサリオプションを表示し、個別のアクセサリオプションの選択を検出し、複数のアバターのアクセサリオプションの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従ってアバター上に配置される第1のアクセサリオプションの表現を表示することを含めて、個別のアクセサリオプションの表現を含めるようにアバターの外観を変更し、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分の形状を変更する、命令を含む。 A non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display, wherein the one or more programs are selected displaying an avatar having a plurality of avatar features including avatar hair having a stylized avatar hairstyle and accessory options for the plurality of avatars; detecting selection of individual accessory options; and accessory options for the plurality of avatars displaying a representation of the first accessory option positioned on the avatar according to the determination that the discrete accessory option is the first accessory option in response to detecting selection of the discrete accessory option of , modifies the appearance of the avatar to include representations of individual accessory options, and modifies the avatar's hair based on the position of the representation of the first accessory option on the avatar while maintaining the selected avatar hairstyle. Contains instructions to change the shape of a part.

一時的コンピュータ可読記憶媒体が説明される。この一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバター、及び複数のアバターのアクセサリオプションを表示し、個別のアクセサリオプションの選択を検出し、複数のアバターのアクセサリオプションの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従ってアバター上に配置される第1のアクセサリオプションの表現を表示することを含めて、個別のアクセサリオプションの表現を含めるようにアバターの外観を変更し、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分の形状を変更する、命令を含む。 A temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display, wherein the one or more programs are selected. displaying an avatar having multiple avatar features including avatar hair having an avatar hairstyle, and accessory options for multiple avatars; detecting selection of individual accessory options; responsive to detecting selection of the discrete accessory option, displaying a representation of the first accessory option positioned on the avatar in accordance with a determination that the discrete accessory option is the first accessory option; Modify the appearance of the avatar to include representations of individual accessory options, and change the first part of the avatar's hair based on the position of the first accessory option representation on the avatar while maintaining the selected avatar hairstyle. contains instructions to change the shape of the part of

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えており、これらの1つ以上のプログラムは、選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバター、及び複数のアバターのアクセサリオプションを表示し、個別のアクセサリオプションの選択を検出し、複数のアバターのアクセサリオプションの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従ってアバター上に配置される第1のアクセサリオプションの表現を表示することを含めて、個別のアクセサリオプションの表現を含めるようにアバターの外観を変更し、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分の形状を変更する、命令を含む。 An electronic device is described. The electronic device comprises a display, one or more processors, and memory storing one or more programs configured to be executed by the one or more processors, one of which The above program displays an avatar having multiple avatar features including avatar hair having a selected avatar hairstyle, and multiple avatar accessory options, detects selection of individual accessory options, a representation of a first accessory option to be placed on the avatar according to a determination that the discrete accessory option is the first accessory option in response to detecting selection of a discrete accessory option of accessory options of a plurality of avatars; Change the appearance of the avatar to include representations of individual accessory options, including displaying and based on the position of the representation of the first accessory option on the avatar while maintaining the selected avatar hairstyle , to change the shape of the first portion of the avatar's hair.

電子デバイスが説明される。この電子デバイスは、表示装置と、表示装置を介して、選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバター、及び複数のアバターのアクセサリオプションを表示することを含んでいるアバター編集ユーザインターフェースを表示する手段と、個別のアクセサリオプションの選択を検出する手段と、複数のアバターのアクセサリオプションの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従ってアバター上に配置される第1のアクセサリオプションの表現を表示する手段を含めて、個別のアクセサリオプションの表現を含めるようにアバターの外観を変更する手段と、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分の形状を変更する手段と、を備える。 An electronic device is described. The electronic device displays a display and, via the display, an avatar having a plurality of avatar features including avatar hair having a selected avatar hairstyle, and a plurality of avatar accessory options. means for displaying an avatar editing user interface comprising; means for detecting selection of an individual accessory option; Means for altering the appearance of the avatar to include a representation of a separate accessory option, including means for displaying a representation of the first accessory option placed on the avatar pursuant to the determination that the option is the first accessory option. and means for changing the shape of the first portion of the avatar's hair based on the position of the representation of the first accessory option on the avatar while maintaining the selected avatar hairstyle.

方法が説明される。この方法は、1つ以上のカメラ及び表示装置を有する電子デバイスで実行される。この方法は、表示装置を介して、1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示することと、1つ以上のカメラの視野内で顔が検出されている間に、この顔がユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、第1の顔の特徴の動きを検出することと、第1の顔の特徴の動きを検出することに応じて、ユーザの舌が、個別の基準が満たされるためにはユーザの舌が可視であるという要件を含む、個別の基準を満たしているという判定に従って、第1の顔の特徴の動きに基づいて、アバターの舌を表示し、アバターの舌の位置を変更することと、ユーザの舌が個別の基準を満たしていないという判定に従って、アバターの舌を表示するのを止めることと、を含む。 A method is described. The method is performed on an electronic device having one or more cameras and displays. The method comprises, via a display device, displaying a virtual avatar having a plurality of avatar features that change appearance in response to detected changes in facial pose within the field of view of one or more cameras; While the face is detected within the field of view of the one or more cameras, the face includes a plurality of detected facial features including a first facial feature other than the user's tongue, and the first Detecting movement of the facial feature and, in response to detecting movement of the first facial feature, a requirement that the user's tongue be visible for a separate criterion to be met. displaying the tongue of the avatar and changing the position of the tongue of the avatar based on the movement of the first facial feature according to the determination that the individual criteria are met, including: and ceasing to display the avatar's tongue in accordance with the determination that the criteria are not met.

非一時的コンピュータ可読記憶媒体が説明される。この非一時的コンピュータ可読記憶媒体は、表示装置及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示し、1つ以上のカメラの視野内で顔が検出されている間に、この顔がユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、第1の顔の特徴の動きを検出し、第1の顔の特徴の動きを検出することに応じて、ユーザの舌が、個別の基準が満たされるためにはユーザの舌が可視であるという要件を含む、個別の基準を満たしているという判定に従って、第1の顔の特徴の動きに基づいて、アバターの舌を表示し、アバターの舌の位置を変更し、ユーザの舌が個別の基準を満たしていないという判定に従って、アバターの舌を表示するのを止める、命令を含む。 A non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display and one or more cameras; The above program displays, via a display device, a virtual avatar having a plurality of avatar features that change appearance in response to detected changes in facial pose within the field of view of one or more cameras; a first face, wherein the face includes a plurality of detected facial features including a first facial feature other than the user's tongue, while the face is detected within the field of view of the one or more cameras; detecting motion of a feature of the first facial feature, responsive to detecting motion of the first facial feature, including a requirement that the user's tongue be visible for a separate criterion to be met; Displaying the avatar's tongue and changing the position of the avatar's tongue based on the movement of the first facial feature according to the determination that the individual criteria are met, and the user's tongue not meeting the individual criteria. Contains instructions to stop displaying the avatar's tongue according to the determination.

一時的コンピュータ可読記憶媒体が説明される。この一時的コンピュータ可読記憶媒体は、表示装置及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示し、1つ以上のカメラの視野内で顔が検出されている間に、この顔がユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、第1の顔の特徴の動きを検出し、第1の顔の特徴の動きを検出することに応じて、ユーザの舌が、個別の基準が満たされるためにはユーザの舌が可視であるという要件を含む、個別の基準を満たしているという判定に従って、第1の顔の特徴の動きに基づいて、アバターの舌を表示し、アバターの舌の位置を変更し、ユーザの舌が個別の基準を満たしていないという判定に従って、アバターの舌を表示するのを止める、命令を含む。 A temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display and one or more cameras, one or more of which displays, via a display device, a virtual avatar having a plurality of avatar features that change appearance in response to detected changes in facial pose within the field of view of one or more cameras; while the face is being detected within the field of view of the camera, the face includes a plurality of detected facial features including a first facial feature other than the user's tongue, and the first facial feature is Detecting movement of the feature and, in response to detecting movement of the first facial feature, the user's tongue includes a requirement that the user's tongue be visible for the individual criteria to be met. displaying the avatar's tongue, changing the position of the avatar's tongue based on the movement of the first facial feature, according to the determination that the user's tongue does not meet the individual criteria, and determining that the user's tongue does not meet the individual criteria. Contains instructions to stop displaying the avatar's tongue according to the verdict.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えており、これらの1つ以上のプログラムは、表示装置を介して、1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示し、1つ以上のカメラの視野内で顔が検出されている間に、この顔がユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、第1の顔の特徴の動きを検出し、第1の顔の特徴の動きを検出することに応じて、ユーザの舌が、個別の基準が満たされるためにはユーザの舌が可視であるという要件を含む、個別の基準を満たしているという判定に従って、第1の顔の特徴の動きに基づいて、アバターの舌を表示し、アバターの舌の位置を変更し、ユーザの舌が個別の基準を満たしていないという判定に従って、アバターの舌を表示するのを止める、命令を含む。 An electronic device is described. The electronic device comprises a display, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. and one or more of these programs have a plurality of avatar features that change appearance in response to detected changes in facial pose within the field of view of one or more cameras via a display device. displaying a virtual avatar, wherein the face includes a plurality of detected facial features including a first facial feature other than the user's tongue while the face is detected within the field of view of the one or more cameras; and detecting movement of the first facial feature, and in response to detecting movement of the first facial feature, the user's tongue is visible for a separate criterion to be met. displaying the avatar's tongue, changing the position of the avatar's tongue, and moving the user's tongue based on the movement of the first facial feature according to the determination that individual criteria are met, including the requirement that the user's tongue is Contains instructions to stop displaying the avatar's tongue, subject to a determination that individual criteria are not met.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のカメラと、表示装置を介して、1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示する手段と、1つ以上のカメラの視野内で顔が検出されている間に、この顔がユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、第1の顔の特徴の動きを検出する手段と、第1の顔の特徴の動きを検出することに応じて、ユーザの舌が、個別の基準が満たされるためにはユーザの舌が可視であるという要件を含む、個別の基準を満たしているという判定に従って、第1の顔の特徴の動きに基づいて、アバターの舌を表示し、アバターの舌の位置を変更する手段と、ユーザの舌が個別の基準を満たしていないという判定に従って、アバターの舌を表示するのを止める手段と、を備える。 An electronic device is described. The electronic device includes a display, one or more cameras, and a plurality of avatars that change appearance in response to detected changes in facial pose within the field of view of the one or more cameras via the display. means for displaying a virtual avatar having features; and, while the face is detected within the field of view of the one or more cameras, a plurality of detected faces in which the face includes a first facial feature other than the user's tongue. means for detecting movement of a first facial feature, and responsive to detecting movement of the first facial feature, a user's tongue to determine if a separate criterion is met; displaying the avatar's tongue based on the movement of the first facial feature, according to a determination that individual criteria are met, including the requirement that the user's tongue be visible, and the position of the avatar's tongue; and means to stop displaying the avatar's tongue in accordance with a determination that the user's tongue does not meet the individual criteria.

これらの機能を実行する実行可能命令は任意選択で、非一時的コンピュータ可読記憶媒体又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。これらの機能を実行するための実行可能命令は、任意選択的に、一時的コンピュータ可読記憶媒体、又は1つ以上のプロセッサによって実行するように構成された他のコンピュータプログラム製品に含まれる。 Executable instructions for performing these functions are optionally contained on a non-transitory computer-readable storage medium or other computer program product configured to be executed by one or more processors. Executable instructions for performing these functions are optionally contained on a temporary computer-readable storage medium or other computer program product configured to be executed by one or more processors.

このため、アバターを作成及び編集するための、より速く、より効率的な方法及びインターフェースがデバイスに提供され、それによって、このようなデバイスの有効性、効率、及びユーザ満足度が増す。このような方法及びインターフェースは、アバターを作成及び編集する他の方法を補完するか、又は置き換えてよい。 As such, devices are provided with faster, more efficient methods and interfaces for creating and editing avatars, thereby increasing the effectiveness, efficiency, and user satisfaction of such devices. Such methods and interfaces may complement or replace other methods of creating and editing avatars.

説明される様々な実施形態を良好に理解するため、以下の図面と連携して、以下の「発明を実施するための形態」が参照されるべきである。ここで、類似の参照番号は、それらの図全体を通じて、対応する部分を指す。 For a better understanding of the various described embodiments, reference should be made to the following Detailed Description in conjunction with the following drawings. Here, like reference numerals refer to corresponding parts throughout the figures.

いくつかの実施形態に従った、タッチ感知ディスプレイを備えるポータブル多機能デバイスを示すブロック図である。1 is a block diagram illustrating a portable multifunction device with a touch sensitive display, according to some embodiments; FIG.

いくつかの実施形態に従った、イベント処理のための例示的な構成要素を示すブロック図である。FIG. 4 is a block diagram illustrating exemplary components for event processing, according to some embodiments;

いくつかの実施形態に従った、タッチスクリーンを有するポータブル多機能デバイスを示す図である。FIG. 2 illustrates a portable multifunction device having a touch screen, according to some embodiments;

いくつかの実施形態に従った、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。1 is a block diagram of an exemplary multifunction device with a display and a touch sensitive surface, according to some embodiments; FIG.

いくつかの実施形態に従った、ポータブル多機能デバイス上のアプリケーションのメニュー用の例示的なユーザインターフェースを示す図である。FIG. 4 illustrates an exemplary user interface for a menu of applications on the portable multifunction device, according to some embodiments;

いくつかの実施形態に従った、ディスプレイとは別個のタッチ感知面を備える多機能デバイスに関する、例示的なユーザインターフェースを示す。4 illustrates an exemplary user interface for a multifunction device with a touch-sensitive surface separate from the display, according to some embodiments;

いくつかの実施形態に従った、パーソナル電子デバイスを示す図である。1 illustrates a personal electronic device, according to some embodiments; FIG.

いくつかの実施形態に従った、パーソナル電子デバイスを示すブロック図である。1 is a block diagram illustrating a personal electronic device, according to some embodiments; FIG.

アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application; アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for navigating between avatars within an application;

アプリケーション内のアバター間をナビゲートする方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method of navigating between avatars within an application;

アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 11 illustrates an example user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 11 illustrates an example user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 11 illustrates an example user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。FIG. 12 illustrates an exemplary user interface displaying an avatar editing user interface;

アバター編集ユーザインターフェースを表示する方法を示すフロー図である。FIG. 10 is a flow diagram illustrating a method of displaying an avatar editing user interface;

アバター編集ユーザインターフェースを表示する方法を示すフロー図である。FIG. 10 is a flow diagram illustrating a method of displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する方法を示すフロー図である。FIG. 10 is a flow diagram illustrating a method of displaying an avatar editing user interface;

アバター編集ユーザインターフェースを表示する方法を示すフロー図である。FIG. 10 is a flow diagram illustrating a method of displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する方法を示すフロー図である。FIG. 10 is a flow diagram illustrating a method of displaying an avatar editing user interface;

アバター編集ユーザインターフェースを表示する方法を示すフロー図である。FIG. 10 is a flow diagram illustrating a method of displaying an avatar editing user interface; アバター編集ユーザインターフェースを表示する方法を示すフロー図である。FIG. 10 is a flow diagram illustrating a method of displaying an avatar editing user interface;

アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。FIG. 10 illustrates an exemplary user interface for changing avatars within the avatar navigation user interface;

アバターナビゲーションユーザインターフェース内のアバターを変更する方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method of changing avatars within an avatar navigation user interface; アバターナビゲーションユーザインターフェース内のアバターを変更する方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method of changing avatars within an avatar navigation user interface;

以下の説明では、例示的な方法、パラメータなどが記載される。しかし、そのような説明の目的は、本開示の範囲を制限することではなく、例示的な実施形態の説明を提供することであることを理解されたい。 The following description describes exemplary methods, parameters, and the like. It should be understood, however, that the purpose of such description is not to limit the scope of this disclosure, but to provide a description of exemplary embodiments.

アバターを作成及び編集する効率的な方法及びインターフェースを提供する電子デバイスが必要とされている。例えば、アバターを作成及び編集するプログラムがすでに存在しているが、これらのプログラムは、以下の技術に比べて非効率で使いにくいものであり、以下の技術では、ユーザは必要に応じて現実的又は非現実的なアバターを作成して編集することができる。このような技術によって、アバターを作成して編集するユーザの認識的負担が軽減され、それによって生産性が向上され得る。更に、そのような技術は、通常であれば冗長なユーザ入力に対して浪費される、プロセッサ及びバッテリの電力を低減することができる。 What is needed is an electronic device that provides an efficient method and interface for creating and editing avatars. For example, programs for creating and editing avatars already exist, but these programs are less efficient and more difficult to use than the techniques below, which allow users to be as realistic as needed. Or you can create and edit surreal avatars. Such techniques may reduce the cognitive burden of users creating and editing avatars, thereby increasing productivity. In addition, such techniques can reduce processor and battery power that would otherwise be wasted on redundant user input.

以下の図1A~図1B、図2、図3、図4A~図4B、及び図5A~図5Bでは、アバターを作成及び編集するための技術を実行する例示的なデバイスについて説明する。 1A-1B, 2, 3, 4A-4B, and 5A-5B below describe exemplary devices for implementing techniques for creating and editing avatars.

図6A~図6ANは、いくつかの実施形態に従って、アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示している。図7は、いくつかの実施形態に従って、アプリケーション内のアバター間をナビゲートする方法を示すフロー図である。図6A~図6ANのユーザインターフェースは、図7の処理を含む、以下で説明される処理を示すために使用される。 6A-6AN illustrate exemplary user interfaces for navigating between avatars within an application, according to some embodiments. FIG. 7 is a flow diagram illustrating a method of navigating between avatars within an application, according to some embodiments. The user interfaces of FIGS. 6A-6AN are used to illustrate the processes described below, including the process of FIG.

図8A~図8CFは、アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示している。図9A、図9B、図10A、図10B、図11A、図11B、図12A、及び図12Bは、いくつかの実施形態に従って、アバター編集ユーザインターフェースを表示する方法を示すフロー図である。図8A~図8CFのユーザインターフェースは、図9A、図9B、図10A、図10B、図11A、図11B、図12A、及び図12Bの処理を含む、以下で説明される処理を示すために使用される。 Figures 8A-8CF illustrate exemplary user interfaces displaying an avatar editing user interface. 9A, 9B, 10A, 10B, 11A, 11B, 12A, and 12B are flow diagrams illustrating methods of displaying an avatar editing user interface, according to some embodiments. The user interfaces of FIGS. 8A-8CF are used to illustrate the processes described below, including the processes of FIGS. 9A, 9B, 10A, 10B, 11A, 11B, 12A, and 12B. be done.

図13A~図13Oは、アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示している。図14A及び図14Bは、いくつかの実施形態に従って、アバターナビゲーションユーザインターフェース内のアバターを変更する方法を示すフロー図である。図13A~13Oのユーザインターフェースは、図14A及び図14Bの処理を含む、以下で説明される処理を示すために使用される。 13A-13O illustrate exemplary user interfaces for changing avatars within the avatar navigation user interface. 14A and 14B are flow diagrams illustrating methods of changing avatars within an avatar navigation user interface, according to some embodiments. The user interfaces of Figures 13A-13O are used to illustrate the processes described below, including the processes of Figures 14A and 14B.

以下の説明では、様々な要素を説明するために「第1」、「第2」などの用語が使用されるが、これらの要素はこれらの用語によって限定されるべきではない。これらの用語は、1つの要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1のタッチは第2のタッチと称することができ、同様に、第2のタッチは第1のタッチと称し得る。第1のタッチ及び第2のタッチは共にタッチであるが、同じタッチではない。 Although the following description uses the terms “first,” “second,” etc. to describe various elements, these elements should not be limited by these terms. These terms are only used to distinguish one element from another. For example, a first touch could be termed a second touch, and, similarly, a second touch could be termed a first touch, without departing from the scope of various described embodiments. The first touch and the second touch are both touches, but not the same touch.

本明細書で説明される様々な実施形態の説明で使用される用語は、特定の実施形態を説明することのみを目的とするものであって、限定することを意図するものではない。説明される様々な実施形態の説明及び添付の特許請求の範囲で使用されるように、単数形「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形もまた含むことが意図される。本明細書で使用されるように、用語「and/or(及び/又は)」は、関連する列挙された項目のうちの1つ以上の任意のすべての可能な組み合わせを指し、かつこれを含むことをもまた理解されたい。用語「includes(含んでいる)、「including(含んでいる)」、「comprises(含んでいる)」、及び/又は「comprising(含んでいる)」は、本明細書で使用されるとき、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。 The terminology used in the description of the various embodiments described herein is for the purpose of describing particular embodiments only and is not intended to be limiting. As used in the description of the various embodiments described and in the appended claims, the singular forms "a," "an," and "the" do not clearly indicate to the contrary the context To the extent possible, it is also intended to include plural forms. As used herein, the term "and/or" refers to and includes any and all possible combinations of one or more of the associated listed items It should also be understood that The terms "includes," "including," "comprises," and/or "comprising," as used herein, refer to designating the presence of a specified feature, integer, step, action, element and/or component, but not of one or more other features, integers, steps, actions, elements, components and/or groups thereof It will be further understood that the presence or addition is not excluded.

任意選択的に、用語「if(~場合に)」は、文脈に応じて「when(~のときに)」、「upon(~すると)」、「in response to determining(~という判定に応じて)」、又は「in response to detecting(~を検出したことに応じて)」を意味すると解釈される。同様に、語句「if it is determined(~と判定される場合)」又は「if(a stated condition or event)is detected((述べられる条件又はイベント)が検出される場合)」は、任意選択で、文脈に依存して「upon determining(~と判定すると)」、「in response to determining(~と判定したことに応じて)」、「upon detecting(the stated condition or event)((述べられる条件又はイベント)を検出すると)」、又は「in response to detecting(the stated condition or event)((述べられる条件又はイベント)を検出したことに応じて)」を意味するものと解釈される。 Optionally, the term "if" is changed to "when," "upon," "in response to determining," depending on the context. )”, or “in response to detecting”. Similarly, the phrases "if it is determined" or "if (a stated condition or event) is detected" can optionally be , "upon determining", "in response to determining", "upon detecting (the stated condition or event)" depending on the context or "in response to detecting (the stated condition or event)".

電子デバイス、そのようなデバイス用のユーザインターフェース及びそのようなデバイスを使用するための関連するプロセスの実施形態が説明される。一部の実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、モバイル電話機などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態には、California州CupertinoのApple Inc.のiPhone(登録商標)、iPod Touch(登録商標)及びiPad(登録商標)デバイスが挙げられるが、これらに限定されない。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたラップトップ又はタブレットコンピュータなどの他のポータブル電子デバイスも、任意選択的に、使用される。いくつかの実施形態では、デバイスがポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたデスクトップコンピュータであることもまた理解されたい。 Embodiments of electronic devices, user interfaces for such devices, and associated processes for using such devices are described. In some embodiments, the device is a portable communication device such as a mobile phone that also includes PDA functionality and/or other functionality such as music player functionality. Exemplary embodiments of portable multifunction devices include Apple Inc. of Cupertino, Calif.; iPhone(R), iPod Touch(R) and iPad(R) devices. Other portable electronic devices such as laptops or tablet computers with touch-sensitive surfaces (eg, touch screen displays and/or touch pads) are also optionally used. It should also be appreciated that in some embodiments the device is not a portable communication device, but a desktop computer with a touch-sensitive surface (eg, touchscreen display and/or touchpad).

以下の議論では、ディスプレイ及びタッチ感知面を含む電子デバイスが説明される。しかし、電子デバイスが物理キーボード、マウス及び/又はジョイスティックなどの、1つ以上の他の物理ユーザインターフェースデバイスを任意選択的に含むことを理解されたい。 In the discussion that follows, electronic devices that include displays and touch-sensitive surfaces are described. However, it should be understood that the electronic device optionally includes one or more other physical user interface devices such as physical keyboards, mice and/or joysticks.

このデバイスは、一般的に、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。 The device is commonly used in drawing applications, presentation applications, word processing applications, website creation applications, disc authoring applications, spreadsheet applications, gaming applications, telephony applications, video conferencing applications, e-mail applications, instant messaging applications, training It supports various applications such as one or more of a support application, a photo management application, a digital camera application, a digital video camera application, a web browsing application, a digital music player application and/or a digital video player application.

本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインターフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調節及び/又は変更される。このように、デバイスの共通の(タッチ感知面などの)物理アーキテクチャは、ユーザにとって直観的かつ透過的なユーザインターフェースを備える様々なアプリケーションを、任意選択的にサポートする。 Various applications running on the device optionally use at least one common physical user interface device, such as a touch-sensitive surface. One or more functions of the touch-sensitive surface and corresponding information displayed on the device are optionally adjusted and/or changed from application to application and/or within each application. In this way, the common physical architecture (such as the touch-sensitive surface) of the device optionally supports a variety of applications with user interfaces that are intuitive and transparent to the user.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、一部の実施形態による、タッチ感知ディスプレイシステム112を備えるポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれる場合があり、「タッチ感知ディスプレイシステム」として既知であるか又は呼ばれる場合もある。デバイス100は、(1つ以上のコンピュータ可読記憶媒体を任意選択的に含む)メモリ102、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インターフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(input/output、I/O)サブシステム106、他の入力制御デバイス116及び外部ポート124を含む。デバイス100は、1つ以上の光センサ164を任意選択的に含む。デバイス100は、デバイス100(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出するための、1つ以上の接触強度センサ165を任意選択的に含む。デバイス100は、デバイス100上に触知出力を生成する(例えば、デバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などの、タッチ感知面上に触知出力を生成する)ための、1つ以上の触知出力生成器167を、任意選択的に含む。これらの構成要素は、1つ以上の通信バス又は信号ライン103を介して任意選択的に通信する。 Attention is now directed to embodiments of portable devices with touch-sensitive displays. FIG. 1A is a block diagram illustrating portable multifunction device 100 with touch-sensitive display system 112, according to some embodiments. The touch-sensitive display 112 is sometimes referred to as a "touch screen" for convenience, and is sometimes known or referred to as a "touch-sensitive display system." Device 100 includes memory 102 (optionally including one or more computer-readable storage media), memory controller 122, one or more processing units (CPUs) 120, peripherals interface 118, RF circuitry 108, audio circuitry 110, , speaker 111 , microphone 113 , input/output (I/O) subsystem 106 , other input control devices 116 and external ports 124 . Device 100 optionally includes one or more photosensors 164 . Device 100 optionally includes one or more contact intensity sensors 165 for detecting the intensity of contact on device 100 (eg, a touch-sensitive surface such as touch-sensitive display system 112 of device 100). device 100 to generate tactile output on device 100 (e.g., on a touch-sensitive surface such as touch-sensitive display system 112 of device 100 or touch pad 355 of device 300); One or more tactile output generators 167 are optionally included. These components optionally communicate via one or more communication buses or signal lines 103 .

本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指接触)の力若しくは圧力(単位面積当りの力)、又はタッチ感知面上の接触の力若しくは圧力の代替物(代用物)を指す。接触の強度は、少なくとも4つの異なる値を含み、より典型的には、何百もの(例えば、少なくとも256個の)異なる値を含む値範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して判定(又は、測定)される。例えば、タッチ感知面の下に又はこれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々な点における力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値は、接触の力の推定値を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触領域のサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化が、タッチ感知面上の接触の力又は圧力の代替物として、任意選択的に使用される。いくつかの実装形態では、接触の力又は圧力に対する代替的測定値は、強度閾値を超えているかを判定するために直接使用される(例えば、強度閾値は、代替的測定値に対応する単位で説明される)。いくつかの実装形態では、接触の力又は圧力に対する代替的測定値は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超えているかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。接触の強度をユーザ入力の属性として使用することによって、アフォーダンスを表示するための(例えば、タッチ感知ディスプレイ上で)、及び/又は、ユーザ入力を受信するための(例えば、タッチ感知ディスプレイ、タッチ感知面、又はノブ若しくはボタンなどの物理的/機械的制御部を介して)、面積が制限されている、低減されたサイズのデバイス上で別途ユーザによってアクセスすることができないことがある追加的なデバイス機能へのユーザのアクセスが可能となる。 As used herein and in the claims, the term "strength" of contact on the touch-sensitive surface refers to the force or pressure (force per unit area) of contact (e.g., finger contact) on the touch-sensitive surface. ), or a substitute for contact force or pressure on a touch-sensitive surface. The intensity of contact has a value range that includes at least four different values, and more typically includes hundreds (eg, at least 256) different values. The strength of contact is optionally determined (or measured) using various techniques and various sensors or combinations of sensors. For example, one or more force sensors under or adjacent to the touch-sensitive surface are optionally used to measure force at various points on the touch-sensitive surface. In some implementations, force measurements from multiple force sensors are combined (eg, a weighted average) to determine a contact force estimate. Similarly, the stylus' pressure-sensitive tip is optionally used to determine the pressure of the stylus on the touch-sensitive surface. Alternatively, the size and/or changes in the contact area detected on the touch-sensitive surface, the capacitance and/or changes in the touch-sensitive surface proximate to the contact, and/or the resistance and/or changes in the touch-sensitive surface proximate to the contact. /or variations thereof are optionally used as a substitute for contact force or pressure on the touch-sensitive surface. In some implementations, the alternative measure for contact force or pressure is used directly to determine whether an intensity threshold has been exceeded (e.g., the intensity threshold is in units corresponding to the alternative measure). explained). In some implementations, the alternative measurement for contact force or pressure is converted to an estimated force or pressure, and the estimated force or pressure is used to determine if the intensity threshold is exceeded. (eg, the intensity threshold is the pressure threshold measured in units of pressure). for displaying affordances (e.g., on touch-sensitive displays) and/or for receiving user input (e.g., touch-sensitive displays, touch-sensitive Additional devices that may not otherwise be accessible by the user on a reduced size device that has a limited area (via physical/mechanical controls such as faces or knobs or buttons). User access to functionality is enabled.

本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの前の位置に対するデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)のデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又はデバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素がタッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況において、物理的変位によって生成された触知出力は、デバイス又はデバイスの構成要素の物理的特性における認識された変化に相当する触感として、ユーザによって解釈される。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、任意選択的に、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として解釈される。いくつかの場合、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の実施例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。よって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」、「ダウンクリック」、「粗さ」)に対応するものとして説明されるとき、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの説明された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。 As used herein and in the claims, the term "tactile output" refers to the physical displacement of the device relative to its previous position, the configuration of the device, to be detected by the user in the user's sense of touch. Refers to the physical displacement of an element (eg, touch-sensitive surface) relative to another component of a device (eg, housing), or the displacement of a component relative to the device's center of mass. Tactile output produced by physical displacement, e.g., in situations where a device or device component is in contact with a touch-sensitive surface of a user (e.g., a finger, palm, or other portion of a user's hand) is interpreted by the user as a tactile sensation corresponding to a perceived change in the physical properties of the device or device component. For example, movement of a touch-sensitive surface (eg, a touch-sensitive display or trackpad) is optionally interpreted by the user as a "down-click" or "up-click" of a physical actuator button. In some cases, a user can "down-click" or "up-click" even when there is no movement of the physical actuator button associated with the touch-sensitive surface that is physically pressed (e.g., displaced) by the user's motion. ” and other tactile sensations. As another example, movement of the touch-sensitive surface is optionally interpreted or perceived by the user as "roughness" of the touch-sensitive surface, even if there is no change in the smoothness of the touch-sensitive surface. be done. Such a user's interpretation of touch depends on the user's personal sensory perception, but there are many sensory perceptions of touch that are common to the majority of users. Thus, when a tactile output is described as corresponding to a particular sensory perception of a user (e.g., "up-click", "down-click", "roughness"), the generated Tactile output corresponds to physical displacement of the device, or components of the device, that produce the described sensory perception of a typical (or average) user.

デバイス100は、ポータブル多機能デバイスの一実施例に過ぎず、デバイス100は、示されているものよりも多くの構成要素又は少ない構成要素を任意選択的に有し、2つ以上の構成要素を任意選択的に組み合わせて、又は構成要素の異なる構成若しくは配置を任意選択的に有することを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア又はハードウェア及びソフトウェアの双方の組み合わせで実装される。 Device 100 is but one example of a portable multifunction device, and device 100 optionally has more or fewer components than those shown and may include two or more components. It should be understood to optionally have combinations or different configurations or arrangements of components. The various components shown in FIG. 1A are implemented in hardware, software, or a combination of both hardware and software, including one or more signal processing circuits and/or application specific integrated circuits.

メモリ102は、高速ランダムアクセスメモリを任意選択的に含み、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリもまた任意選択的に含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。 Memory 102 optionally includes high speed random access memory and optionally also non-volatile memory such as one or more magnetic disk storage devices, flash memory devices or other non-volatile solid state memory devices. Memory controller 122 optionally controls access to memory 102 by other components of device 100 .

周辺機器インターフェース118を使用して、本デバイスの入力及び出力周辺機器を、CPU120及びメモリ102に接続することができる。1つ以上のプロセッサ120は、デバイス100のための様々な機能を実行するため並びにデータを処理するために、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる、又は実行する。いくつかの実施形態では、周辺機器インターフェース118、CPU120及びメモリコントローラ122は、チップ104などの単一チップ上に任意選択的に実装される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。 Peripheral interface 118 may be used to connect input and output peripherals of the device to CPU 120 and memory 102 . One or more processors 120 operate or execute various software programs and/or instruction sets stored in memory 102 to perform various functions for device 100 and to process data. . In some embodiments, peripheral interface 118 , CPU 120 and memory controller 122 are optionally implemented on a single chip, such as chip 104 . In some other embodiments, they are optionally implemented on separate chips.

RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、これらの機能を実行するための周知の回路を任意選択的に含み、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、メモリなどが挙げられるが、これらに限定されない。RF回路108は任意選択で、ワールドワイドウェブ(World Wide Web、WWW)とも称されるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、他のデバイスと無線通信によって通信する。RF回路108は、近距離通信無線などによる近距離通信(NFC)(near field communication)フィールドを検出するための周知の回路を任意選択的に含む。無線通信は、複数の通信規格、通信プロトコル、及び通信技術のうちのいずれかを、任意選択的に使用し、それらの通信規格、通信プロトコル、及び通信技術としては、移動通信用のグローバルシステム(Global System for Mobile Communications、GSM(登録商標))、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケット接続(high-speed downlink packet access、HSDPA)、高速アップリンクパケット接続(high-speed uplink packet access、HSUPA)、Evolution,Data-Only(EV-DO)、HSPA、HSPA+、2重セルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離無線通信(near field communication、NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetooth Low Energy(BTLE)、Wireless Fidelity(Wi-Fi)(登録商標)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/又はIEEE 802.11ac)、ボイスオーバーインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX、電子メール用のプロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/又はポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能メッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンス利用拡張向けセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、及び/又はショートメッセージサービス(Short Message Service、SMS)、あるいは本文書の出願日現在までにまだ開発されていない通信プロトコルを含めた任意の他の好適な通信プロトコルが挙げられるが、これらに限定されない。 RF (radio frequency) circuitry 108 transmits and receives RF signals, also called electromagnetic signals. RF circuitry 108 converts electrical signals to electromagnetic signals or vice versa to communicate with communication networks and other communication devices via electromagnetic signals. RF circuitry 108 optionally includes well-known circuits for performing these functions, including an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, a CODEC. Chipsets, Subscriber Identity Module (SIM) cards, memory, etc. include, but are not limited to. The RF circuit 108 is optionally connected to the Internet, also referred to as the World Wide Web (WWW), an intranet, and/or a cellular telephone network, a wireless local area network (LAN), and/or a metropolitan area network. (metropolitan area network, MAN) and other devices via wireless communication. RF circuitry 108 optionally includes well-known circuitry for detecting a near field communication (NFC) field, such as by a near field communication radio. Wireless communication optionally uses any of a number of communication standards, protocols and technologies, including the Global System for Mobile Communications ( Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high-speed downlink packet access (HSDPA), high-speed uplink packet access (HSDPA) speed uplink packet access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA+, Dual-Cell HSPA (Dual-Cell HSPA, DC-HSPDA), Long term evolution (LTE), Near near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access , TDMA), Bluetooth®, Bluetooth Low Energy (BTLE), Wireless Fidelity (Wi-Fi)® (e.g., IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, IEEE 802.11n , and/or IEEE 802.11ac), voice over Internet Protocol (VoIP), Wi-MAX, protocols for email (e.g., Internet message access protocol (IMAP) and/or post office protocol (POP)), instant messaging (e.g., extensible messaging and presence protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS)), and/or Short Message Service (SMS), or not yet developed as of the filing date of this document. Any other suitable communication protocol including, but not limited to, non-compliant communication protocols.

オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインターフェースを提供する。オーディオ回路110は、周辺機器インターフェース118からオーディオデータを受信し、そのオーディオデータを電気信号に変換し、その電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。オーディオ回路110はまた、マイクロフォン113により音波から変換された電気信号を受信する。オーディオ回路110は、電気信号を音声データに変換し、音声データを処理のために周辺機器インターフェース118に送信する。音声データは任意選択で、周辺機器インターフェース118によって、メモリ102及び/若しくはRF回路108から取得され、並びに/又はメモリ102及び/若しくはRF回路108へ送信される。一部の実施形態では、オーディオ回路110はヘッドセットジャック(例えば、図2の212)を更に備える。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば、片耳又は両耳用のヘッドホン)及び入力(例えば、マイクロフォン)の双方を有するヘッドセットなどの、取り外し可能なオーディオ入出力周辺機器と、の間のインターフェースを提供する。 Audio circuitry 110 , speaker 111 , and microphone 113 provide an audio interface between the user and device 100 . Audio circuitry 110 receives audio data from peripherals interface 118 , converts the audio data to electrical signals, and transmits the electrical signals to speaker 111 . The speaker 111 converts the electrical signal into human audible sound waves. Audio circuitry 110 also receives electrical signals converted from sound waves by microphone 113 . Audio circuitry 110 converts the electrical signals to audio data and transmits the audio data to peripherals interface 118 for processing. Audio data is optionally retrieved from memory 102 and/or RF circuitry 108 and/or transmitted to memory 102 and/or RF circuitry 108 by peripherals interface 118 . In some embodiments, audio circuitry 110 further comprises a headset jack (eg, 212 in FIG. 2). The headset jack connects audio circuitry 110 and detachable audio input/output peripherals, such as output-only headphones or headsets that have both an output (e.g., monaural or binaural headphones) and an input (e.g., a microphone). provides an interface between

I/Oサブシステム106は、周辺機器インターフェース118に、タッチスクリーン112及び他の入力制御デバイス116などのデバイス100の入出力周辺機器を結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力若しくは制御デバイスのための1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、電気信号を、他の入力制御デバイス116から受信/他の入力制御デバイス116に送信する。他の入力制御デバイス116は、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイアル、スライダースイッチ、ジョイスティック、クリックホイールなどを任意選択的に含む。いくつかの代替的実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに連結される(又は、いずれにも連結されない)。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロフォン113の音量調節のためのアップ/ダウンボタンを任意選択的に含む。1つ以上のボタンは、プッシュボタン(例えば、図2の206)を任意選択的に含む。 I/O subsystem 106 couples input/output peripherals of device 100 , such as touch screen 112 and other input control devices 116 , to peripherals interface 118 . I/O subsystem 106 optionally includes one or more input controllers 160 for display controller 156, light sensor controller 158, intensity sensor controller 159, tactile feedback controller 161, and other input or control devices. include. One or more input controllers 160 receive/send electrical signals from/to other input control devices 116 . Other input control devices 116 optionally include physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, and the like. In some alternative embodiments, input controller(s) 160 is optionally coupled to any of a keyboard, an infrared port, a USB port, and a pointer device such as a mouse (or not connected to either). One or more buttons (eg, 208 in FIG. 2) optionally include up/down buttons for volume control of speaker 111 and/or microphone 113 . The one or more buttons optionally include push buttons (eg, 206 in FIG. 2).

2005年12月23日に出願された、米国特許第7,657,849号である米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」(この特許は、その全体が本明細書において参照により組み込まれる)に記載されているように、任意選択的に、プッシュボタンの素早い押圧により、タッチスクリーン112のロックを解除するか、又はデバイスのロック解除にタッチスクリーン上のジェスチャを用いる処理を任意選択的に開始する。プッシュボタン(例えば、206)をより長く押圧することにより、任意選択的にデバイス100の電源をオンオフする。ボタンのうちの1つ以上の機能は、任意選択的に、ユーザカスタマイズ可能である。タッチスクリーン112は、仮想ボタン又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。 U.S. patent application Ser. No. 11/322,549, "Unlocking a Device by Performing Gestures on an Unlock Image," filed Dec. 23, 2005, U.S. Pat. No. 7,657,849; Optionally, a quick press of a push button unlocks the touchscreen 112 or unlocks the device to unlock the touchscreen, as described in the entirety of which is incorporated herein by reference. Optionally initiate a process using the above gesture. A longer press on the push button (eg, 206) optionally powers the device 100 on and off. The functionality of one or more of the buttons is optionally user customizable. Touch screen 112 is used to implement virtual buttons or soft buttons and one or more soft keyboards.

タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インターフェース及び出力インターフェースを提供する。ディスプレイコントローラ156は、電気信号を、タッチスクリーン112から受信かつ/又はタッチスクリーン112に送信する。タッチスクリーン112は、ユーザに視覚出力を表示する。視覚出力は、グラフィック、テキスト、アイコン、ビデオ及びこれらの任意の組み合わせ(総称して「グラフィック」と称する)を任意選択的に含む。一部の実施形態では、任意選択的に、視覚出力の一部又はすべてはユーザインターフェースオブジェクトに対応する。 Touch-sensitive display 112 provides an input and output interface between the device and the user. Display controller 156 receives and/or sends electrical signals to touchscreen 112 . Touch screen 112 displays visual output to the user. Visual output optionally includes graphics, text, icons, video, and any combination thereof (collectively referred to as "graphics"). In some embodiments, optionally some or all of the visual output corresponds to user interface objects.

タッチスクリーン112は、触覚及び/又は触感の接触に基づくユーザからの入力を受け付けるタッチ感知面、センサ、若しくはセンサのセットを有している。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)、タッチスクリーン112上で接触(及び任意の接触の移動又は中断)を検出し、その検出された接触をタッチスクリーン112上に表示されたユーザインターフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)との対話に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。 Touch screen 112 has a touch-sensitive surface, sensor, or set of sensors that accepts input from a user based on tactile and/or tactile contact. Touchscreen 112 and display controller 156 (together with any associated modules and/or instruction sets in memory 102) detect contact (and any movement or interruption of contact) on touchscreen 112 and into interactions with user interface objects (eg, one or more softkeys, icons, web pages, or images) displayed on touch screen 112 . In an exemplary embodiment, the contact point between touch screen 112 and the user corresponds to the user's finger.

タッチスクリーン112は任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術が使用される。タッチスクリーン112及びディスプレイコントローラ156は、静電容量技術、抵抗性技術、赤外線技術、及び表面超音波技術、並びに、タッチスクリーン112との1つ以上の接触点を判定するための他の近接センサアレイ又は他の要素を含むが、これらに限定されない、現在公知の若しくは後日に開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及び任意の移動又はその中断を、任意選択的に検出する。例示的な実施形態では、California州CupertinoのApple Inc.によるiPhone(登録商標)及びiPod Touch(登録商標)において見られるような、投影型相互静電容量感知技術が使用されている。 The touch screen 112 optionally uses LCD (Liquid Crystal Display) technology, LPD (Light Emitting Polymer Display) technology or LED (Light Emitting Diode) technology, although in other embodiments other display technologies are used. Touchscreen 112 and display controller 156 use capacitive, resistive, infrared, and surface ultrasonic technologies, as well as other proximity sensor arrays for determining one or more points of contact with touchscreen 112. or other elements, optionally detecting contact and any movement or interruption thereof using any of a number of now-known or later-developed touch-sensing technologies. to detect. In an exemplary embodiment, Apple Inc. of Cupertino, Calif. Projected mutual-capacitance sensing technology is used, as seen in the iPhone(R) and iPod Touch(R) by Co., Ltd.

タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、任意選択的に、以下の米国特許、第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/又は第6,677,932号(Westerman)、及び/又は米国特許出願公開第2002/0015024(A1)号に記載されているマルチタッチ感知タッチパッドに類似する。これらの文献は、それぞれその全体が本明細書において参照により組み込まれている。しかし、タッチスクリーン112は、デバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは、視覚出力を提供しない。 The touch-sensitive display in some embodiments of the touch screen 112 optionally includes the following U.S. Pat. /or similar to the multi-touch sensing touchpads described in Westerman 6,677,932 and/or US Patent Application Publication No. 2002/0015024A1. Each of these documents is incorporated herein by reference in its entirety. However, the touchscreen 112 displays visual output from the device 100, whereas the touch-sensitive touchpad does not provide visual output.

タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、以下の出願で説明されている。(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の同第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の同第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の同第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の同第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の同第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の同第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の同第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の同第11/367,749号、「Multi-Functional Hand-Held Device」。これらの出願のすべては、全体が参照により本明細書に組み込まれる。 Touch sensitive displays in some embodiments of touch screen 112 are described in the following applications. (1) U.S. Patent Application Serial No. 11/381,313, filed May 2, 2006, entitled "Multipoint Touch Surface Controller"; Multipoint Touchscreen," (3) 10/903,964, filed Jul. 30, 2004; "Gestures For Touch Sensitive Input Devices," (4) 11/048, filed Jan. 31, 2005, 264, "Gestures For Touch Sensitive Input Devices," (5) Serial No. 11/038,590, filed Jan. 18, 2005, "Mode-Based Graphical User Interfaces For Touch Sensitive Input De vices”, (6) 2005 11/228,758, filed September 16, 2005, "Virtual Input Device Placement On A Touch Screen User Interface," (7) 11/228,700, filed September 16, 2005, " Operation Of A Computer With A Touch Screen Interface," (8) Serial No. 11/228,737, filed September 16, 2005, "Activating Virtual Keys Of A Touch-Screen Virtual Keyboard." , and (9) 2006 Serial No. 11/367,749, filed March 3, "Multi-Functional Hand-Held Device." All of these applications are incorporated herein by reference in their entireties.

タッチスクリーン112は、任意選択的に、100dpiを超える映像解像度を有する。一部の実施形態では、タッチスクリーンは約160dpiのビデオ解像度を有する。ユーザは、スタイラス、指などの任意の好適な物体又は付属器を使用して、タッチスクリーン112と任意選択的に接触する。一部の実施形態では、ユーザインターフェースは、主として指に基づく接触及びジェスチャによって機能するように設計され、タッチスクリーン上の指の接触面積がより広いことにより、スタイラスに基づく入力よりも精度が低いことがある。一部の実施形態では、デバイスは、指に基づく粗い入力を正確なポインタ/カーソル位置又はユーザの望むアクションを実行するためのコマンドに変換する。 Touch screen 112 optionally has a video resolution greater than 100 dpi. In some embodiments, the touch screen has a video resolution of approximately 160 dpi. A user optionally contacts touchscreen 112 using any suitable object or accessory, such as a stylus, finger, or the like. In some embodiments, the user interface is designed to work primarily with finger-based contacts and gestures, and the larger finger contact area on the touchscreen results in less precision than stylus-based input. There is In some embodiments, the device converts coarse finger-based input into precise pointer/cursor positions or commands to perform user-desired actions.

いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを任意選択的に含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面又はタッチスクリーンによって形成されたタッチ感知面の拡張部である。 In some embodiments, in addition to the touchscreen, device 100 optionally includes a touchpad for activating or deactivating certain functions. In some embodiments, a touchpad is a touch-sensitive area of a device that displays no visual output, unlike a touchscreen. The touchpad is optionally a touch-sensitive surface separate from the touchscreen 112 or an extension of the touch-sensitive surface formed by the touchscreen.

デバイス100はまた、様々な構成要素に電力を供給するための電力システム162を含む。電力システム162は任意選択で、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配と関連付けられた任意の他の構成要素を含む。 Device 100 also includes a power system 162 for powering the various components. Power system 162 optionally includes a power management system, one or more power sources (e.g., batteries, alternating current (AC)), a recharging system, power failure detection circuitry, a power converter or inverter, power status indicators (e.g., light emitting diodes ( LEDs)), and any other components associated with the generation, management, and distribution of power within a portable device.

デバイス100はまた任意選択で、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に接続された光センサを示す。光センサ164は、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを、任意選択的に含む。光センサ164は、1つ以上のレンズを通して投影された、環境からの光を受光し、その光を、画像を表現するデータに変換する。撮像モジュール143(カメラモジュールとも称する)と併用して、光センサ164は、静止画像又はビデオを任意選択的にキャプチャする。一部の実施形態では、タッチスクリーンディスプレイを静止画像及び/又は映像取得のためのビューファインダとして有効化するように、光センサは、デバイスの前面のタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。一部の実施形態では、任意選択的に、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ながら、そのユーザの画像をテレビ会議のために得るように、デバイスの前面に光センサが配置されている。一部の実施形態では、光センサ164の位置は、ユーザによって(例えば、デバイス筐体内のレンズ及びセンサを回転させることによって)変更することができ、それにより、テレビ会議並びに静止画像及び/又はビデオ画像の取得の双方のために、単一の光センサ164を、タッチスクリーンディスプレイと共に使用する。 Device 100 also optionally includes one or more photosensors 164 . FIG. 1A shows a photosensor connected to photosensor controller 158 in I/O subsystem 106 . Optical sensor 164 optionally includes a charge-coupled device (CCD) or complementary metal-oxide semiconductor (CMOS) phototransistor. Optical sensor 164 receives light from the environment projected through one or more lenses and converts the light into data representing an image. In conjunction with imaging module 143 (also referred to as a camera module), optical sensor 164 optionally captures still images or video. In some embodiments, the optical sensor is opposite the touchscreen display 112 on the front of the device 100 to enable the touchscreen display as a viewfinder for still image and/or video capture. is placed on the back of the In some embodiments, there is optionally a light sensor on the front of the device so that the user can see other videoconference participants on the touchscreen display while obtaining an image of the user for the videoconference. are placed. In some embodiments, the position of optical sensor 164 can be changed by the user (eg, by rotating the lens and sensor within the device housing), thereby enabling teleconferencing and still and/or video A single photosensor 164 is used in conjunction with the touch screen display for both image acquisition.

デバイス100はまた、1つ以上の深度カメラセンサ175を任意選択的に含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された、深度カメラセンサを示す。深度カメラセンサ175は、データを環境から受信して、視点(例えば、深度カメラセンサ)からのシーン内のオブジェクト(例えば、顔)の三次元モデルを作成する。いくつかの実施形態では、撮像モジュール143(カメラモジュールとも呼ばれる)と共に、深度カメラセンサ175が任意選択的に使用されて、撮像モジュール143によってキャプチャされた画像の様々な部分の深度マップを決定する。いくつかの実施形態では、深度カメラセンサがデバイス100の前面に配置されており、それによって、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ながら、深度マップデータを含む自撮り画像をキャプチャするために、深度情報を含むユーザの画像がテレビ会議のために任意選択的に取得されるようにする。いくつかの実施形態では、深度カメラセンサ175は、デバイスの背面、又はデバイス100の背面及び前面に配置される。いくつかの実施形態では、深度カメラセンサ175の位置を、ユーザによって(例えば、デバイス筐体内のレンズ及びセンサを回転させることによって)変更することができ、それによって、テレビ会議並びに静止画像及び/又はビデオ画像の取得の両方のために、深度カメラセンサ175が、タッチスクリーンディスプレイと共に使用されるようにする。 Device 100 also optionally includes one or more depth camera sensors 175 . FIG. 1A shows a depth camera sensor coupled to depth camera controller 169 within I/O subsystem 106 . Depth camera sensor 175 receives data from the environment and creates a three-dimensional model of an object (eg, face) in the scene from a viewpoint (eg, depth camera sensor). In some embodiments, a depth camera sensor 175 is optionally used in conjunction with the imaging module 143 (also referred to as a camera module) to determine depth maps of various portions of the image captured by the imaging module 143. In some embodiments, a depth camera sensor is placed on the front of the device 100 so that the user can view selfie images containing depth map data while viewing other videoconference participants on a touch screen display. For capture, images of the user, including depth information, are optionally acquired for videoconferencing. In some embodiments, depth camera sensor 175 is placed on the back of the device, or on the back and front of device 100 . In some embodiments, the position of the depth camera sensor 175 can be changed by the user (e.g., by rotating the lens and sensor within the device housing), thereby enabling teleconferencing and still images and/or For both video image acquisition, the depth camera sensor 175 will be used in conjunction with the touch screen display.

いくつかの実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ、光センサ、深度カメラセンサ)からのシーン内のオブジェクトの距離に関連する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、対応する二次元ピクセルが配置されている視点のZ軸での位置を定義する。いくつかの実施形態では、深度マップは、各ピクセルが値(例えば、0~255)によって定義されているピクセルから成る。例えば、「0」の値は、「三次元」シーン内の最も遠い場所に配置されているピクセルを表し、「255」の値は、「三次元」シーン内の視点(例えば、カメラ、光センサ、深度カメラセンサ)の最も近くに配置されているピクセルを表す。他の実施形態では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。いくつかの実施形態では、深度マップは、深度カメラの視野内の対象のオブジェクトの様々な特徴の相対的な深さ(例えば、ユーザの顔の目、鼻、口、耳の相対的な深さ)に関する情報を含む。いくつかの実施形態では、深度マップは、デバイスがZ方向での対象のオブジェクトの輪郭を決定できるようにする情報を含む。 In some embodiments, a depth map (e.g., depth map image) includes information (e.g., values) related to the distance of objects in a scene from a viewpoint (e.g., camera, light sensor, depth camera sensor) . In one embodiment of the depth map, each depth pixel defines the Z-axis position of the viewpoint at which the corresponding two-dimensional pixel is located. In some embodiments, the depth map consists of pixels where each pixel is defined by a value (eg, 0-255). For example, a value of '0' represents the farthest located pixel in the '3D' scene, and a value of '255' represents the point of view (e.g., camera, light sensor) in the '3D' scene. , the pixel located closest to the depth camera sensor). In other embodiments, the depth map represents the distance between objects in the scene and the plane of the viewpoint. In some embodiments, the depth map is a representation of the relative depths of various features of the object of interest within the field of view of the depth camera (e.g., the relative depths of the eyes, nose, mouth, ears on the user's face). ). In some embodiments, the depth map contains information that allows the device to determine the contour of the object of interest in the Z direction.

デバイス100はまた、1つ以上の接触強度センサ165を任意選択的に含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された、接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に含む。接触強度センサ165は、周辺環境から接触強度情報(例えば、圧力情報又は圧力情報の代用物)を受信する。一部の実施形態において、少なくとも1つの接触強度センサが、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又は、それに近接している。いくつかの実施形態では、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 also optionally includes one or more contact intensity sensors 165 . FIG. 1A shows a contact intensity sensor coupled to intensity sensor controller 159 within I/O subsystem 106 . Contact intensity sensor 165 may include one or more piezoresistive strain gauges, capacitive force sensors, electrical force sensors, piezoelectric force sensors, optical force sensors, capacitive touch-sensitive surfaces, or other intensity sensors (e.g., on the touch-sensitive surface). optionally a sensor used to measure the force (or pressure) of the contact. Contact intensity sensor 165 receives contact intensity information (eg, pressure information or a proxy for pressure information) from the surrounding environment. In some embodiments, at least one contact intensity sensor is located on or in close proximity to the touch-sensitive surface (eg, touch-sensitive display system 112). In some embodiments, at least one contact intensity sensor is located on the back side of device 100 , opposite touch screen display 112 located on the front side of device 100 .

デバイス100はまた、1つ以上の近接センサ166を任意選択的に含む。図1Aは、周辺機器インターフェース118と結合された近接センサ166を示す。あるいは、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に接続される。近接センサ166は、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、同第11/240,788号、「Proximity Detector In Handheld Device」、同第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、同第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されているように、任意選択的に実行し、これらは、その全体が参照によって本明細書に組み込まれている。一部の実施形態において、多機能デバイスがユーザの耳の近くに配置されている場合(例えば、ユーザが電話通話を行っている場合)、近接センサは、タッチスクリーン112をオフにし無効にする。 Device 100 also optionally includes one or more proximity sensors 166 . FIG. 1A shows proximity sensor 166 coupled with peripherals interface 118 . Alternatively, proximity sensor 166 is optionally connected to input controller 160 within I/O subsystem 106 . Proximity sensor 166 is described in U.S. patent application Ser. "Using Ambient Light Sensor To Augment Proximity Sensor Output", ibid. 11/586,862; "Automated Response To And Sensing Of User Activity In Portable Devices"; and 11/638,251, "Methods And Systems For Automatic Configuration Of Peripherals”, which are incorporated herein by reference in their entirety. In some embodiments, the proximity sensor turns off and disables the touchscreen 112 when the multifunction device is placed near the user's ear (eg, when the user is making a phone call).

デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に連結された触知出力生成器を示す。触知出力生成器167は、スピーカ又は他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などの、エネルギを直線運動に変換する電気機械デバイスを、任意選択的に含む。接触強度センサ165は、触覚フィードバックモジュール133から触覚フィードバック生成命令を受信し、デバイス100のユーザが感知できる触知出力をデバイス100上で生成する。一部の実施形態において、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は横方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。一部の実施形態において、少なくとも1つの触知出力生成器センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 also optionally includes one or more tactile output generators 167 . FIG. 1A shows a tactile output generator coupled to haptic feedback controller 161 within I/O subsystem 106 . Tactile output generator 167 may be one or more electroacoustic devices such as speakers or other audio components and/or motors, solenoids, electroactive polymers, piezoelectric actuators, electrostatic actuators or other tactile output generating configurations. Optionally includes an electromechanical device that converts energy into linear motion, such as an element (eg, a component that converts an electrical signal to a tactile output on the device). Contact intensity sensor 165 receives haptic feedback generation instructions from haptic feedback module 133 and generates a tactile output on device 100 that can be sensed by a user of device 100 . In some embodiments, at least one tactile output generator is located on or proximate to a touch-sensitive surface (eg, touch-sensitive display system 112) and optionally , vertically (eg, into/out of the surface of device 100) or laterally (eg, back and forth in the same plane as the surface of device 100) to generate tactile output. In some embodiments, at least one tactile output generator sensor is located on the back of device 100 , opposite touch screen display 112 located on the front of device 100 .

デバイス100はまた、1つ以上の加速度計168を任意選択的に含む。図1Aは、周辺機器インターフェース118に結合された加速度計168を示す。あるいは、加速度計168は、I/Oサブシステム106内の入力コントローラ160に任意選択的に結合される。加速度計168は、任意選択的に、米国特許出願公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び同第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」で説明されるように機能するものであり、これらの文献の双方は、全体が参照により本明細書に組み込まれる。一部の実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、縦長表示又は横長表示でタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の位置及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。 Device 100 also optionally includes one or more accelerometers 168 . FIG. 1A shows accelerometer 168 coupled to peripherals interface 118 . Alternatively, accelerometer 168 is optionally coupled to input controller 160 within I/O subsystem 106 . Accelerometer 168 is optionally disclosed in U.S. Patent Application Publication No. 20050190059, "Acceleration-based Theft Detection System for Portable Electronic Devices," and U.S. Patent Application Publication No. 20060017692, "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer , both of which are incorporated herein by reference in their entireties. In some embodiments, information is displayed on the touch screen display in portrait or landscape orientation based on analysis of data received from one or more accelerometers. In addition to accelerometer(s) 168, device 100 includes a magnetometer and a GPS (or GLONASS or other global navigation system) for obtaining information about the position and orientation (e.g., longitudinal or lateral) of device 100. system) optionally includes a receiver.

いくつかの実施形態では、メモリ102に記憶されたソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System)(GPS)モジュール(又は命令セット)135及びアプリケーション(又は命令セット)136を含む。更に、一部の実施形態において、図1A及び図3に示すように、メモリ102(図1A)又はメモリ370(図3)は、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、以下の1つ以上を含む:現在アクティブ状態のアプリケーションがある場合、どのアプリケーションがアクティブかを示す、アクティブアプリケーション状態、どのアプリケーション、ビュー又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占領しているかを示す、表示状態、デバイスの様々なセンサ及び入力制御デバイス116から取得される情報を含む、センサ状態、並びに、デバイスの位置及び/又は姿勢に関する位置情報。 In some embodiments, the software components stored in memory 102 include operating system 126, communication module (or instruction set) 128, touch/motion module (or instruction set) 130, graphics module (or instruction set) 132, , a text input module (or instruction set) 134 , a Global Positioning System (GPS) module (or instruction set) 135 and an application (or instruction set) 136 . Additionally, in some embodiments, memory 102 (FIG. 1A) or memory 370 (FIG. 3) stores device/global internal state 157, as shown in FIGS. 1A and 3 . Device/global internal state 157 includes one or more of the following: an active application state indicating which application, if any, is currently active; which application, view or other information is displayed on the touch screen display 112; display state, sensor state, including information obtained from the device's various sensors and input control device 116, and location information about the device's position and/or orientation.

オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するための様々なソフトウェアコンポーネント及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。 operating system 126 (e.g., Darwin®, RTXC®, LINUX®, UNIX®, OS X®, iOS®, WINDOWS®, or Embedded operating systems such as VxWorks®) include various software components and/or drivers for controlling and managing common system tasks (e.g., memory management, storage device control, power management, etc.), It facilitates communication between various hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えば、ユニバーサルシリアルバス(Universal Serial Bus)(USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えば、インターネット、無線LANなど)を通して間接的に、他のデバイスに連結するように適応している。一部の実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じか、若しくは同様のマルチピン(例えば、30ピン)コネクタ、及び/又は互換性のあるマルチピン(例えば、30ピン)コネクタである。 Communication module 128 facilitates communication with other devices via one or more external ports 124 and includes various software components for processing data received by RF circuitry 108 and/or external ports 124 . include. External port 124 (e.g., Universal Serial Bus (USB), FIREWIRE®, etc.) connects to other devices directly or indirectly through a network (e.g., Internet, wireless LAN, etc.). adapted to connect to In some embodiments, the external port is a multi-pin (e.g., 30-pin) connector the same as or similar to the 30-pin connector used on the iPod® (trademark of Apple Inc.) device, and/or Or a compatible multi-pin (eg, 30-pin) connector.

接触/動きモジュール130は、(ディスプレイコントローラ156と連携して)タッチスクリーン112及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を任意選択的に検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したか否かを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データにより表される接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、並びに/又は加速度(大きさ及び/又は方向における変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。 Contact/motion module 130 (in conjunction with display controller 156) optionally detects contact with touchscreen 112 and other touch-sensitive devices (eg, touchpads or physical click wheels). The contact/motion module 130 determines whether contact has occurred (e.g., detecting a finger-down event), the strength of the contact (e.g., the force or pressure of the contact, or alternatives to the force or pressure of the contact). determining whether there is movement of the contact and tracking movement across the touch-sensitive surface (e.g., detecting one or more events of dragging a finger); Contains various software components for performing various operations related to detecting contact, such as determining whether contact has stopped (e.g., detecting a finger-up event or interruption of contact). . Contact/motion module 130 receives contact data from the touch-sensitive surface. Determining movement of the contact point represented by the set of contact data optionally includes speed (magnitude), velocity (magnitude and direction), and/or acceleration (magnitude and/or or change in direction). These operations are optionally applied to single contacts (eg, single-finger contacts) or multiple simultaneous contacts (eg, “multi-touch”/multiple-finger contacts). In some embodiments, contact/motion module 130 and display controller 156 detect contact on the touchpad.

いくつかの実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するために(例えば、ユーザがアイコン上で「クリック」したか否かを判定するために)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、少なくとも強度閾値のサブセットは、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されず、デバイス100の物理ハードウェアを変更することなく調整され得る)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイのハードウェアを変更することなく、広範囲の予め定義された閾値のうちのいずれかに設定され得る。加えて、一部の実装形態では、デバイスのユーザは、強度閾値の集合のうちの1つ以上を調整するためのソフトウェア設定が提供される(例えば、個々の強度閾値を調整することによって、及び/又はシステムレベルのクリック「強度」パラメータで一度に複数の強度閾値を調整することによって)。 In some embodiments, contact/motion module 130 determines whether an action has been performed by the user (e.g., to determine whether the user "clicked" on an icon): One or more sets of intensity thresholds are used. In some embodiments, at least a subset of the intensity thresholds are determined according to software parameters (e.g., the intensity thresholds are not determined by the activation threshold of a particular physical actuator, but rather by changing the physical hardware of device 100). can be adjusted without For example, the mouse "click" threshold of a trackpad or touchscreen display can be set to any of a wide range of predefined thresholds without changing the hardware of the trackpad or touchscreen display. Additionally, in some implementations, the user of the device is provided with software settings for adjusting one or more of the sets of intensity thresholds (e.g., by adjusting individual intensity thresholds and or by adjusting multiple intensity thresholds at once in the system-level click "intensity" parameter).

接触/動きモジュール130は、ユーザによるジェスチャ入力を任意選択的に検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターン(例えば、検出される接触の異なる動き、タイミング、及び/又は強度)を有する。したがって、ジェスチャは、特定の接触パターンの検出によって任意選択的に検出される。例えば、指のタップジェスチャを検出することは、(例えば、アイコンの位置での)指を下ろすイベントを検出し、続いてその指を下ろすイベントと同じ位置(又は、実質的に同じ位置)で指を上げる(リフトオフ)イベントを検出することを含む。別の実施例として、タッチ感知面上での指のスワイプジェスチャを検出することは、指を下ろすイベントを検出し、続いて、1つ以上の、指をドラッグするイベントを検出し、その後、続いて指を上げる(リフトオフ)イベントを検出することを含む。 Contact/motion module 130 optionally detects gesture input by the user. Different gestures on the touch-sensitive surface have different contact patterns (eg, different movements, timing, and/or strength of detected contact). Thus, gestures are optionally detected by detection of specific contact patterns. For example, detecting a finger tap gesture involves detecting a finger down event (e.g., at an icon position) followed by a finger down event at the same (or substantially the same) location as the finger down event. including detecting lift-off events. As another example, detecting a finger swipe gesture on the touch-sensitive surface includes detecting a finger down event, followed by detecting one or more finger dragging events, followed by and detecting finger lift (lift-off) events.

グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、様々な既知のソフトウェア構成要素を含む。本明細書で使用されるとき、用語「グラフィック」は、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインターフェースオブジェクトなど)、デジタル画像、ビデオ、及びアニメーションなどを含むがこれらに限定されない、ユーザに対して表示することができるいずれかのオブジェクトを含む。 The graphics module 132 may be used on the touch screen 112 or other display, including components for changing the visual effects (e.g., brightness, transparency, saturation, contrast, or other visual characteristics) of displayed graphics. includes various known software components for rendering and displaying graphics in As used herein, the term “graphics” includes, but is not limited to, text, web pages, icons (such as user interface objects including softkeys), digital images, video, animations, and the like. contains any object that can be displayed for

いくつかの実施形態では、グラフィックモジュール132は、使用されることとなるグラフィックを表すデータを記憶する。各グラフィックは任意選択で、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データと共に表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次いで、ディスプレイコントローラ156に出力するスクリーンの画像データを生成する。 In some embodiments, graphics module 132 stores data representing graphics to be used. Each graphic is optionally assigned a corresponding code. Graphics module 132 receives, from an application or the like, one or more codes specifying the graphics to be displayed along with coordinate data and other graphics property data, if desired, and then outputs to display controller 156 . Generate screen image data.

触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、デバイス100上の1つ以上の位置で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。 Haptic feedback module 133 is used by tactile output generator(s) 167 to generate tactile outputs at one or more locations on device 100 in response to user interaction with device 100 . Contains various software components for generating instructions.

テキスト入力モジュール134は任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。 Text input module 134 is optionally a component of graphics module 132 and is used for various applications (e.g., contacts 137, email 140, IM 141, browser 147, and any other application requiring text input). ) to provide a soft keyboard for entering text.

GPSモジュール135は、デバイスの位置を判定し、この情報を、様々なアプリケーションでの使用のために提供する(例えば、位置に基づく電話での使用のために電話138へ、写真/ビデオメタデータとしてカメラ143へ、並びに、天気ウィジェット、ローカルイエローページウィジェット及び地図/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションへ)。 GPS module 135 determines the location of the device and provides this information for use in various applications (e.g., to phone 138 for location-based telephony use, as photo/video metadata). to the camera 143 and to applications that provide location-based services such as weather widgets, local yellow pages widgets and maps/navigation widgets).

アプリケーション136は、以下のモジュール(若しくは命令セット)、又はそれらのサブセット若しくはスーパーセットを任意選択的に含む。
●連絡先モジュール137(場合により、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●天気ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェット作成モジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを統合した、ビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154及び/又は
●オンラインビデオモジュール155。
Application 136 optionally includes the following modules (or instruction sets), or subsets or supersets thereof.
- the contacts module 137 (sometimes called an address book or contact list);
a telephone module 138;
a teleconferencing module 139,
- email client module 140;
an instant messaging (IM) module 141;
training support module 142,
- a camera module 143 for still and/or video images;
an image management module 144;
● video player module,
● music player module,
the browser module 147,
a calendar module 148;
Of weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, dictionary widget 149-5 and other widgets obtained by the user, and user-created widgets 149-6 Widget module 149, optionally including one or more of
- a widget creation module 150 for creating user-created widgets 149-6;
a search module 151,
- a video and music player module 152, which integrates a video player module and a music player module;
memo module 153,
• a map module 154 and/or • an online video module 155;

任意選択的にメモリ102内に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。 Examples of other applications 136 that are optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA enabled applications, encryption, digital Rights management, speech recognition, and speech reproduction are included.

タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、連絡先モジュール137は、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレスブック又は連絡先リストを管理するために任意選択的に用いられ、それには、アドレスブックに名前(単数又は複数)を加えること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前と関連付けること、画像を名前と関連付けること、名前を分類及び並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始する及び/又は容易にすること、などが含まれる。 In conjunction with touch screen 112 , display controller 156 , touch module 130 , graphics module 132 , and text input module 134 , contact module 137 may be stored in application internal state 192 of contact module 137 (eg, in memory 102 or memory 370 ). is optionally used to manage an address book or contact list, including adding name(s) to the address book, deleting name(s) from the address book , phone number(s), email address(es), address(es), or other information with names; images with names; sorting and sorting names; Providing a number or email address to initiate and/or facilitate communication by phone 138, videoconferencing module 139, email 140, or IM 141 is included.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電話モジュール138は、任意選択的に、電話番号に対応する一連の文字を入力し、連絡先モジュール137内の1つ以上の電話番号にアクセスし、入力された電話番号を変更し、対応する電話番号をダイアルし、会話を行い、そして、会話が完了した際に接続を切るか又は電話を切るために、使用する。上述のように、無線通信は、複数の通信規格、プロトコル、及び技術のうちのいずれかを任意選択的に使用する。 In conjunction with RF circuitry 108, audio circuitry 110, speaker 111, microphone 113, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, telephone module 138 optionally includes , enter a series of letters corresponding to a phone number, access one or more phone numbers in the contacts module 137, modify the entered phone number, dial the corresponding phone number, and have a conversation. , and to disconnect or hang up when the conversation is complete. As noted above, wireless communications optionally use any of a number of communication standards, protocols, and techniques.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連携して、テレビ会議モジュール139は、ユーザの指示に従って、ユーザと1人以上の他の参加者との間のテレビ会議を開始し、遂行し、終了するための、実行可能な命令を含む。 RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, light sensor 164, light sensor controller 158, touch/motion module 130, graphics module 132, text input module 134, contact module 137. , and telephony module 138, the videoconferencing module 139 executes, according to the user's instructions, for starting, conducting, and terminating a videoconference between the user and one or more other participants. Contains possible instructions.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電子メールクライアントモジュール140は、ユーザの指示に応じて、電子メールを作成し、送信し、受信し、管理するための、実行可能な命令を含む。画像管理モジュール144と連携して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールを作成及び送信することを非常に容易にする。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, email client module 140 composes emails in response to user instructions. contains executable instructions for transmitting, receiving, and managing In conjunction with image management module 144 , email client module 140 greatly facilitates creating and sending emails with still or video images captured by camera module 143 .

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字列を入力したり、入力済みの文字を修正したり、(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、若しくはIMPSを使用して)対応するインスタントメッセージを送信したり、インスタントメッセージを受信したり、及び受信したインスタントメッセージを閲覧したりする、実行可能な命令を含む。一部の実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるような、グラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書において使用するとき、「インスタントメッセージング」とは、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)の双方を指す。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, instant messaging module 141 can input text strings corresponding to instant messages, modify already entered characters (e.g., using the Short Message Service (SMS) or Multimedia Message Service (MMS) protocols for telephone-based instant messaging, or the Internet executable instructions for sending corresponding instant messages, receiving instant messages, and viewing received instant messages (using XMPP, SIMPLE, or IMPS for instant messaging based); include. In some embodiments, instant messages sent and/or received are optionally graphics, photos, audio files, as supported by MMS and/or Enhanced Messaging Service (EMS). , video files, and/or other attachments. As used herein, "instant messaging" refers to telephone-based messages (e.g., messages sent using SMS or MMS) and internet-based messages (e.g., using XMPP, SIMPLE, or IMPS). (messages sent as

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154及び音楽プレーヤモジュールと連携して、トレーニングサポートモジュール142は、(例えば、時間、距離及び/又はカロリー消費目標を有する)トレーニングを作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択して再生し、トレーニングデータを表示、記憶、及び送信する、実行可能な命令を含む。 In conjunction with RF circuit 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, GPS module 135, map module 154 and music player module, training support module 142 ( create workouts (e.g., with time, distance and/or calorie expenditure goals), communicate with training sensors (sports devices), receive training sensor data, calibrate sensors used to monitor training, Contains executable instructions to select and play music for training, display, store and transmit training data.

タッチスクリーン112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連携して、カメラモジュール143は、静止画像若しくは(ビデオストリームを含む)ビデオをキャプチャしてメモリ102にそれらを記憶する、静止画像若しくはビデオの特性を変更する、又はメモリ102から静止画像若しくはビデオを削除する、実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, light sensor(s) 164, light sensor controller 158, touch/motion module 130, graphics module 132, and image management module 144, camera module 143 captures still images or It contains executable instructions to capture videos (including video streams) and store them in memory 102 , change characteristics of still images or videos, or delete still images or videos from memory 102 .

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134及びカメラモジュール143と連携して、画像管理モジュール144は、静止画像及び/又はビデオ画像を配置し、変更し(例えば、編集し)又は別の方法で操作し、ラベルを付け、削除し、(例えば、デジタルスライドショー又はアルバムにおいて)提示し、記憶するための、実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134 and camera module 143, image management module 144 arranges and modifies still and/or video images. Contains executable instructions to (eg, edit) or otherwise manipulate, label, delete, present (eg, in a digital slideshow or album), and store.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及び、テキスト入力モジュール134と連携して、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページにリンクされた添付及び他のファイルを検索し、リンク付けし、受信し、表示することを含むユーザの指示に従い、インターネットを閲覧する実行可能な命令を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, browser module 147 can display web pages, portions thereof, and web pages. Contains executable instructions for browsing the Internet following user instructions including retrieving, linking, receiving and displaying linked attachments and other files.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、カレンダモジュール148は、ユーザの指示に従い、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダ項目、to doリストなど)を作成し、表示し、変更し、記憶する実行可能な命令を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, email client module 140, and browser module 147, calendar module 148 can and executable instructions for creating, displaying, modifying, and storing calendars and data associated with calendars (eg, calendar items, to-do lists, etc.) in accordance with the .

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、ウィジェットモジュール149は、ユーザによって任意選択的にダウンロードされて使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language)(ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets)(カスケーディングスタイルシート)ファイル及びJavaScriptファイルを含む。いくつかの実施形態では、ウィジェットは、XML(拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, widget module 149 is optionally downloaded by the user. Mini-applications used (eg, weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5) or mini-applications created by users ( For example, a user created widget 149-6). In some embodiments, widgets include Hypertext Markup Language (HTML) files, Cascading Style Sheets (CSS) files, and JavaScript files. In some embodiments, widgets include XML (extensible markup language) files and JavaScript files (eg, Yahoo! widgets).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、ウィジェット作成モジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定箇所をウィジェットに変える)ために、ユーザによって使用する。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, widget creation module 150 optionally creates widgets. (eg, turn user-specified portions of a web page into widgets).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、検索モジュール151は、ユーザの指示に従い、1つ以上の検索基準(例えば、1つ以上のユーザ指定の検索語句)と一致する、メモリ102内のテキスト、音楽、音、画像、ビデオ、及び/又は他のファイルを検索するための、実行可能な命令を含む。 In conjunction with touch screen 112 , display controller 156 , touch/motion module 130 , graphics module 132 , and text input module 134 , search module 151 follows user instructions and provides one or more search criteria (e.g., one or more user-specified search terms) to search for text, music, sounds, images, videos, and/or other files in memory 102 that match the search terms.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びにビデオを(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示又は別の方法で再生するための実行可能な命令を含む。いくつかの実施形態では、デバイス100は、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を任意選択的に含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108 and browser module 147, video and music player module 152 can display MP3 or AAC files, etc. and video (on touch screen 112 or via external port 124). contains executable instructions for displaying, presenting or otherwise reproducing (on a connected external display). In some embodiments, device 100 optionally includes the functionality of an MP3 player, such as an iPod (trademark of Apple Inc.).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、メモモジュール153は、ユーザの指示に従って、メモ、to doリストなどを作成し、管理するための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, notes module 153 is used to create and manage notes, to-do lists, etc., according to user instructions. contains executable instructions for

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、地図モジュール154は、任意選択的に、ユーザの指示に従い、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の位置又はその近くの店舗及びその他の見所のデータ、並びに他の位置ベースのデータ)を受信し、表示し、変更し、及び記憶するために、使用する。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, GPS module 135, and browser module 147, map module 154 optionally: receive, display, and modify maps and data associated with maps (e.g., driving directions, store and other points of interest data at or near a particular location, and other location-based data) at the direction of a user; to store and store.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140及びブラウザモジュール147と連携して、オンラインビデオモジュール155は、ユーザがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、閲覧し、(例えば、ストリーミング及び/又はダウンロードにより)受信し、(例えば、タッチスクリーン上で又は外部ポート124を介して接続された外部のディスプレイ上で)再生し、特定のオンラインビデオへのリンクを含む電子メールを送信し、別の方法で管理することが可能となる命令を含む。一部の実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションの追加の説明は、2007年6月20日に出願された米国特許仮出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日に出願された米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」に見出すことができ、これらの出願の内容はその全体が本明細書において参照により組み込まれている。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108, text input module 134, email client module 140 and browser module 147, online video Module 155 indicates that the user is using H.264. 264, etc., to access, view, receive (eg, by streaming and/or downloading), and receive (eg, on a touch screen or externally connected via the external port 124) (on your display), send emails containing links to specific online videos, and otherwise manage them. In some embodiments, instant messaging module 141 is used rather than email client module 140 to send links to specific online videos. Additional description of online video applications can be found in U.S. Provisional Patent Application No. 60/936,562, "Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos," filed Jun. 20, 2007, and 2007 U.S. patent application Ser. is incorporated herein by reference.

上記で特定されたモジュール及びアプリケーションのそれぞれは、1つ以上の上記の機能を実行する実行可能な命令セット及び本出願に記載の方法(例えば、コンピュータにより実装される方法及び本明細書に記載の他の情報処理方法)に対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、それゆえ、様々な実施形態では、任意選択的に、これらのモジュールの様々な部分集合を組み合わせるか、又は他の方式で再編成する。例えば、ビデオ再生モジュールは、任意選択的に、音楽プレーヤモジュールと組み合わせて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)とする。いくつかの実施形態では、メモリ102は、上記で特定されたモジュール及びデータ構造のサブセットを任意選択的に記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the modules and applications identified above may comprise a set of executable instructions and methods described herein (e.g., computer-implemented methods and methods described herein) that perform one or more of the functions described above. other information processing methods). These modules (eg, instruction sets) need not be implemented as separate software programs, procedures, or modules, and thus various embodiments optionally include various subsets of these modules. are combined or otherwise reorganized. For example, a video playback module is optionally combined with a music player module into a single module (eg, video and music player module 152 of FIG. 1A). In some embodiments, memory 102 optionally stores a subset of the modules and data structures identified above. In addition, memory 102 optionally stores additional modules and data structures not described above.

一部の実施形態では、デバイス100は、デバイス上で予め定義された機能の集合の動作がタッチスクリーン及び/又はタッチパッドを通じて排他的に実行されるデバイスである。デバイス100の動作のための主要な入力制御デバイスとしてタッチスクリーン及び/又はタッチパッドを使用することによって、デバイス100上の物理的な入力制御デバイス(プッシュボタン、ダイアルなど)の数が任意選択で削減される。 In some embodiments, device 100 is a device on which operations of a predefined set of functions are performed exclusively through a touchscreen and/or touchpad. Optionally reducing the number of physical input control devices (pushbuttons, dials, etc.) on device 100 by using a touchscreen and/or touchpad as the primary input control device for operation of device 100 be done.

タッチスクリーン及び/又はタッチパッドを通じて排他的に実行される予め定義された機能の集合は任意選択で、ユーザインターフェース間のナビゲーションを含む。一部の実施形態では、タッチパッドは、ユーザによってタッチされるとき、デバイス100上で表示される任意のユーザインターフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。そのような実施形態では、「メニューボタン」はタッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドの代わりに、物理プッシュボタン又は他の物理入力制御デバイスである。 A predefined set of functions that are performed exclusively through the touchscreen and/or touchpad optionally include navigation between user interfaces. In some embodiments, the touchpad navigates device 100 from any user interface displayed on device 100 to a main menu, home menu, or root menu when touched by a user. In such embodiments, the "menu button" is implemented using a touchpad. In some other embodiments, the menu buttons are physical push buttons or other physical input control devices instead of touchpads.

図1Bは、いくつかの実施形態に従った、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又はメモリ370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)及び対応するアプリケーション136-1(例えば、上述のアプリケーション137~151、155、380~390のうちのいずれか)を含む。 FIG. 1B is a block diagram illustrating exemplary components for event processing, according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or memory 370 (FIG. 3) includes event sorter 170 (eg, within operating system 126) and corresponding applications 136-1 (eg, applications 137-151, 155, any of 380-390).

イベントソート部170は、イベント情報を受信し、イベント情報が配信されるアプリケーション136-1及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソート部170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1には、アプリケーションがアクティブ又は実行中のとき、タッチ感知ディスプレイ112上に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192が含まれる。いくつかの実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーション(単数又は複数)が現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。 Event sorting unit 170 receives event information and determines application 136-1 to which event information is delivered and application view 191 of application 136-1. Event sorter 170 includes event monitor 171 and event dispatcher module 174 . In some embodiments, application 136-1 includes application internal state 192 that indicates the current application view(s) displayed on touch-sensitive display 112 when the application is active or running. be In some embodiments, device/global internal state 157 is used by event sorter 170 to determine which application(s) is currently active, and application internal state 192 contains event information. is used by event sorter 170 to determine the application view 191 to which the event is delivered.

いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用される再開情報、アプリケーション136-1によって表示されているか又は表示の準備がされている情報を示すユーザインターフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを可能にするための状態待ち行列、及びユーザが行った前のアクションのリドゥ/アンドゥ待ち行列、のうちの1つ以上などの追加の情報を含む。 In some embodiments, application internal state 192 indicates resume information used when application 136-1 resumes execution, information being displayed or prepared for display by application 136-1. one of user interface state information, a state queue for allowing the user to return to a previous state or view of the application 136-1, and a redo/undo queue of previous actions taken by the user. Include additional information such as:

イベントモニタ171は、周辺機器インターフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイ112上のユーザタッチ)に関する情報を含む。周辺機器インターフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を通じて)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インターフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。 Event monitor 171 receives event information from peripherals interface 118 . Event information includes information about sub-events (eg, a user touch on touch-sensitive display 112 as part of a multi-touch gesture). Peripherals interface 118 transmits information it receives from I/O subsystem 106 or sensors such as proximity sensor 166, accelerometer(s) 168, and/or microphone 113 (through audio circuitry 110). Information that peripherals interface 118 receives from I/O subsystem 106 includes information from touch-sensitive display 112 or a touch-sensitive surface.

いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インターフェース118に要求を送信する。それに応じて、周辺機器インターフェース118はイベント情報を送信する。他の実施形態では、周辺機器インターフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回るかつ/又は所定の期間よりも長い入力を受信すること)が存在するときのみ、イベント情報を送信する。 In some embodiments, event monitor 171 sends requests to peripherals interface 118 at predetermined intervals. In response, peripherals interface 118 transmits event information. In other embodiments, peripherals interface 118 transmits event information only when there is a significant event (eg, receiving input above a predetermined noise threshold and/or for longer than a predetermined period of time). .

いくつかの実施形態では、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベントレコグナイザ判定モジュール173を含む。 In some embodiments, event sorter 170 also includes hit view determination module 172 and/or active event recognizer determination module 173 .

ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示した際に、1つ以上のビュー内のどこにおいてサブイベントが発生したかを判定するためのソフトウェア手続きを提供する。ビューは、制御部及びユーザがディスプレイ上で見ることが可能な他の要素で構成される。 Hit view determination module 172 provides software procedures for determining where within one or more views a sub-event occurred when touch-sensitive display 112 displays more than one view. A view is made up of controls and other elements that the user can see on the display.

アプリケーションに関連付けられたユーザインターフェースの別の態様は、本明細書においてアプリケーションビュー又はユーザインターフェースウィンドウと呼ばれる場合があるビューのセットであり、それらの中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに任意選択的に対応する。例えば、タッチが検出される最下位レベルのビューは任意選択で、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントの集合は任意選択で、タッチに基づくジェスチャを開始する初期のタッチのヒットビューに少なくとも部分的に基づいて判定される。 Another aspect of the user interface associated with an application is a set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and touch-based gestures occur. The application view (of the respective application) in which the touch is detected optionally corresponds to a program level within the application's program hierarchy or view hierarchy. For example, the lowest-level view in which touches are detected is optionally called the hit view, and the set of events recognized as appropriate input is optionally the initial touch that initiates a touch-based gesture. is determined based at least in part on the hit views of the .

ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層において編成された複数のビューを有するとき、ヒットビュー判定モジュール172は、サブイベントを処理するべき階層内の最下位のビューとしてヒットビューを特定する。ほとんどの状況では、ヒットビューは、最初のサブイベント(例えば、イベント又は潜在的なイベントを形成するサブイベントのシーケンスにおける最初のサブイベント)が発生する最下位レベルのビューである。ヒットビューがヒットビュー判定モジュール172によって特定されると、ヒットビューは、それがヒットビューとして特定された、同じタッチ又は入力ソースに関連するすべてのサブイベントを一般的に受信する。 The hit view determination module 172 receives information related to sub-events of touch-based gestures. When an application has multiple views organized in a hierarchy, hit view determination module 172 identifies the hit view as the lowest view in the hierarchy that should process the sub-event. In most situations, the hit view is the lowest level view where the first sub-event occurs (eg, the first sub-event in the sequence of sub-events forming the event or potential event). When a hit view is identified by hit view determination module 172, the hit view typically receives all sub-events associated with the same touch or input source for which it was identified as the hit view.

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含むすべてのビューはアクティブに関わっているビューであると判定し、したがって、すべてのアクティブに関わっているビューは、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントがある特定のビューに関連付けられた領域に完全に限定されたとしても、階層の上位のビューは、依然としてアクティブに関わっているビューであり続ける。 Active event recognizer determination module 173 determines which view(s) in the view hierarchy should receive a particular sequence of sub-events. In some embodiments, active event recognizer determination module 173 determines that only hit views should receive a particular sequence of sub-events. In another embodiment, the active event recognizer determination module 173 determines that all views containing the physical locations of sub-events are actively participating views, and therefore all actively participating views are: Determine that a particular sequence of sub-events should be received. In other embodiments, even if a touch sub-event is completely localized to a region associated with a particular view, the view higher up the hierarchy remains the actively involved view.

イベントディスパッチャモジュール174は、イベント情報をイベントレコグナイザ(例えば、イベントレコグナイザ180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、対応するイベント受信部182により取得されるイベント情報をイベント待ち行列に記憶する。 Event dispatcher module 174 dispatches event information to event recognizers (eg, event recognizer 180). In embodiments that include active event recognizer determination module 173 , event dispatcher module 174 distributes event information to event recognizers determined by active event recognizer determination module 173 . In some embodiments, the event dispatcher module 174 stores event information obtained by the corresponding event receiver 182 in an event queue.

いくつかの実施形態では、オペレーティングシステム126は、イベントソート部170を含む。あるいは、アプリケーション136-1が、イベントソータ170を含む。更に他の実施形態では、イベントソート部170は、独立型のモジュール、又は接触/動きモジュール130などの、メモリ102に記憶された別のモジュールの一部である。 In some embodiments, operating system 126 includes event sorter 170 . Alternatively, application 136 - 1 includes event sorter 170 . In yet other embodiments, event sorter 170 is a stand-alone module or part of another module stored in memory 102 , such as touch/motion module 130 .

いくつかの実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインターフェースの対応するビュー内で発生するタッチイベントを処理する命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1のそれぞれのアプリケーションビュー191は、1つ以上のイベントレコグナイザ180を含む。一般的には、対応するアプリケーションビュー191は、複数のイベントレコグナイザ180を含む。他の実施形態では、イベントレコグナイザ180のうちの1つ以上は、ユーザインターフェースキット又はアプリケーション136-1がメソッド及び他の性質をそれから継承する上位レベルのオブジェクトなどの、別々のモジュールの一部である。いくつかの実施形態では、対応するイベントハンドラ190は、データ更新部176、オブジェクト更新部177、GUI更新部178及び/又はイベントソータ170から受信されたイベントデータ179、のうちの1つ以上を含む。イベント処理部190は、アプリケーション内部状態192を更新するために、データ更新部176、オブジェクト更新部177、又はGUI更新部178を任意選択的に、利用若しくは呼び出す。あるいは、アプリケーションビュー191のうちの1つ以上は、1つ以上の対応するイベントハンドラ190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177及びGUI更新部178のうちの1つ以上は、対応するアプリケーションビュー191に含まれる。 In some embodiments, application 136-1 includes multiple event handlers 190 and one or more application views 191, each containing instructions for handling touch events that occur within a corresponding view of the application's user interface. include. Each application view 191 of application 136 - 1 includes one or more event recognizers 180 . Typically, the corresponding application view 191 contains multiple event recognizers 180 . In other embodiments, one or more of event recognizers 180 are part of separate modules, such as higher-level objects from which user interface kit or application 136-1 inherits methods and other properties. is. In some embodiments, the corresponding event handler 190 includes one or more of data updater 176, object updater 177, GUI updater 178 and/or event data 179 received from event sorter 170. . Event handler 190 optionally uses or calls data updater 176 , object updater 177 , or GUI updater 178 to update application internal state 192 . Alternatively, one or more of application views 191 include one or more corresponding event handlers 190 . Also, in some embodiments, one or more of data updater 176 , object updater 177 and GUI updater 178 are included in the corresponding application view 191 .

対応するイベントレコグナイザ180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、イベント情報からイベントを特定する。イベントレコグナイザ180は、イベント受信部182及びイベント比較部184を含む。一部の実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択でサブイベント配信命令を含む)の少なくともサブセットも含む。 A corresponding event recognizer 180 receives event information (eg, event data 179) from event sorter 170 and identifies events from the event information. Event recognizer 180 includes event receiver 182 and event comparator 184 . In some embodiments, event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188 (optionally including sub-event delivery instructions).

イベント受信部182は、イベントソート部170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの動きに関する情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択で、サブイベントの速さ及び方向を含む。一部の実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへの、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ばれる)についての対応する情報を含む。 Event receiver 182 receives event information from event sorter 170 . The event information includes information about sub-events, such as touches or touch movements. Depending on the sub-event, the event information also includes additional information such as the location of the sub-event. When the sub-event involves touch movement, the event information optionally also includes the speed and direction of the sub-event. In some embodiments, the event includes rotation of the device from one orientation to another (e.g., portrait to landscape or vice versa), and the event information is the device's current orientation ( contains corresponding information about the pose of the device).

イベント比較部184は、イベント情報を予め定義されたイベント又はサブイベント定義と比較し、比較に基づいて、イベント又はサブイベントを判定し、又はイベント若しくはサブイベントの状態を判定若しくは更新する。一部の実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えば、イベント1(187-1)、イベント2(187-2)などのイベントの定義(例えば、予め定義された一連のサブイベント)を含む。いくつかの実施形態では、イベント187におけるサブイベントは、例えば、タッチの始め、タッチの終わり、タッチの移動、タッチの停止及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階の間の表示されたオブジェクト上の第1のタッチ(タッチの開始)、所定の段階の間の第1のリフトオフ(タッチの終了)、所定の段階の間の表示オブジェクト上の第2のタッチ(タッチの開始)、及び所定の段階の間の第2のリフトオフ(タッチの終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグ操作である。このドラッグ操作は、例えば、予め定められた段階の間の表示オブジェクト上のタッチ(又は、接触)、タッチ感知ディスプレイ112を横断するタッチの移動、及びタッチのリフトオフ(タッチの終了)を含む。一部の実施形態において、イベントはまた、1つ以上の関連付けられたイベント処理部190に関する情報も含む。 The event comparator 184 compares the event information to predefined event or sub-event definitions and determines an event or sub-event or determines or updates the status of an event or sub-event based on the comparison. In some embodiments, event comparator 184 includes event definitions 186 . Event definitions 186 include definitions of events (eg, a predefined series of sub-events), eg, event 1 (187-1), event 2 (187-2), and so on. In some embodiments, sub-events in event 187 include, for example, beginning of touch, end of touch, movement of touch, stop of touch, and multiple touches. In one embodiment, the definition for event 1 (187-1) is a double tap on a displayed object. A double-tap is, for example, the first touch on a displayed object during a given phase (beginning of a touch), the first lift-off during a given phase (end of a touch), the Including a second touch on the display object (onset of touch) and a second lift-off during a predetermined phase (end of touch). In another example, the definition of event 2 (187-2) is a drag operation on a displayed object. This drag operation includes, for example, a touch (or contact) on a display object during predetermined stages, movement of the touch across the touch-sensitive display 112, and lift-off of the touch (finishing the touch). In some embodiments, events also include information about one or more associated event handlers 190 .

一部の実施形態において、イベント定義187は、それぞれのユーザインターフェースオブジェクトに関するイベントの定義を含む。一部の実施形態において、イベント比較部184は、サブイベントに関連付けられたユーザインターフェースオブジェクトを判定するヒットテストを実行する。例えば、3つのユーザインターフェースオブジェクトがタッチ感知ディスプレイ112上に表示されるアプリケーションビューにおいて、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、3つのユーザインターフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定するためのヒットテストを行う。表示されたそれぞれのオブジェクトが、対応するイベントハンドラ190と関連付けられている場合、イベント比較部は、ヒットテストの結果を使用して、どのイベントハンドラ190がアクティブ化されるべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトと関連付けられたイベントハンドラを選択する。 In some embodiments, event definitions 187 include event definitions for respective user interface objects. In some embodiments, event comparator 184 performs hit testing to determine user interface objects associated with sub-events. For example, in an application view in which three user interface objects are displayed on touch-sensitive display 112, when a touch is detected on touch-sensitive display 112, event comparator 184 determines which of the three user interface objects is displayed. Hit test to determine if it is associated with a touch (sub-event). If each displayed object is associated with a corresponding event handler 190, the event comparator uses the results of the hit test to determine which event handler 190 should be activated. For example, the event comparator 184 selects the event handlers associated with the sub-events and objects that trigger the hit test.

いくつかの実施形態では、対応するイベント(187)についての定義はまた、一連のサブイベントがイベントレコグナイザのイベントタイプに対応するか否かが判定される後まで、イベント情報の配信を遅延させる遅延アクションを含む。 In some embodiments, the definition for the corresponding event (187) also delays delivery of the event information until after it has been determined whether the sequence of sub-events corresponds to the event recognizer's event type. Includes delay actions that cause

対応するイベントレコグナイザ180が、一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断したとき、対応するイベントレコグナイザ180は、イベント不可能、イベント失敗又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベントレコグナイザがもしあれば、そのイベントレコグナイザが進行中のタッチに基づくジェスチャのサブイベントの追跡及び処理を続行する。 When the corresponding event recognizer 180 determines that the sequence of sub-events does not match any of the events in the event definition 186, the corresponding event recognizer 180 enters an event unavailable, event failed, or event terminated state. Enter and then ignore the following sub-events of touch-based gestures. In this situation, if there is another event recognizer that remains active for the hit view, that event recognizer will continue to track and process the ongoing touch-based gesture sub-events.

いくつかの実施形態では、対応するイベントレコグナイザ180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベントレコグナイザに示す構成可能なプロパティ、フラグ及び/又はリストを有するメタデータ183を含む。一部の実施形態では、メタデータ183は、イベント認識部が相互にどのように対話するか又は対話することが可能とされているかについて示す構成可能なプロパティ、フラグ、及び/又はリストを含む。一部の実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。 In some embodiments, the corresponding event recognizer 180 has configurable properties, flags and parameters that indicate to actively participating event recognizers how the event delivery system should perform sub-event delivery. /or includes metadata 183 with a list. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate how event recognizers interact or are allowed to interact with each other. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate whether sub-events are delivered to various levels in the view hierarchy or program hierarchy.

一部の実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントと関連付けられたイベントハンドラ190をアクティブ化する。一部の実施形態では、それぞれのイベント認識部180は、イベントと関連付けられたイベント情報をイベントハンドラ190に配信する。イベントハンドラ190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。一部の実施形態では、イベント認識部180は、認識されたイベントと関連付けられたフラグを投入し、フラグと関連付けられたイベントハンドラ190は、フラグを捕らえ、予め定義された処理を実行する。 In some embodiments, each event recognizer 180 activates the event handler 190 associated with the event when one or more specific sub-events of the event are recognized. In some embodiments, each event recognizer 180 delivers event information associated with the event to event handlers 190 . Activating the event handler 190 is separate from sending (and deferring sending) the sub-event to each hit view. In some embodiments, event recognizer 180 populates flags associated with recognized events, and event handlers 190 associated with the flags catch the flags and perform predefined processing.

一部の実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベントハンドラに、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベントに又はアクティブに関与しているビューと関連付けられたイベントハンドラは、イベント情報を受信し、予め定義された処理を実行する。 In some embodiments, event delivery instructions 188 include sub-event delivery instructions to deliver event information about the sub-event without activating event handlers. Instead, sub-event delivery instructions deliver event information to event handlers associated with a sequence of sub-events or to actively participating views. An event handler associated with a sequence of sub-events or views that are actively involved receives the event information and performs predefined processing.

いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新するか、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。一部の実施形態において、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新たなユーザインターフェースオブジェクトを作成する、又はユーザインターフェースオブジェクトの位置を更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。 In some embodiments, data updater 176 creates and updates data used by application 136-1. For example, the data updater 176 updates phone numbers used by the contacts module 137 or stores video files used by the video player module. In some embodiments, object updater 177 creates and updates objects used by application 136-1. For example, the object updater 177 creates new user interface objects or updates the positions of user interface objects. The GUI updater 178 updates the GUI. For example, GUI updater 178 prepares display information and sends the display information to graphics module 132 for display on a touch-sensitive display.

いくつかの実施形態では、イベントハンドラ(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含むか又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, event handler(s) 190 includes or has access to data updater 176 , object updater 177 , and GUI updater 178 . In some embodiments, data updater 176 , object updater 177 , and GUI updater 178 are included in a single module of respective application 136 - 1 or application view 191 . In other embodiments, they are contained in two or more software modules.

タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の議論はまた、入力デバイスで多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、そのすべてがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、単一若しくは複数のキーボードの押圧若しくは保持に任意選択的に適合されたマウスの移動及びマウスボタンの押圧、タッチパッド上でのタップ、ドラッグ、スクロールなどの接触移動、ペンスタイラス入力、デバイスの移動、口頭による指示検出された眼球運動、バイオメトリック入力、並びに/又はそれらのいずれかの組み合わせは、任意選択的に、認識されることになるイベントを定義するサブイベントに対応する入力として利用される。 The foregoing discussion of event handling of a user's touch on a touch-sensitive display also applies to other forms of user input for operating multifunction device 100 with input devices, all of which are on touch screens. It should be understood that it is not initiated. For example, mouse movement and mouse button presses optionally adapted to pressing or holding a single or multiple keyboards, contact movements such as tapping, dragging, scrolling on a touchpad, pen stylus input, Movements, verbal instructions, detected eye movements, biometric inputs, and/or any combination thereof are optionally utilized as inputs corresponding to sub-events that define the event to be recognized. be.

図2は、いくつかの実施形態に従った、タッチスクリーン112を有するポータブル多機能デバイス100を示している。タッチスクリーンは、ユーザインターフェース(user interface)(UI)200内に1つ以上のグラフィックを、任意選択的に表示する。本実施形態、並びに後述する実施形態において、ユーザは、例えば、1本以上の指202(図には、正確な縮尺率では描かれていない)又は1つ以上のスタイラス203(図には、正確な縮尺率では描かれていない)を用いて、グラフィック上でジェスチャを行うことにより、グラフィックのうちの1つ以上を選択することができる。一部の実施形態では、ユーザが1つ以上のグラフィックとの接触を断った際に、その1つ以上のグラフィックの選択が生じる。一部の実施形態では、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上方向へ及び/又は下方向へ)、並びに/又は、デバイス100と接触した指のローリング(右から左へ、左から右へ、上方向へ及び/若しくは下方向へ)を、任意選択的に含む。いくつかの実現形態又は状況では、グラフィックとの不測の接触は、グラフィックを選択しない。例えば、選択に対応するジェスチャがタップであるとき、アプリケーションアイコンの上をスイープするスワイプジェスチャは任意選択で、対応するアプリケーションを選択しない。 FIG. 2 illustrates portable multifunction device 100 having touch screen 112, according to some embodiments. The touchscreen optionally displays one or more graphics within a user interface (UI) 200 . In this embodiment, as well as those described below, a user may, for example, use one or more fingers 202 (not shown to scale) or one or more styluses 203 (not shown to scale). not drawn to scale) can be used to select one or more of the graphics by making a gesture on the graphic. In some embodiments, selection of one or more graphics occurs when the user breaks contact with the one or more graphics. In some embodiments, the gesture is one or more taps, one or more swipes (left to right, right to left, up and/or down), and/or Rolling (right-to-left, left-to-right, upwards and/or downwards) of the fingers in contact is optionally included. In some implementations or situations, accidental contact with a graphic does not select the graphic. For example, a swipe gesture that sweeps over an application icon is optional and does not select the corresponding application when the gesture corresponding to selection is a tap.

デバイス100はまた、「ホーム」又はメニューボタン204などの、1つ以上の物理ボタンも任意選択的に含む。前述のように、メニューボタン204は、デバイス100上で任意選択的に、実行するアプリケーションのセット内の任意のアプリケーション136へのナビゲーションに任意選択的に、使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112に表示されたGUIにおけるソフトキーとして実装されている。 Device 100 also optionally includes one or more physical buttons, such as “home” or menu button 204 . As mentioned above, menu button 204 is optionally used to navigate to any application 136 in the set of applications that are optionally running on device 100 . Alternatively, in some embodiments, menu buttons are implemented as softkeys in a GUI displayed on touch screen 112 .

一部の実施形態において、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスへの電源をオン/オフしてデバイスをロックするためのプッシュボタン206、音量調整ボタン(単数又は複数)208、加入者識別モジュール(subscriber identity module、SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、ボタンを押し下げて、既定の時間にわたってボタンを押し下げた状態で保持することによってデバイス上の電源をオン/オフし、ボタンを押し下げて、既定の時間が経過する前にボタンを解放することによってデバイスをロックし、及び/又は、デバイスのロックを解除する、若しくは、ロック解除処理を開始するように、任意選択的に用いられる。代替実施形態では、デバイス100はまた、マイクロフォン113を通して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力を受ける。デバイス100はまた、タッチスクリーン112上の接触の強度を検出するための1つ以上の接触強度センサ165、及び/又は、デバイス100のユーザに対する触知出力を生成するための1つ以上の触知出力生成器167も、任意選択的に含む。 In some embodiments, the device 100 includes a touch screen 112, a menu button 204, push buttons 206 for powering the device on/off and locking the device, volume control button(s) 208, subscription It includes a subscriber identity module (SIM) card slot 210, a headset jack 212, and an external port 124 for docking/charging. The push button 206 turns on/off power on the device by depressing the button and holding the button down for a predetermined time, depressing the button and releasing the button before the predetermined time elapses. is optionally used to lock and/or unlock the device or initiate an unlocking process. In an alternative embodiment, device 100 also receives verbal input through microphone 113 to activate or deactivate some functions. Device 100 may also include one or more contact intensity sensors 165 to detect the intensity of contact on touch screen 112 and/or one or more tactile sensors to generate tactile output to the user of device 100 . An output generator 167 is also optionally included.

図3は、いくつかの実施形態に従った、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク若しくは他の通信インターフェース360、メモリ370、及びこれらの構成要素を相互接続するための1つ以上の通信バス320を一般的に含む。通信バス320は、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることがある)を、任意選択的に含む。デバイス300は、一般的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インターフェース330を含む。I/Oインターフェース330はまた、キーボード及び/又はマウス(又は他のポインティングデバイス)350並びにタッチパッド355、デバイス300上に触知出力を生成するための(例えば、図1Aを参照して上述された触知出力生成器(単数又は複数)167と同様の)触知出力生成器357、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ及び/又は図1Aを参照して上述された接触強度センサ(単数又は複数)165と同様の接触強度センサ)を任意選択的に含む。メモリ370は、DRAM、SRAM、DDR RAM又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、また、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを任意選択的に含む。メモリ370は、CPU(単数又は複数)310からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102に記憶されたプログラム、モジュール及びデータ構造、又はそれらのサブセットに類似する、プログラム、モジュール及びデータ構造を記憶する。更に、メモリ370は任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388及び/又はスプレッドシートモジュール390を任意選択的に記憶するが、一方でポータブル多機能デバイス100(図1A)のメモリ102は、これらのモジュールを任意選択的に記憶しない。 FIG. 3 is a block diagram of an exemplary multifunction device with a display and touch-sensitive surface, according to some embodiments. Device 300 need not be portable. In some embodiments, device 300 is a laptop computer, desktop computer, tablet computer, multimedia playback device, navigation device, educational device (such as a children's learning toy), gaming system, or control device (e.g., home controller for commercial use or business use). Device 300 generally includes one or more processing units (CPUs) 310, one or more network or other communication interfaces 360, memory 370, and one or more communication buses 320 for interconnecting these components. include Communication bus 320 optionally includes circuitry (sometimes called a chipset) that interconnects and controls communications between system components. Device 300 includes input/output (I/O) interface 330 including display 340, which is typically a touch screen display. I/O interface 330 also includes a keyboard and/or mouse (or other pointing device) 350 and touchpad 355 for generating tactile output on device 300 (e.g., as described above with reference to FIG. 1A). tactile output generator 357 (similar to tactile output generator(s) 167), sensor 359 (e.g., light sensor, acceleration sensor, proximity sensor, touch sensitive sensor, and/or as described above with reference to FIG. 1A); optional contact intensity sensor(s) similar to 165). Memory 370 includes high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory devices, and also one or more magnetic disk storage devices, optical disk storage devices, flash memory devices or other non-volatile memory devices. Optionally includes non-volatile memory such as a non-volatile solid state storage device. Memory 370 optionally includes one or more storage devices located remotely from CPU(s) 310 . In some embodiments, memory 370 stores programs, modules and data structures similar to those stored in memory 102 of portable multifunction device 100 (FIG. 1A), or a subset thereof. do. Additionally, memory 370 optionally stores additional programs, modules, and data structures not present in memory 102 of portable multifunction device 100 . For example, memory 370 of device 300 optionally stores drawing module 380, presentation module 382, word processing module 384, website creation module 386, disc authoring module 388 and/or spreadsheet module 390, while Memory 102 of portable multifunction device 100 (FIG. 1A) optionally does not store these modules.

上記で特定された図3の要素のそれぞれは任意選択的に、前述のメモリデバイスのうち1つ以上に記憶される。上記で特定されたモジュールのうちのそれぞれは、上述した機能を実行する命令セットに対応する。上記で特定されたモジュール又はプログラム(例えば、命令セット)は、任意選択的に、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、それゆえ、様々な実施形態では、これらのモジュールの様々なサブセットを組み合わせるか、又は他の方式で再編成する。いくつかの実施形態では、メモリ370は、上記で特定されたモジュール及びデータ構造のサブセットを任意選択的に記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the above-identified elements of FIG. 3 are optionally stored in one or more of the aforementioned memory devices. Each of the modules identified above corresponds to a set of instructions that perform the functions described above. The modules or programs (e.g., instruction sets) identified above need not optionally be implemented as separate software programs, procedures, or modules, and thus, in various embodiments, these modules combine or otherwise rearrange various subsets of . In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. In addition, memory 370 optionally stores additional modules and data structures not described above.

次に、例えば、任意選択的に、ポータブル多機能デバイス100上に実装するユーザインターフェースの実施形態に注意を向ける。 Attention will now be directed to embodiments of user interfaces, for example, optionally implemented on portable multifunction device 100 .

図4Aは、一部の実施形態に係る、ポータブル多機能デバイス100上のアプリケーションのメニューに関する例示的なユーザインターフェースを示す。同様のユーザインターフェースは、デバイス300上に任意選択的に実装される。一部の実施形態では、ユーザインターフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー及びWi-Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●下記などの、頻繁に利用されるアプリケーション用のアイコンを含むトレー408、
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされる、ブラウザモジュール147用のアイコン420、及び
○「iPod」とラベル付けされる、iPod(Apple Inc.の商標)モジュール152とも称されるビデオ及び音楽プレーヤモジュール152用のアイコン422、及び
●下記などの、その他のアプリケーション用のアイコン、
○「メッセージ」とラベル付けされるIMモジュール141のためのアイコン424、
○「カレンダ」とラベル付けされる、カレンダモジュール148用のアイコン426、
○「写真」とラベル付けされる、画像管理モジュール144用のアイコン428、
○「カメラ」とラベル付けされる、カメラモジュール143用のアイコン430、
○「オンラインビデオ」とラベル付けされる、オンラインビデオモジュール155用のアイコン432、
○「株価」とラベル付けされる、株価ウィジェット149-2用のアイコン434、
○「地図」とラベル付けされる、地図モジュール154用のアイコン436、
○「天気」とラベル付けされる、天気ウィジェット149-1用のアイコン438、
○「時計」とラベル付けされる、アラーム時計ウィジェット149-4用のアイコン440、
○「トレーニングサポート」とラベル付けされる、トレーニングサポートモジュール142用のアイコン442、
○「メモ」とラベル付けされる、メモモジュール153用のアイコン444、及び
○デバイス100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、「設定」とラベル付けされる、設定アプリケーション若しくはモジュール用のアイコン446。
FIG. 4A illustrates an exemplary user interface for a menu of applications on portable multifunction device 100, according to some embodiments. A similar user interface is optionally implemented on device 300 . In some embodiments, user interface 400 includes the following elements, or subsets or supersets thereof.
- signal strength indicator(s) 402 for wireless communication(s) such as cellular and Wi-Fi signals;
Time 404,
- Bluetooth indicator 405,
- battery status indicator 406;
• a tray 408 containing icons for frequently used applications, such as;
o an icon 416 for the phone module 138, labeled "phone", optionally including an indicator 414 of the number of missed calls or voicemail messages;
o an icon 418 for the email client module 140, labeled "Mail", optionally including an indicator 410 of the number of unread emails;
o icon 420 for browser module 147, labeled "Browser"; and o for video and music player module 152, also referred to as iPod (trademark of Apple Inc.) module 152, labeled "iPod". icon 422, and icons for other applications, such as:
o icon 424 for IM module 141 labeled "message";
o icon 426 for calendar module 148, labeled "calendar";
o an icon 428 for the image management module 144, labeled "Photos";
o icon 430 for camera module 143, labeled "Camera";
o icon 432 for online video module 155, labeled "online video";
o icon 434 for stock price widget 149-2, labeled "stock price";
o icon 436 for map module 154, labeled "Map";
o icon 438 for weather widget 149-1, labeled "weather";
o icon 440 for alarm clock widget 149-4, labeled "clock";
o icon 442 for training support module 142, labeled "Training Support";
o Icon 444 for notes module 153, labeled "Notes"; and o Settings application or module, labeled "Settings", that provides access to settings for device 100 and its various applications 136. icon 446 for.

図4Aに示されるアイコンのラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152用のアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる。他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。一部の実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。 Note that the icon labels shown in FIG. 4A are merely exemplary. For example, icon 422 for video and music player module 152 is labeled "music" or "music player." Other labels are optionally used for various application icons. In some embodiments, the label for each application icon includes the name of the application corresponding to each application icon. In some embodiments, the label of a particular application icon is different than the name of the application corresponding to the particular application icon.

図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を備えるデバイス(例えば、図3のデバイス300)上の、例示的なユーザインターフェースを示す。デバイス300はまた、タッチ感知面451上の接触の強度を検出するための1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)及び/又はデバイス300のユーザに対して触知出力を生成するための1つ以上の触知出力生成器357を任意選択的に含む。 FIG. 4B is an illustration on a device (eg, device 300 of FIG. 3) with a touch-sensitive surface 451 (eg, tablet or touchpad 355 of FIG. 3) separate from display 450 (eg, touchscreen display 112). a typical user interface. Device 300 may also include one or more contact intensity sensors (eg, one or more of sensors 359 ) for detecting the intensity of contact on touch-sensitive surface 451 and/or a tactile sensor for a user of device 300 . Optionally includes one or more tactile output generators 357 for generating output.

以下の実施例のうちのいくつかはタッチスクリーンディスプレイ112上での入力(タッチ感知面とディスプレイとが組み合わされている場合)を参照して説明されるが、一部の実施形態では、デバイスは、図4Bに示されるように、ディスプレイとは別個のタッチ感知面上での入力を検出する。一部の実施形態では、このタッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bの453)に対応する主軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、タッチ感知面451との接触(例えば、図4Bの460及び462)を、ディスプレイ上のそれぞれの場所に対応する場所(例えば、図4Bでは、460は468に対応し、462は470に対応する)にて検出する。このように、タッチ感知面がディスプレイとは別個のものである場合、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されたユーザ入力(例えば、接触460及び462、並びにそれらの移動)が、多機能デバイスのディスプレイ(例えば、図4Bでの450)上のユーザインターフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインターフェースに任意選択的に使用されることを理解されたい。 Although some of the examples below are described with reference to input on the touch screen display 112 (where the touch sensitive surface and display are combined), in some embodiments the device , detects input on a touch-sensitive surface separate from the display, as shown in FIG. 4B. In some embodiments, this touch-sensitive surface (eg, 451 in FIG. 4B) has a major axis (eg, 452 in FIG. 4B) that corresponds to a major axis (eg, 453 in FIG. 4B) on the display (eg, 450). have According to these embodiments, the device registers contact with touch-sensitive surface 451 (eg, 460 and 462 in FIG. 4B) at corresponding locations on the display (eg, 460 is 468 in FIG. 4B). , and 462 corresponds to 470). Thus, if the touch-sensitive surface is separate from the display, user input (e.g., contacts 460 and 462 and their movement) detected by the device on the touch-sensitive surface (e.g., 451 in FIG. 4B) ) is used by the device to operate the user interface on the multifunction device's display (eg, 450 in FIG. 4B). It should be appreciated that similar methods are optionally used for other user interfaces described herein.

更に加えて、以下の実施例は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャ)を参照して説明されるが、いくつかの実施形態では、それらの指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスに基づく入力又はスタイラス入力)で置き換えられることを理解されたい。例えば、スワイプジェスチャは、マウスクリックと任意選択的に置き換えられ(例えば、接触の代わりに)、その後、スワイプの経路に沿って(例えば、接触の移動の代わりに)カーソルの移動が行われる。別の例として、タップジェスチャは任意選択で、カーソルがタップジェスチャの位置の上に位置する間のマウスクリックと置き換えられる(例えば、接触の検出、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスは任意選択で同時に使用され、又はマウス及び指の接触が任意選択で同時に使用されることを理解されたい。 Additionally, although the following examples are described primarily with reference to finger input (e.g., finger contact, finger tap gesture, finger swipe gesture), in some embodiments, those finger inputs It should be appreciated that one or more of the inputs may be replaced with input from another input device (eg, mouse-based or stylus input). For example, a swipe gesture is optionally replaced with a mouse click (eg, instead of contact) followed by cursor movement along the path of the swipe (eg, instead of contact movement). As another example, a tap gesture is optionally replaced with a mouse click while the cursor is positioned over the location of the tap gesture (eg, instead of detecting contact and subsequently stopping detecting contact). Similarly, when multiple user inputs are detected simultaneously, it should be understood that multiple computer mice are optionally used simultaneously, or mouse and finger contact are optionally used simultaneously.

図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~図4B)に関して記載した特徴のうちの一部又はすべてを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以後、タッチスクリーン504とする、を有する。タッチスクリーン504の代わりに、又はそれに追加して、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及びデバイス300と同様に、一部の実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出するための1つ以上の強度センサを有する。タッチスクリーン504(又は、タッチ感知面)の1つ以上の強度センサは、タッチの強度を表現する出力データを提供することができる。デバイス500のユーザインターフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチは、デバイス500上で異なるユーザインターフェース動作を呼び出すことができることを意味する。 FIG. 5A shows an exemplary personal electronic device 500. As shown in FIG. Device 500 includes body 502 . In some embodiments, device 500 can include some or all of the features described with respect to devices 100 and 300 (eg, FIGS. 1A-4B). In some embodiments, device 500 has a touch-sensitive display screen 504, hereinafter touch screen 504. FIG. Alternatively, or in addition to touchscreen 504, device 500 has a display and a touch-sensitive surface. As with device 100 and device 300, in some embodiments, touch screen 504 (or touch-sensitive surface) optionally includes a 1D sensor for detecting the intensity of contact (eg, touch) being applied. have one or more intensity sensors. One or more intensity sensors of touch screen 504 (or touch-sensitive surface) can provide output data representing the intensity of the touch. The user interface of device 500 can respond to touches based on the intensity of the touch, meaning that different intensity touches can invoke different user interface operations on device 500 .

タッチ強度を検出して処理するための例示的な技術は、例えば、関連出願である、2013年5月8日出願の「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」と題された国際特許出願第PCT/US2013/040061号(国際公開第2013/169849号として公開)、及び2013年11月11日出願の「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」と題された同第PCT/US2013/069483号(国際公開第2014/105276号として公開)に見られ、これらの文献のそれぞれは、全体が参照により本明細書に組み込まれる。 Exemplary techniques for detecting and processing touch strength are described, for example, in related application "Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application," filed May 8, 2013. International Patent Application PCT / US2013 / 040061 (released as international open to 2013/169849) and "Device, Method, And GRAPHICAL USER Interfac". E for TRANSITIONG BETWEEN TOUCH INPUT TO PCT/US2013/069483 (published as WO 2014/105276) entitled Display Output Relationships, each of which is hereby incorporated by reference in its entirety.

一部の実施形態では、デバイス500は、1つ以上の入力機構506及び入力機構508を有する。入力機構506及び508は、含まれる場合には、物理的なものとすることができる。物理入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。かかるアタッチメント機構は、含まれる場合には、例えば、デバイス500を、帽子、アイウェア、イヤリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計バンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどに、取り付けることを可能に得る。これらのアタッチメント機構は、ユーザによってデバイス500が着用されることを可能にする。 In some embodiments, device 500 has one or more input mechanisms 506 and 508 . Input mechanisms 506 and 508, if included, may be physical. Examples of physical input mechanisms include push buttons and rotatable mechanisms. In some embodiments, device 500 has one or more attachment mechanisms. Such attachment mechanisms, if included, may, for example, attach device 500 to hats, eyewear, earrings, necklaces, shirts, jackets, bracelets, watch bands, chains, pants, belts, shoes, purses, backpacks, etc. Get ready to install. These attachment mechanisms allow device 500 to be worn by a user.

図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、図1A、図1B及び図3に関して記載した構成要素の一部又はすべてを含むことができる。デバイス500は、I/O部514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/O部514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に、強度センサ524(例えば、接触強度センサ)と、を有し得る。更に、I/O部514は、Wi-Fi、Bluetooth、近距離通信(NFC)、セルラー及び/又は他の無線通信技術を使用して、アプリケーション及びオペレーティングシステムのデータを受信するための通信ユニット530に接続し得る。デバイス500は、入力機構506及び/又は入力機構508を含むことができる。入力機構506は、任意選択的に、例えば、回転可能入力デバイス、又は押下可能かつ回転可能な入力デバイスである。入力機構508は、任意選択的に、一部の実施例では、ボタンである。 FIG. 5B shows an exemplary personal electronic device 500. As shown in FIG. In some embodiments, device 500 can include some or all of the components described with respect to FIGS. Device 500 has a bus 512 operably coupling I/O section 514 to one or more computer processors 516 and memory 518 . The I/O section 514 can be connected to a display 504, which can have a touch sensing component 522 and, optionally, an intensity sensor 524 (eg, a contact intensity sensor). Additionally, the I/O section 514 includes a communication unit 530 for receiving application and operating system data using Wi-Fi, Bluetooth, Near Field Communication (NFC), cellular and/or other wireless communication technologies. can connect to Device 500 may include input mechanism 506 and/or input mechanism 508 . Input mechanism 506 is optionally, for example, a rotatable input device or a depressible and rotatable input device. Input mechanism 508 is optionally a button in some examples.

入力機構508は、任意選択的に、一部の実施例では、マイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538及び/又はこれらの組み合わせなどの、様々なセンサを含むものであり、それらのすべては、I/O部514に動作可能に接続できる。 Input mechanism 508 is optionally, in some implementations, a microphone. Personal electronic device 500 optionally includes various sensors such as GPS sensor 532, accelerometer 534, orientation sensor 540 (eg, compass), gyroscope 536, motion sensor 538, and/or combinations thereof. , all of which are operably connectable to I/O section 514 .

パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶するための1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、それらの命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、コンピュータプロセッサに、プロセス700、900、1000、1100、1200、及び1400(図7、図9A、図9B、図10A、図10B、図11A、図11B、図12A、図12B、図14A、及び図14B)を含む、以下に説明する技術を実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置若しくはデバイスによって、又はこれらと関連して使用するためのコンピュータ実行可能命令を有形的に収容又は記憶することができる、任意の媒体とすることができる。いくつかの例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体には、磁気的記憶装置、光学的記憶装置及び/又は半導体記憶装置を挙げることができるが、これらに限定されない。そのような記憶装置の例には、磁気ディスク、CD、DVD又はBlu-ray(登録商標)技術に基づく光ディスク、及び、フラッシュ、ソリッドステートドライブなどの永続的ソリッドステートメモリが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の構成要素又は追加的構成要素を、複数の構成で含み得る。 Memory 518 of personal electronic device 500 may include one or more non-transitory computer-readable storage media for storing computer-executable instructions, which are executed by one or more computer processors 516. 1000, 1100, 1200, and 1400 (FIGS. 7, 9A, 9B, 10A, 10B, 11A, 11B, 12A, 12B, The techniques described below, including FIGS. 14A and 14B, may be implemented. A computer-readable storage medium can be any medium capable of tangibly containing or storing computer-executable instructions for use by or in connection with an instruction-execution system, apparatus, or device. In some examples the storage medium is a temporary computer readable storage medium. In some examples the storage medium is a non-transitory computer-readable storage medium. Non-transitory computer-readable storage media can include, but are not limited to, magnetic storage devices, optical storage devices, and/or semiconductor storage devices. Examples of such storage devices include magnetic disks, CDs, DVDs or optical disks based on Blu-ray® technology, and persistent solid state memories such as flash, solid state drives. Personal electronic device 500 is not limited to the components and configuration of FIG. 5B, but may include other or additional components in multiple configurations.

本明細書において使用するとき、用語「アフォーダンス」は、デバイス100、300及び/又は500(図1A、図3及び図5A~図5B)のディスプレイ画面上に任意選択的に表示されるユーザ対話式のグラフィカルユーザインターフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン及びテキスト(例えば、ハイパーリンク)はそれぞれ、任意選択的に、アフォーダンスを構成する。 As used herein, the term “affordance” refers to a user-interactive refers to a graphical user interface object in For example, images (eg, icons), buttons and text (eg, hyperlinks) each optionally constitute affordances.

本明細書において使用するとき、用語「フォーカスセレクタ」は、ユーザが対話しているユーザインターフェースの現在の部分を示す入力要素を指す。カーソル又は他の位置マーカを含む一部の実現例において、タッチ感知面(例えば、図3のタッチパッド355、又は図4Bのタッチ感知面451)上で入力(例えば、押圧入力)が検出されたときに、カーソルが特定のユーザインターフェース要素(例えば、ボタン、ウィンドウ、スライダー、又は他のユーザインターフェース要素)の上にある間に、カーソルは「フォーカスセレクタ」として機能し、特定のユーザインターフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインターフェース要素との直接的な対話を可能にする、タッチスクリーンディスプレイ(例えば、図1Aでのタッチ感知ディスプレイシステム112、又は図4Aでのタッチスクリーン112)を含む一部の実現例では、タッチスクリーン上で検出される接触が「フォーカスセレクタ」としての役割を果たすことにより、入力(例えば、接触による押圧入力)が、タッチスクリーンディスプレイ上の特定のユーザインターフェース要素(例えば、ボタン、ウィンドウ、スライダー、又は他のユーザインターフェース要素)の場所で検出されると、その特定のユーザインターフェース要素が、検出された入力に従って調節される。いくつかの実現形態では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、(例えば、タブキー又は矢印キーを使用してフォーカスを1つのボタンから別のボタンに移動させることによって)ユーザインターフェースの1つの領域からユーザインターフェースの別の領域にフォーカスが移動され、これらの実現形態では、フォーカスセレクタは、ユーザインターフェースの異なる領域の間のフォーカスの移動に従って移動する。フォーカスセレクタによってとられる具体的な形態とは関わりなく、フォーカスセレクタは、全般的に、ユーザの意図したユーザインターフェースとの対話を通信するために(例えば、ユーザが対話することを意図しているユーザインターフェースの要素をデバイスに示すことによって)、ユーザによって制御されるユーザインターフェース要素(又はタッチスクリーンディスプレイ上の接触)である。例えば、押圧入力がタッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で検出された間に、対応するボタンの上にあるフォーカスセレクタ(例えば、カーソル、接触又は選択ボックス)の位置は、(デバイスのディスプレイ上に示されている他のユーザインターフェース要素ではなく)対応するボタンをユーザがアクティブ化しようとしていることを示すものである。 As used herein, the term "focus selector" refers to an input element that indicates the current portion of the user interface with which the user is interacting. In some implementations that include a cursor or other position marker, an input (eg, press input) is detected on a touch-sensitive surface (eg, touchpad 355 of FIG. 3 or touch-sensitive surface 451 of FIG. 4B) Sometimes, while the cursor is over a particular user interface element (e.g., a button, window, slider, or other user interface element), the cursor acts as a "focus selector" and the particular user interface element Adjusted according to the detected input. Some implementations include a touchscreen display (eg, touch-sensitive display system 112 in FIG. 1A or touchscreen 112 in FIG. 4A) that allows direct interaction with user interface elements on the touchscreen display. In an example, a touch detected on a touchscreen acts as a "focus selector" such that input (e.g., press input from touch) is directed to a specific user interface element (e.g., button, window, slider, or other user interface element), that particular user interface element is adjusted according to the detected input. In some implementations, without corresponding cursor movement or contact movement on the touch screen display (e.g., by using the tab or arrow keys to move focus from one button to another). Focus is moved from one area of the user interface to another area of the user interface, and in these implementations the focus selector moves according to the movement of focus between different areas of the user interface. Regardless of the specific form taken by the focus selector, it is generally used to communicate the user's intended interaction with the user interface (e.g., the user interface with which the user intends to interact). A user interface element (or a touch on a touch screen display) that is controlled by the user (by presenting the element of the interface to the device). For example, while a press input is detected on a touch-sensitive surface (e.g., a touchpad or touchscreen), the position of the focus selector (e.g., cursor, touch or selection box) over the corresponding button may indicates that the user is activating the corresponding button (rather than other user interface elements shown on the display of the ).

本明細書及び特許請求の範囲において使用するとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく接触の特性を指す。一部の実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、予め定義された数の強度サンプル、あるいは予め定義されたイベントに対する(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度における増大を検出する前若しくは後、及び/又は接触の強度における減少を検出する前若しくは後)予め定められた時間期間の間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)に収集された強度サンプルのセットに任意選択的に基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均値(mean value)、接触の強度の平均値(average value)、接触の強度の上位10%値、接触の強度の最大値の半分の値、接触の強度の最大値の90%の値など、のうちの1つ以上に基づく。いくつかの実施形態では、特性強度を判定するために、(例えば、特性強度が経時的な接触の強度の平均であるとき)接触の持続期間が使用される。一部の実施形態では、動作がユーザによって実行されたか否かを判定するために、特性強度を1つ以上の強度閾値のセットと比較する。例えば、1つ以上の強度閾値のセットは、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この実施例では、第1の閾値を越えない特性強度を有する接触の結果として第1の動作が実行され、第1の強度閾値を越え、第2の強度閾値を越えない特性強度を有する接触の結果として第2の動作が実行され、第2の閾値を越える特性強度を有する接触の結果として第3の動作が実行される。一部の実施形態では、特性強度と1つ以上の閾値との間の比較が、第1の動作又は第2の動作のいずれを実行するかを判定するために使用されるのではなく、1つ以上の動作を実行するか否か(例えば、各動作を実行するのか、又は各動作の実行を見合わせるのか)を判定するために使用される。 As used herein and in the claims, the term "characteristic strength" of contact refers to a characteristic of contact based on one or more strengths of contact. In some embodiments, the characteristic intensity is based on multiple intensity samples. The characteristic intensity can be a predefined number of intensity samples, or for a predefined event (e.g., after detecting contact, before detecting lift-off of the contact, before or after detecting the start of movement of the contact, before detecting the end of the contact, before or after detecting an increase in the intensity of the contact, and/or before or after detecting a decrease in the intensity of the contact) for a predetermined time period (e.g., 0.05, 0 .1, 0.2, 0.5, 1, 2, 5, 10 seconds). The characteristic strength of contact is optionally a maximum strength of contact, a mean value of strength of contact, an average value of strength of contact, an average value of strength of contact, a top 10% value of strength of contact, a contact based on one or more of half the maximum strength of the contact, 90% of the maximum strength of contact, and so on. In some embodiments, the duration of contact is used to determine the characteristic strength (eg, when the characteristic strength is the average strength of the contact over time). In some embodiments, the characteristic intensity is compared to a set of one or more intensity thresholds to determine if the action was performed by the user. For example, the set of one or more intensity thresholds optionally includes a first intensity threshold and a second intensity threshold. In this example, the first action is performed as a result of a contact having a characteristic intensity that does not exceed the first threshold, and the contact having a characteristic intensity that exceeds the first intensity threshold and does not exceed the second intensity threshold. A second action is performed as a result, and a third action is performed as a result of a contact having a characteristic strength exceeding a second threshold. In some embodiments, rather than the comparison between the characteristic strength and one or more thresholds being used to determine whether to perform the first action or the second action, It is used to determine whether to perform one or more actions (eg, to perform each action or to forgo each action).

いくつかの実施形態では、特性強度を判定する目的で、ジェスチャの一部が特定される。例えば、タッチ感知面は、任意選択的に、接触の強度が増加する、開始位置から遷移して終了位置まで達する連続的なスワイプ接触を受け取る。この実施例では、終了位置における接触の特性強度は、任意選択的に、連続的なスワイプ接触全体ではなく、そのスワイプ接触の一部分のみ(例えば、終了位置におけるスワイプ接触の部分のみ)に基づく。一部の実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムをそのスワイプ接触の強度に適用する。例えば、平滑化アルゴリズムは任意選択で、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。一部の状況では、これらの平滑化アルゴリズムは、特性強度を判定する目的で、スワイプ接触の強度における小幅な上昇又は低下を除去する。 In some embodiments, a portion of the gesture is identified for purposes of determining characteristic strength. For example, the touch-sensitive surface optionally receives successive swipe contacts transitioning from a starting position to an ending position with increasing strength of the contact. In this example, the characteristic strength of a contact at the end location is optionally based on only a portion of that swipe contact (eg, only the portion of the swipe contact at the end location) rather than the entire continuous swipe contact. In some embodiments, a smoothing algorithm is optionally applied to the strength of the swipe contact prior to determining the characteristic strength of the contact. For example, the smoothing algorithms optionally include one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and/or an exponential smoothing algorithm. In some situations, these smoothing algorithms remove small increases or decreases in the strength of swipe contacts for purposes of determining characteristic strength.

タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押圧強度閾値、深い押圧強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けする。いくつかの実施形態では、軽い押圧強度閾値は、物理マウスのボタン又はトラックパッドをクリックすることと一般的に関連付けられた操作をデバイスが実行する強度に対応する。一部の実施形態では、深い押圧強度閾値は、物理マウスのボタン又はトラックパッドをクリックすることと典型的に関連付けられた操作とは異なる操作をデバイスが実行する強度に対応する。一部の実施形態では、軽い押圧強度閾値を下回る(例えば、かつ、それを下回ると接触がもはや検出されないわずかな接触検出強度閾値を上回る)特性強度で接触が検出される場合、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従って、フォーカスセレクタを移動させる。全般的には、特に明記しない限り、これらの強度閾値は、ユーザインターフェース図の異なるセット間でも一貫している。 The intensity of contact on the touch-sensitive surface is optionally scaled to one or more intensity thresholds, such as a touch detection intensity threshold, a light press intensity threshold, a deep press intensity threshold, and/or one or more other intensity thresholds. characterize against. In some embodiments, the light pressure intensity threshold corresponds to the intensity with which the device performs operations commonly associated with clicking a physical mouse button or trackpad. In some embodiments, the deep press intensity threshold corresponds to the intensity at which the device performs operations that differ from those typically associated with clicking a physical mouse button or trackpad. In some embodiments, if touch is detected with a characteristic intensity below a light pressure intensity threshold (e.g., and above a slight touch detection intensity threshold below which touch is no longer detected), the device detects a light pressure. A focus selector is moved according to the movement of the contact on the touch-sensitive surface without performing the actions associated with the pressure intensity threshold or the deep pressure intensity threshold. Generally, unless otherwise stated, these intensity thresholds are consistent across different sets of user interface diagrams.

軽い押圧強度閾値を下回る強度から、軽い押圧強度閾値と深い押圧強度閾値との間の強度への接触の特性強度の増大は、「軽い押圧」入力と呼ばれる場合がある。深い押圧強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への接触の特性強度の増大は、「深い押圧」入力と呼ばれる場合がある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれる場合がある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれる場合がある。いくつかの実施形態では、接触検出強度閾値はゼロである。いくつかの実施形態では、接触検出強度閾値はゼロより大きい。 Increasing the characteristic strength of a contact from an intensity below the light pressure threshold to an intensity between the light pressure threshold and the deep pressure threshold may be referred to as a "light pressure" input. Increasing the characteristic strength of a contact from an intensity below the deep pressure threshold to an intensity above the deep pressure threshold is sometimes referred to as a "deep pressure" input. Increasing the characteristic strength of a touch from an intensity below the touch detection intensity threshold to an intensity between the touch detection intensity threshold and the light pressure intensity threshold may be referred to as detecting contact on the touch surface. A decrease in the characteristic strength of the contact from an intensity above the contact detection intensity threshold to an intensity below the contact detection intensity threshold may be referred to as detecting lift-off of the contact from the touch surface. In some embodiments, the contact detection strength threshold is zero. In some embodiments, the contact detection intensity threshold is greater than zero.

本明細書で説明される一部の実施形態では、1つ以上の操作は、それぞれの押圧入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(又は、複数の接触)で実行されるそれぞれの押圧入力を検出したことに応じて実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は、複数の接触)の強度における増大を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押圧入力強度閾値を上回る、それぞれの接触の強度の増大(例えば、それぞれの押圧入力の「ダウンストローク」)の検出に応じて実行される。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及び後続の押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、後続の押圧入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)の検出に応じて実行される。 In some embodiments described herein, one or more operations are performed in response to detecting a gesture comprising a respective press input or on a respective contact (or multiple contacts). and each pressure input is based at least in part on detecting an increase in the intensity of the contact (or contacts) above a pressure input intensity threshold. detected. In some embodiments, the respective action is performed in response to detecting an increase in the strength of the respective contact (eg, a "downstroke" of the respective pressure input) above a pressure input strength threshold. In some embodiments, the pressure input includes increasing the strength of each contact above the pressure input strength threshold and subsequently decreasing the strength of the contact below the pressure input strength threshold, wherein each action is Execution is performed in response to detection of a decrease in the strength of the respective touch below the input threshold (eg, an "upstroke" of the respective pressure input).

いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある不測の入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との予め定義された関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりもX強度単位低いか、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な比率である)。よって、いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及び後続の押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、そのヒステリシス強度閾値を下回る後続のそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)の検出に応じて実行される。同様に、いくつかの実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、ヒステリシス強度以下の強度への後続の接触の強度の減少を検出するときのみ検出され、それぞれの動作は、その押圧入力の検出(例えば、状況に応じて、接触の強度の増大、又は接触の強度の減少)に応じて実行される。 In some embodiments, the device employs intensity hysteresis to avoid unintended inputs, sometimes referred to as "jitter," wherein the device has a hysteresis intensity that has a predefined relationship with a pressing input intensity threshold. Define or select a threshold (e.g., the hysteresis intensity threshold is X intensity units below the pressure input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable ratio of the pressure input intensity threshold ). Thus, in some embodiments, the pressure input includes an increase in strength of each contact above a pressure input strength threshold and a decrease in strength of contacts below a hysteresis strength threshold corresponding to subsequent pressure input strength thresholds, A respective action is performed in response to detection of a subsequent decrease in the strength of the respective contact below its hysteresis strength threshold (eg, an "upstroke" of the respective pressure input). Similarly, in some embodiments, a pressure input causes the device to increase the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, and optionally an intensity below the hysteresis intensity. Each action is detected only when it detects a decrease in the intensity of subsequent contact with the is executed.

説明を容易にするために、押圧入力強度閾値と関連付けられた押圧入力に応じて、又は押圧入力を含むジェスチャに応じて実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応じてトリガされる。加えて、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて動作が実行されるとして説明される実施例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。 For ease of explanation, descriptions of actions performed in response to a pressure input associated with a pressure input intensity threshold, or in response to a gesture involving a pressure input, are optionally described as above the pressure input intensity threshold. increasing the intensity of the contact, increasing the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, decreasing the intensity of the contact below the pressure input intensity threshold, and/or corresponding to the pressure input intensity threshold. Triggered in response to detecting any decrease in the intensity of the touch below the hysteresis intensity threshold. Additionally, in embodiments described as performing an action in response to detecting a decrease in the strength of a contact below a pressure input strength threshold, the action optionally corresponds to the pressure input strength threshold, and in response to detecting a decrease in the intensity of the touch below a lower hysteresis intensity threshold.

ここで、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実施されるユーザインターフェース(「UI」)及び関連処理の実施形態に着目する。 Attention is now directed to embodiments of the user interface (“UI”) and associated processing implemented on an electronic device such as portable multifunction device 100 , device 300 or device 500 .

図6A~図6ANは、いくつかの実施形態に従って、アプリケーション(例えば、メッセージングアプリケーション)内のアバター間をナビゲートする例示的なユーザインターフェースを示している。これらの図のユーザインターフェースは、図7の処理を含む、以下で説明される処理を示すために使用される。 6A-6AN illustrate exemplary user interfaces for navigating between avatars within an application (eg, messaging application), according to some embodiments. The user interfaces of these figures are used to illustrate the processes described below, including the process of FIG.

図6Aは、ディスプレイ601を有するデバイス600を示しており、ディスプレイ601は、一部の場合にはタッチ感知ディスプレイである。いくつかの実施形態では、デバイス600は、光スペクトル(例えば、可視光、赤外光、又は紫外光)の一部を表すデータをキャプチャできる画像センサを少なくとも含んでいる、カメラ602も含む。いくつかの実施形態では、カメラ602は、複数の画像センサ及び/又はその他の種類のセンサを含む。いくつかの実施形態では、感知された光を表すデータをキャプチャすることに加えて、カメラ602は、深度データなどの他の種類のデータをキャプチャすることができる。例えば、いくつかの実施形態では、カメラ602は、スペックル、飛行時間、視差、又はフォーカスに基づく技術も使用して、深度データをキャプチャする。カメラ602を使用してデバイス600がキャプチャする画像データは、カメラの視野内のシーンについての光スペクトルの一部に対応するデータを含む。また、いくつかの実施形態では、キャプチャされた画像データは、光データに関する深度データも含む。いくつかの他の実施形態では、キャプチャされた画像データは、光スペクトルの一部のデータに関する深度データを決定又は生成するのに十分なデータを含む。いくつかの実施形態では、デバイス600は、デバイス100、デバイス300、又はデバイス500の1つ以上の特徴を含む。 FIG. 6A shows a device 600 having a display 601, which in some cases is a touch sensitive display. In some embodiments, device 600 also includes camera 602, which includes at least an image sensor capable of capturing data representing a portion of the light spectrum (eg, visible, infrared, or ultraviolet light). In some embodiments, camera 602 includes multiple image sensors and/or other types of sensors. In some embodiments, in addition to capturing data representing sensed light, camera 602 can capture other types of data, such as depth data. For example, in some embodiments, camera 602 also uses speckle, time-of-flight, parallax, or focus-based techniques to capture depth data. The image data captured by device 600 using camera 602 includes data corresponding to a portion of the light spectrum for the scene within the camera's field of view. In some embodiments, the captured image data also includes depth data related to the light data. In some other embodiments, the captured image data includes sufficient data to determine or generate depth data for the portion of the light spectrum. In some embodiments, device 600 includes one or more features of device 100 , device 300 , or device 500 .

いくつかの例では、電子デバイス600は、赤外線カメラ、サーモグラフィカメラ、又はこれらの組み合わせなどの深度カメラを含む。いくつかの実施例では、デバイスは、IRフラッド光、構造化光プロジェクタ、又はそれらの組み合わせなどの発光デバイス(例えば、光プロジェクタ)を更に含む。発光デバイスは、可視光カメラ及び深度カメラ(例えば、IRカメラ)によって画像をキャプチャするときに被写体を照らすために、任意選択的に使用され、深度カメラ及び可視光カメラからの情報は、可視光カメラによってキャプチャされた被写体の様々な部分の深度マップを決定するために使用される。いくつかの実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ)からのシーン内のオブジェクトの距離に関連する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、対応する二次元ピクセルが配置されている視点のZ軸での位置を定義する。いくつかの例では、深度マップは、各ピクセルが値(例えば、0~255)によって定義されているピクセルから成る。例えば、「0」の値は、「三次元」シーン内の最も遠い場所に配置されているピクセルを表し、「255」の値は、「三次元」シーン内の視点(例えば、カメラ)の最も近くに配置されているピクセルを表す。他の例では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。いくつかの実施形態では、深度マップは、深度カメラの視野内の対象のオブジェクトの様々な特徴の相対的な深さ(例えば、ユーザの顔の目、鼻、口、耳の相対的な深さ)に関する情報を含む。いくつかの実施形態では、深度マップは、デバイスがZ方向での対象のオブジェクトの輪郭を決定できるようにする情報を含む。いくつかの実施形態では、本明細書に記載された照明効果は、背面画像用の2つのカメラ(例えば、2つの可視光カメラ)からの視差情報を使用し、前面画像(例えば、自撮り画像)用の可視光カメラからの画像データと組み合わせて深度カメラからの深度情報を使用して、表示される。いくつかの実施形態では、深度情報を決定するために2つの可視光カメラが使用されるとき、及び深度情報を決定するために深度カメラが使用されるときに、同じユーザインターフェースが使用され、照明効果を生成するときに使用される情報を著しく異なる技術を使用して決定する場合でも、一貫性のあるユーザエクスペリエンスをユーザに提供する。いくつかの実施形態では、デバイスは、照明効果のうちの1つが適用されたカメラユーザインターフェースを表示している間に、カメラ切り替えアフォーダンスの選択を検出し、照明効果を適用するためのユーザインターフェース制御の表示を維持しながら、前面カメラの視野の表示を背面カメラの視野に(又はその逆に)置き換えて、前面カメラ(例えば、深度カメラ及び可視光カメラ)から背面カメラ(例えば、互いに離れて間隔が空けられた2つの可視光カメラ)に(又はその逆に)切り替える。 In some examples, electronic device 600 includes a depth camera, such as an infrared camera, a thermographic camera, or a combination thereof. In some examples, the device further includes a light emitting device (eg, light projector) such as an IR flood light, structured light projector, or a combination thereof. A light emitting device is optionally used to illuminate a subject when capturing images by a visible light camera and a depth camera (e.g., an IR camera), and information from the depth camera and the visible light camera is is used to determine depth maps of various parts of the subject captured by . In some embodiments, a depth map (eg, depth map image) includes information (eg, values) related to the distance of objects in a scene from a viewpoint (eg, camera). In one embodiment of the depth map, each depth pixel defines the Z-axis position of the viewpoint at which the corresponding two-dimensional pixel is located. In some examples, the depth map consists of pixels where each pixel is defined by a value (eg, 0-255). For example, a value of '0' represents the farthest located pixel in the '3D' scene, and a value of '255' represents the farthest point of view (e.g., camera) in the '3D' scene. Represents pixels that are located nearby. In another example, the depth map represents the distance between objects in the scene and the plane of the viewpoint. In some embodiments, the depth map is a representation of the relative depths of various features of the object of interest within the field of view of the depth camera (e.g., the relative depths of the eyes, nose, mouth, ears on the user's face). ). In some embodiments, the depth map contains information that allows the device to determine the contour of the object of interest in the Z direction. In some embodiments, the lighting effects described herein use parallax information from two cameras (e.g., two visible light cameras) for the rear image and the front image (e.g., selfie image). ) using the depth information from the depth camera in combination with the image data from the visible light camera for the display. In some embodiments, the same user interface is used when two visible light cameras are used to determine depth information and when a depth camera is used to determine depth information, lighting To provide users with a consistent user experience even when significantly different techniques are used to determine the information used when generating effects. In some embodiments, the device detects selection of a camera switching affordance while displaying a camera user interface with one of the lighting effects applied, and user interface controls for applying the lighting effect. Replace the display of the front camera's field of view with the rear camera's field of view (or vice versa) to space the front camera (e.g., depth camera and visible light camera) from the rear camera (e.g., spaced apart from each other) while maintaining the display of ) (or vice versa).

図6Aでは、デバイス600は、メッセージングアプリケーションのメッセージングユーザインターフェース603を表示している。メッセージングユーザインターフェース603は、メッセージ会話の参加者(受信者識別子606によって表される)に送信されたメッセージ605を含んでいるメッセージ表示領域604を含む。メッセージングユーザインターフェース603は、メッセージ会話の参加者に送信するための入力(例えば、テキスト入力、マルチメディア入力など)を表示するメッセージ作成フィールド608も含む。メッセージングユーザインターフェース603は、アプリケーションドックアフォーダンス610、キーボード表示領域612、及びテキスト候補領域614も含む。 In FIG. 6A, device 600 displays messaging user interface 603 of a messaging application. Messaging user interface 603 includes message display area 604 containing message 605 sent to a participant in the message conversation (represented by recipient identifier 606). The messaging user interface 603 also includes a message composition field 608 that displays input (eg, text input, multimedia input, etc.) to send to participants in the message conversation. Messaging user interface 603 also includes application dock affordance 610 , keyboard display area 612 , and text candidate area 614 .

図6Bで、デバイス600は、アプリケーションドックアフォーダンス610に対応する位置で入力616(例えば、ディスプレイ601上のタッチ入力)を検出する。 In FIG. 6B, device 600 detects input 616 (eg, touch input on display 601) at a location corresponding to application dock affordance 610. In FIG.

図6Cで、デバイス600は、入力616を検出することに応じて、テキスト候補領域614を、様々なアプリケーションに対応するアプリケーションアフォーダンス620を有するアプリケーションドック618に置き換える。また、デバイス600は、キーボード表示領域612を、アプリケーションアフォーダンスのうちの選択された1つに対応するアプリケーションユーザインターフェースを表示するアプリケーション表示領域622に置き換える。 In FIG. 6C, in response to detecting input 616, device 600 replaces text candidate region 614 with application dock 618 having application affordances 620 corresponding to various applications. Device 600 also replaces keyboard display area 612 with application display area 622 that displays an application user interface corresponding to the selected one of the application affordances.

図6Dで、デバイス600は、アプリケーションアフォーダンス620aを選択する入力624(例えば、アプリケーションアフォーダンス620aに対応する位置でのディスプレイ601上のタッチ入力)を検出する。 In FIG. 6D, device 600 detects input 624 (eg, touch input on display 601 at a location corresponding to application affordance 620a) selecting application affordance 620a.

図6Eで、デバイス600は、入力624を検出することに応じて、アプリケーションドック618及びアプリケーション表示領域622を、例示的なアバター628を有するアバタースプラッシュスクリーン626に置き換える。例示的なアバターは、例示的なカスタマイズ可能なアバター628a及び例示的なカスタマイズ不可のアバター628bを含む。図6Eに示された実施形態では、カスタマイズ可能なアバター628aがカスタマイズ不可のアバター628bの上に配置されている。いくつかの実施形態では、アバタースプラッシュスクリーン626は、顔面表情を動かして変更し、互いに対話する(例えば、互いに話す、ウィンクする、笑う、ほほ笑むなどを行っているように見える)例示的なアバターの外観を与える、例示的なアバター628のアニメーション表示を含む。いくつかの実施形態では、デバイス600は、アプリケーションアフォーダンス620aが最初に選択されたとき、又はカスタマイズ可能なアバターが作成されていないときにのみ、アバタースプラッシュスクリーン626を表示する。いくつかの実施形態では、アバタースプラッシュスクリーン626が表示されていないときに、デバイス600は、例えば縮小されたアバター選択インターフェース668(図6L及び下の対応する説明を参照)などの、アバター選択インターフェースを任意選択的に表示する。 In FIG. 6E, device 600 replaces application dock 618 and application display area 622 with avatar splash screen 626 with exemplary avatar 628 in response to detecting input 624 . Exemplary avatars include exemplary customizable avatar 628a and exemplary non-customizable avatar 628b. In the embodiment shown in FIG. 6E, customizable avatar 628a is positioned above non-customizable avatar 628b. In some embodiments, the avatar splash screen 626 displays a selection of exemplary avatars that move and change facial expressions to interact with each other (e.g., appear to talk to each other, wink, laugh, smile, etc.). Includes an animated representation of an exemplary avatar 628 that provides appearance. In some embodiments, device 600 displays avatar splash screen 626 only when application affordance 620a is first selected or when no customizable avatar has been created. In some embodiments, when the avatar splash screen 626 is not displayed, the device 600 displays an avatar selection interface, such as a reduced avatar selection interface 668 (see FIG. 6L and corresponding description below). Optionally display.

いくつかの実施形態では、仮想アバターは、グラフィカルに描画され得るユーザの表現(例えば、ユーザのグラフィック表現)である。いくつかの実施形態では、仮想アバターは非写実的(例えば、漫画的)である。いくつかの実施形態では、仮想アバターは、1つ以上のアバター特徴部(例えば、アバター顔の特徴)を有するアバターの顔を含む。いくつかの実施形態では、アバター特徴部は、ユーザの物理的特徴の検出された(例えば、深度感知カメラなどのカメラに基づいて決定された)動きが、アバター特徴部に影響を与える(例えば、特徴のグラフィック表現に影響を与える)ように、ユーザの顔の1つ以上の物理的特徴に対応する(例えば、マッピングされる)。 In some embodiments, the virtual avatar is a representation of the user that can be graphically rendered (eg, a graphical representation of the user). In some embodiments, the virtual avatar is non-photorealistic (eg, cartoonish). In some embodiments, the virtual avatar includes an avatar face having one or more avatar features (eg, avatar facial features). In some embodiments, avatar features are such that detected (eg, determined based on a camera, such as a depth-sensing camera) movement of a physical feature of the user affects the avatar feature (eg, correspond to (eg, be mapped to) one or more physical features of the user's face so as to affect the graphical representation of the features).

いくつかの例では、ユーザは、カメラセンサ(例えば、カメラモジュール143、光センサ164)、及び任意選択的に深度センサ(例えば、深度カメラセンサ175)を使用して、仮想アバターの特性又は特徴を操作することができる。ユーザの物理的特徴(顔の特徴など)及び位置(頭部の位置、頭部の回転、又は頭部の傾きなど)が変化したときに、電子デバイスはその変化を検出し、ユーザの物理的特徴及び位置の変化を反映するように仮想アバターの表示された画像を変更する。いくつかの実施形態では、ユーザの物理的特徴及び位置の変化は、様々な表情、感情、文脈、調子、又はその他の非言語的コミュニケーションを示す。いくつかの実施形態では、電子デバイスは、これらの表情、感情、文脈、調子、又はその他の非言語的コミュニケーションを表すように、仮想アバターの表示された画像を変更する。 In some examples, a user may use a camera sensor (eg, camera module 143, optical sensor 164), and optionally a depth sensor (eg, depth camera sensor 175) to determine properties or characteristics of a virtual avatar. can be manipulated. When a user's physical features (such as facial features) and position (such as head position, head rotation, or head tilt) change, the electronic device detects the changes and Change the displayed image of the virtual avatar to reflect the change in characteristics and position. In some embodiments, changes in the user's physical characteristics and position indicate various facial expressions, emotions, context, tone, or other non-verbal communication. In some embodiments, the electronic device modifies the displayed image of the virtual avatar to represent these facial expressions, emotions, context, tone, or other non-verbal communication.

いくつかの実施形態では、カスタマイズ可能なアバターは、例えば望ましい外観を実現するために(例えば、ユーザに似るように)、ユーザによって選択してカスタマイズすることができる仮想アバターである。カスタマイズ可能なアバターは、動物又はその他の人間以外のオブジェクトの擬人化された構成などの人間以外のキャラクターではなく、人間のキャラクターの外観を通常は有する。更に、アバター特徴部は、所望であれば、アバター編集ユーザインターフェース(例えば、図8A~図8CFに関して下で説明されるアバター編集ユーザインターフェースなど)を使用して、作成又は変更され得る。いくつかの実施形態では、カスタマイズ可能なアバターは、カスタマイズされた外観、物理的構造、又はモデル化された挙動を実現するために、作成及び構成され得る。 In some embodiments, a customizable avatar is a virtual avatar that can be selected and customized by a user, eg, to achieve a desired appearance (eg, to resemble the user). A customizable avatar typically has the appearance of a human character rather than a non-human character such as an anthropomorphic composition of an animal or other non-human object. Additionally, avatar features may be created or modified, if desired, using an avatar editing user interface (eg, such as the avatar editing user interface described below with respect to FIGS. 8A-8CF). In some embodiments, customizable avatars may be created and configured to achieve customized appearances, physical structures, or modeled behaviors.

いくつかの実施形態では、カスタマイズ不可のアバターは、ユーザによって選択することができるが、通常は基本的に構成可能ではなく、ただし、下で詳細に説明されているように、顔追跡によってそれらの外観を変更することができる。代わりに、カスタマイズ不可のアバターは、予め構成されており、ユーザによって変更可能な特徴構成要素を通常は有していない。いくつかの実施形態では、カスタマイズ不可のアバターは、動物又はその他の人間以外のオブジェクトの擬人化された構成などの、人間以外のキャラクターの外観を有する。カスタマイズ不可のアバターは、ユーザによって作成することができず、カスタマイズ不可のアバターの外観、物理的構造、又はモデル化された挙動の大幅な変更を実現するために、変更することもできない。 In some embodiments, non-customizable avatars can be selected by the user, but are typically not fundamentally configurable, although face tracking can determine their Appearance can be changed. Instead, non-customizable avatars are preconfigured and typically do not have user-modifiable feature components. In some embodiments, the non-customizable avatar has the appearance of a non-human character, such as an anthropomorphic composition of an animal or other non-human object. A non-customizable avatar cannot be created by a user, nor can it be modified to achieve significant changes in the non-customizable avatar's appearance, physical structure, or modeled behavior.

図6Fで、デバイス600は、続行アフォーダンス632上の入力630(例えば、ディスプレイ601上のタッチジェスチャ)を検出する。 In FIG. 6F, device 600 detects input 630 (eg, touch gesture on display 601) on continue affordance 632. In FIG.

図6Gで、デバイス600は、入力630を検出することに応じて、展開されたアバター選択インターフェース634を表示し、アバター選択インターフェース634は、メッセージングユーザインターフェース608のために(例えば、メッセージ会話の参加者に送信するために)選択できるアバターオプションの初期の集合を提供する。本明細書で説明される実施形態では、アバターは、(例えば、デバイスがユーザの顔の変化を検出することに応じて)変化を表示するようにアニメーション化され得る、仮想キャラクターの表現である。アバターは、そのアバターと同じ外観及び特性を有するアバターの静的表現である、アバターオプションに対応することができるが、通常はアニメーション化されない。アバターオプションは、通常はアバターの選択可能な表現である。アバターオプションが選択されたときに、多くの場合、対応するアバターが表示される。 In FIG. 6G, device 600 displays expanded avatar selection interface 634 in response to detecting input 630, which avatar selection interface 634 displays for messaging user interface 608 (e.g., message conversation participants). provides an initial set of avatar options to choose from. In the embodiments described herein, an avatar is a representation of a virtual character that can be animated to display changes (eg, in response to the device detecting changes in the user's face). Avatars can support avatar options, which are static representations of avatars that have the same appearance and characteristics as the avatar, but are typically not animated. Avatar options are typically selectable representations of an avatar. When an avatar option is selected, often the corresponding avatar is displayed.

展開されたアバター選択インターフェース634は、アバター表示領域636及びアバターオプション領域638を含む。アバターオプション領域638は、選択可能なアバターオプション640の集合を含む。選択されたアバターオプションは境界642によって示され、境界642は、図6Gでは、最初に選択されたサルアバターオプション640aの周囲に表示されている。選択されたアバターオプションは、アバター645としてアバター表示領域636内に表される(例えば、アバター645は、サルアバターオプション640aに対応するサルである)。各アバターオプション640は、個別のアバターオプションをタップすることによって選択され得る。これにより、デバイス600は、アバターオプション640のうちの異なる1つの選択を受信することに応じて、新しく選択されたアバターオプションを表すように、表示されたアバター645を変更し、境界642を選択されたアバターオプションに移動する。このようにして、デバイス600が一角獣アバターオプション640bの選択を検出した場合、デバイス600は、一角獣アバターオプション640bの周囲に境界642を表示し、一角獣アバターオプション640bに対応する一角獣として現れるように、アバター645を変更する。 Expanded avatar selection interface 634 includes avatar display area 636 and avatar options area 638 . Avatar options area 638 contains a collection of selectable avatar options 640 . The selected avatar option is indicated by a border 642, which is displayed in FIG. 6G around the initially selected monkey avatar option 640a. The selected avatar option is represented in avatar display area 636 as avatar 645 (eg, avatar 645 is a monkey corresponding to monkey avatar option 640a). Each avatar option 640 can be selected by tapping the individual avatar option. Thereby, in response to receiving a selection of a different one of avatar options 640, device 600 changes displayed avatar 645 to represent the newly selected avatar option, and selects border 642. Go to avatar options. Thus, when the device 600 detects selection of the unicorn avatar option 640b, the device 600 displays a border 642 around the unicorn avatar option 640b and directs the avatar to appear as the unicorn corresponding to the unicorn avatar option 640b. 645 is changed.

アバター表示領域636はキャプチャアフォーダンス644も含んでおり、キャプチャアフォーダンス644は、メッセージ会話(メッセージングユーザインターフェース603を参照)の参加者に送信するためのアバター645の画像をキャプチャするために、選択され得る。いくつかの実施形態では、キャプチャされる画像は、キャプチャアフォーダンス644で検出されたジェスチャの種類に応じて、静止画像又はビデオ記録である。例えば、デバイス600がキャプチャアフォーダンス644でタップジェスチャを検出した場合、デバイス600は、タップジェスチャが発生したときに、アバター645の静止画像をキャプチャする。デバイス600がキャプチャアフォーダンス644でタップアンドホールドジェスチャを検出した場合、デバイス600は、タップアンドホールドジェスチャが持続する期間の間に、アバター645のビデオ記録をキャプチャする。いくつかの実施形態では、指がアフォーダンスから離れたときに、ビデオ記録が停止する。いくつかの実施形態では、アフォーダンスに対応する位置でその後の入力(例えば、タップ入力)が検出されるまで、ビデオ記録が継続する。いくつかの実施形態では、アバター645のキャプチャされた画像(例えば、静止画像又はビデオ記録)は、その後、メッセージ作成フィールド608に挿入された後、メッセージ会話の参加者に送信される。いくつかの実施形態では、アバター645のキャプチャされた画像は、キャプチャされた画像をメッセージ作成フィールド608に挿入することなく、メッセージ会話の参加者に直接送信される。 Avatar display area 636 also includes capture affordance 644, which may be selected to capture an image of avatar 645 for transmission to participants in a message conversation (see messaging user interface 603). In some embodiments, the captured image is a still image or a video recording, depending on the type of gesture detected at capture affordance 644 . For example, if device 600 detects a tap gesture with capture affordance 644, device 600 captures a still image of avatar 645 when the tap gesture occurs. When device 600 detects a tap-and-hold gesture with capture affordance 644, device 600 captures a video recording of avatar 645 for the duration of the tap-and-hold gesture. In some embodiments, video recording stops when the finger leaves the affordance. In some embodiments, video recording continues until a subsequent input (eg, tap input) is detected at a location corresponding to the affordance. In some embodiments, the captured image (eg, still image or video recording) of avatar 645 is then inserted into message composition field 608 before being sent to participants in the message conversation. In some embodiments, the captured image of avatar 645 is sent directly to participants in the message conversation without inserting the captured image into message composition field 608 .

いくつかの実施形態では、デバイス600は、カメラ(例えば、カメラ602)の視野内に配置されたユーザの顔の移動及び位置(例えば、回転移動及び/又は並進移動)を追跡し、それに応じて、検出されたユーザの顔における変化に基づいてアバター645の外観を更新する(多くの場合、本明細書では「顔追跡」機能と呼ばれる)。例えば、図6Hに示されているように、デバイス600は、ユーザの顔における変化を(例えば、カメラ602を使用して)検出することに応じて、アバター645の外観を更新する。図6Hの例では、アバター645は、口を開き、目を広げて、傾いて表示されており、カメラ602の視野内に配置されたユーザの顔に類似する表情及び位置を反映している。アバター645に対するそのような変更は、キャプチャアフォーダンス644を使用してキャプチャされ、図6Aに示されているメッセージ会話の参加者に任意選択的に送信され得る。図6Hに示されているアバター645はカスタマイズ不可のアバターであるが、デバイス600は、同様の方法でカスタマイズ可能なアバターを変更することができる。 In some embodiments, device 600 tracks the movement and position (eg, rotational movement and/or translational movement) of a user's face placed within the field of view of a camera (eg, camera 602), and accordingly , updates the appearance of the avatar 645 based on detected changes in the user's face (often referred to herein as a “face tracking” feature). For example, as shown in FIG. 6H, device 600 updates the appearance of avatar 645 in response to detecting changes in the user's face (eg, using camera 602). In the example of FIG. 6H , avatar 645 is shown with an open mouth, widened eyes, and tilted to reflect a facial expression and position similar to the user's face placed within the field of view of camera 602 . Such changes to avatar 645 may be captured using capture affordance 644 and optionally sent to participants in the message conversation shown in FIG. 6A. Avatar 645 shown in FIG. 6H is a non-customizable avatar, but device 600 can change customizable avatars in a similar manner.

図6G~図6Iに示されている展開されたアバター選択インターフェースでは、アバターオプション領域638に表示されているすべてのアバターオプション640は、ユーザの即時選択のために予め構成されているカスタマイズ不可のアバターである。これは、カスタマイズ可能なアバターが作成されていないからである。しかし、図6Iに示されているように、デバイス600は、アバター作成アイコン648を選択するようユーザに促すために、アバター作成アイコン648から広がるアバター作成プロンプト646を表示し、ユーザがアバター作成アイコン648を選択すると、デバイス600は新しいカスタマイズ可能なアバターを作成する処理を開始し、その後、作成されたカスタマイズ可能なアバターは、アバターオプション領域638に追加することができ、任意選択的に、メッセージングユーザインターフェース603で使用することができる。アバター作成プロンプト646及びアバター作成アイコン648(図6Iでは「+」形状を有している)の表示された組み合わせは、ユーザが、アバター作成アイコン648を選択することによって、展開されたアバター選択インターフェース634及び図6Uのライブラリインターフェース686に追加され得るカスタマイズされたアバターを作成できるということを、ユーザに知らせる。 In the expanded avatar selection interface shown in FIGS. 6G-6I, all avatar options 640 displayed in avatar options area 638 are preconfigured non-customizable avatars for immediate user selection. is. This is because no customizable avatar has been created. However, as shown in FIG. 6I, the device 600 displays a create avatar prompt 646 extending from the create avatar icon 648 to prompt the user to select the create avatar icon 648 and prompts the user to select the create avatar icon 648 . is selected, the device 600 begins the process of creating a new customizable avatar, after which the created customizable avatar can be added to the avatar options area 638 and, optionally, the messaging user interface 603 can be used. The displayed combination of the create avatar prompt 646 and the create avatar icon 648 (having a “+” shape in FIG. 6I ) prompts the user to expand the avatar selection interface 634 by selecting the create avatar icon 648 . and inform the user that they can create a customized avatar that can be added to the library interface 686 of FIG. 6U.

いくつかの実施形態では、アバター作成プロンプト646はわずかな遅延の後に現れ、出現する様々なカスタマイズ可能なアバターの例のアニメーションを表示し、例えば顔面表情を変化させる。例えば、図6Iでは、アバター作成プロンプト646は、帽子及び眼鏡を着用している男性の外観を有し、微笑している顔面表情を有する例示的なカスタマイズ可能なアバター646aを表示している。図6Jでは、アバター作成プロンプト646は、黒い毛髪を中央で分けた女性の外観を有し、完全に笑っている顔面表情を有する例示的なカスタマイズ可能なアバター646bを表示することに移行している。 In some embodiments, the avatar creation prompt 646 appears after a short delay and displays animations of various customizable avatar examples that appear, such as changing facial expressions. For example, in FIG. 6I, avatar creation prompt 646 displays exemplary customizable avatar 646a having the appearance of a man wearing a hat and glasses and having a smiling facial expression. In FIG. 6J, the avatar creation prompt 646 transitions to displaying an exemplary customizable avatar 646b having the appearance of a woman with black hair parted in the middle and a fully smiling facial expression. .

いくつかの実施形態では、デバイス600は、アバター作成アイコン648を選択した後に作成されたアバターなどの、新しいカスタマイズ可能なアバターを表示し、それらのアバターは、アバターオプション領域638内の、どの2つのカスタマイズ不可のアバターの間でもない、アバターオプション640の集合の端に現れる。例えば、新しく作成されたすべてのカスタマイズ可能なアバターは、アバターの集合の後端(例えば、一角獣アバターオプション640bの後、ただし、一角獣アバターオプション640bと鶏アバターオプション640cの間ではない)又はアバターの集合の先端(例えば、アバター作成アイコン648の次、又はアバター作成アイコン648とサルアバターオプション640aの間)に表示され得る。このようにして、カスタマイズ可能なすべてのアバターが一緒にグループ化されて表示され、カスタマイズ不可のアバターから離される(例えば、分離又は区別される)。カスタマイズ可能なすべてのアバターとカスタマイズ不可のアバターのこの分離は、図6A~図6ANに関して説明されている様々なユーザインターフェースにおいて維持される。 In some embodiments, device 600 displays new customizable avatars, such as avatars created after selecting create avatar icon 648 , which avatars can be selected from any two avatars in avatar options area 638 . It appears at the end of the set of avatar options 640, not even among non-customizable avatars. For example, all newly created customizable avatars are added to the end of the avatar collection (e.g., after the unicorn avatar option 640b, but not between the unicorn avatar option 640b and the chicken avatar option 640c) or the avatar collection. (eg, next to the create avatar icon 648 or between the create avatar icon 648 and the monkey avatar option 640a). In this way, all customizable avatars are displayed grouped together and separated (eg, separated or differentiated) from non-customizable avatars. This separation of all customizable and non-customizable avatars is maintained in the various user interfaces described with respect to Figures 6A-6AN.

図6Jで、デバイス600は、アバター作成アイコン648に対応する位置で入力650(例えば、ディスプレイ601上のタップジェスチャ)を検出する。 6J, device 600 detects input 650 (eg, a tap gesture on display 601) at a location corresponding to avatar creation icon 648. In FIG.

図6Kで、デバイス600は、入力650を検出することに応じて、キャンセルアフォーダンス654及び完了アフォーダンス666を有するアバター編集ユーザインターフェース652を表示する。アバター編集ユーザインターフェース652は、図8Aに示されているアバター編集ユーザインターフェース801に類似している。アバター編集ユーザインターフェース652を使用して、図8A~図8CFに関して下で提供されている開示に従って、カスタマイズ可能なアバターを作成することができる。簡潔にするために、アバターの作成及び編集に関する詳細は、ここでは繰り返されないが、本開示(例えば、図8A~図8CE及び関連する開示)において後述される。 In FIG. 6K, device 600 displays avatar editing user interface 652 having cancel affordance 654 and completion affordance 666 in response to detecting input 650 . Avatar editing user interface 652 is similar to avatar editing user interface 801 shown in FIG. 8A. Avatar editing user interface 652 can be used to create customizable avatars according to the disclosure provided below with respect to FIGS. 8A-8CF. For the sake of brevity, details regarding the creation and editing of avatars are not repeated here, but are described later in this disclosure (eg, FIGS. 8A-8CE and related disclosures).

ユーザがアバター編集ユーザインターフェース652においてアバターをカスタマイズした後に、ユーザは、完了アフォーダンス652を選択して、そのアバターを新しいカスタマイズされたアバター(カスタマイズ可能な女性アバター670として図6Lに示されている)として保存することができる。デバイス600は、完了アフォーダンス652の選択を検出することに応じて、新しいカスタマイズされたアバターを保存し、図6Lに示されているように、縮小されたアバター選択インターフェース668を有するメッセージングユーザインターフェース603を表示する。代替的に、ユーザは、キャンセルアフォーダンス654を選択して、新しいカスタマイズされたアバターを破棄し、図6Hに示されている展開されたアバター選択インターフェース634に戻ることができる。デバイス600が新しいカスタマイズされたアバターを保存した後に、下で説明されているように、展開されたアバター選択インターフェース634に戻ることによって、そのアバターを展開されたアバター選択インターフェース634に表示することができる。新しいカスタマイズされたアバターは、カスタマイズ不可のアバターではなくカスタマイズ可能なアバターであるため、新しいカスタマイズされたアバターを展開されたアバター選択インターフェース634に表示したときに、そのアバターは、カスタマイズ不可のアバターから分離されて配置され(例えば、アバターオプション640の集合の端の、ただしどの2つのカスタマイズ不可のアバターの間でもない位置に配置され)、他のカスタマイズ可能なアバターと共にグループ化される。 After the user customizes the avatar in the avatar editing user interface 652, the user selects the completion affordance 652 to make the avatar as the new customized avatar (shown in FIG. 6L as customizable female avatar 670). can be saved. In response to detecting selection of completion affordance 652, device 600 saves the new customized avatar and displays messaging user interface 603 with reduced avatar selection interface 668, as shown in FIG. 6L. indicate. Alternatively, the user can select cancel affordance 654 to discard the new customized avatar and return to expanded avatar selection interface 634 shown in FIG. 6H. After the device 600 saves the new customized avatar, it can be displayed in the expanded avatar selection interface 634 by returning to the expanded avatar selection interface 634 as described below. . Because the new customized avatar is a customizable avatar rather than a non-customizable avatar, when the new customized avatar is displayed in the expanded avatar selection interface 634, it will separate from the non-customizable avatar. (eg, at the end of the collection of avatar options 640, but not between any two non-customizable avatars) and grouped with other customizable avatars.

図6Lで、デバイス600は、展開されたアバター選択インターフェース634に表示されているアバターオプション(例えば、アバターオプション640)のクローズアップ表示を提供する、縮小されたアバター選択インターフェース668を表示している。縮小されたアバター選択インターフェース668は、ユーザ選択に使用可能なアバターのスクロール可能なリスト675(アバターオプション640に対応する)を含む。デバイス600は、現在選択されているアバター(例えば、図6Lの女性アバター670)を、縮小されたアバター選択インターフェース668内の中心位置に表示する。現在選択されテイルアバターがカスタマイズ可能なアバター(例えば、女性アバター670)である場合、デバイス600は、オプションメニュー(図6Wに関して下で説明される)を表示するために選択できるオプションアフォーダンス674も表示する。縮小されたアバター選択インターフェース668では、下で更に詳細に説明されているように、アバターを中心位置に配置することによって、異なるアバターを選択することができる。 6L, device 600 displays collapsed avatar selection interface 668 that provides a close-up view of avatar options (eg, avatar options 640) displayed in expanded avatar selection interface 634. In FIG. Reduced avatar selection interface 668 includes scrollable list 675 of avatars available for user selection (corresponding to avatar options 640). Device 600 displays the currently selected avatar (eg, female avatar 670 in FIG. 6L) in a centered position within reduced avatar selection interface 668 . If the currently selected tail avatar is a customizable avatar (eg, female avatar 670), device 600 also displays options affordance 674 that can be selected to display an options menu (described below with respect to FIG. 6W). . A reduced avatar selection interface 668 allows different avatars to be selected by centering the avatar, as described in more detail below.

図6Lで、縮小されたアバター選択インターフェース668は、メッセージングユーザインターフェース603内の、以前はテキスト候補領域614及びキーボード表示領域612によって占められていた位置に表示される。アプリケーションドック618は、縮小されたアバター選択インターフェース668の下部に任意選択的に表示され、境界672によって示された選択済みのアプリケーションアフォーダンス620aを表示している。縮小されたアバター選択インターフェース668をメッセージングユーザインターフェース603に表示することによって、デバイス600は、メッセージ会話の参加者に(例えば、ステッカー、アバターの画像、又はアバターの記録として)送信するためのアバターを選択するのに便利なアクセスを、ユーザに提供する。 In FIG. 6L, reduced avatar selection interface 668 is displayed within messaging user interface 603 at the location previously occupied by text candidate area 614 and keyboard display area 612 . Application dock 618 is optionally displayed at the bottom of reduced avatar selection interface 668 displaying selected application affordance 620 a indicated by border 672 . By displaying reduced avatar selection interface 668 on messaging user interface 603, device 600 selects an avatar to send (eg, as a sticker, avatar image, or avatar recording) to participants in the message conversation. provide users with convenient access to

デバイス600は、表示されたカスタマイズされたアバター及びカスタマイズされていないアバターを種類別にグループ化し、一方向のスクロールが一種類のアバター(例えば、カスタマイズされていないアバター)へのアクセスを提供し、反対方向のスクロールが異なる種類のアバター(例えば、カスタマイズされたアバター)へのアクセスを提供するように、それらのグループを連続して配置する。 The device 600 groups the displayed customized and non-customized avatars by type, with scrolling in one direction providing access to one type of avatar (e.g., non-customized avatars) and scrolling in the opposite direction. Arrange those groups sequentially so that scrolling through provides access to different types of avatars (eg, customized avatars).

デバイス600は、カスタマイズ可能な女性アバター670を、縮小されたアバター選択領域668の中央の、カスタマイズ可能なアバターとカスタマイズ不可のアバターの間の境界領域に表示する(例えば、カスタマイズ可能なアバターが女性アバター670の片側に存在し、カスタマイズ不可のアバターが女性アバター670の反対側に存在する(図6AE~図6AGも参照))。したがって、アバター675の表示されたリストを一方向にスクロールすることによって、カスタマイズ不可のアバターを表示し、反対方向にスクロールすることによって、カスタマイズ可能なアバターを表示する。いくつかの実施形態では、アバター675のリストをスクロールして、カスタマイズ不可のアバターの反対側のカスタマイズ可能なアバターの端に配置されたアバター作成アフォーダンス669(機能においてアバター作成アイコン648に類似している)を表示することができ、アバター作成アフォーダンス669がカスタマイズ可能なアバターのグループの一方の端に配置され、カスタマイズ不可のアバターのグループが、カスタマイズ可能なアバターのグループの反対の端に配置されるようにする。そのような実施形態では、アバター作成アフォーダンス669を選択して、図6I~図6Kに関して前述した方法と同様の方法で、新しいカスタマイズ可能なアバターを作成することができる。 Device 600 displays customizable female avatar 670 in the center of reduced avatar selection area 668 in the border area between customizable and non-customizable avatars (e.g., customizable avatar is female avatar). A non-customizable avatar that resides on one side of 670 resides on the opposite side of the female avatar 670 (see also FIGS. 6AE-6AG)). Thus, scrolling the displayed list of avatars 675 in one direction displays non-customizable avatars, and scrolling in the opposite direction displays customizable avatars. In some embodiments, scroll through the list of avatars 675 to find an avatar creation affordance 669 (similar in function to the avatar creation icon 648) located at the end of the customizable avatar opposite the non-customizable avatar. ) such that the avatar creation affordance 669 is positioned at one end of the group of customizable avatars and the group of non-customizable avatars is positioned at the opposite end of the group of customizable avatars. to In such embodiments, avatar creation affordance 669 may be selected to create a new customizable avatar in a manner similar to that described above with respect to Figures 6I-6K.

図6M~図6Rに示されているように、デバイス600は、顔において検出された変化に応じて、縮小されたアバター選択インターフェース668に表示されたアバター(例えば、カスタマイズ可能な女性アバター670)を変更する。参考のために、図6M~図6Rは、カメラ(例えば、602)の視野内で検出された顔673の表現を含んでいる。図6M~図6Rは、顔673において検出された変化に応じて、表示されたアバター(例えば、カスタマイズ可能なアバター670及びカスタマイズ不可のアバター671)に対する変更を示している。いくつかの実施形態では、図6M~図6Rでの顔673の表示は、顔673を向いて配置されたデバイスの視点から表示されている。したがって、表示されたアバターに対する対応する変化が、顔673の動きに関して反映されて、図6M~図6Rに示されている。 As shown in FIGS. 6M-6R, device 600 selects an avatar (eg, customizable female avatar 670) displayed in reduced avatar selection interface 668 in response to detected changes in the face. change. For reference, FIGS. 6M-6R include representations of faces 673 detected within the field of view of a camera (eg, 602). 6M-6R illustrate changes to displayed avatars (eg, customizable avatar 670 and non-customizable avatar 671) in response to detected changes in face 673. FIG. In some embodiments, the representations of face 673 in FIGS. 6M-6R are shown from the perspective of a device positioned facing face 673 . Accordingly, corresponding changes to the displayed avatar, reflected in the movement of face 673, are shown in FIGS. 6M-6R.

図6Mで、デバイス600は、唇673-1を下に曲げ、眉673-2にしわを寄せ、目673-3をわずかに細めて、不機嫌そうな表情を作っている傾いた顔673を検出する。それに応じて、デバイス600は、同じ顔面表情(例えば、不機嫌そうな表情を伴って傾いた頭部)を有するように、表示されたアバター(カスタマイズ可能なアバター670)を変更する。 In FIG. 6M, device 600 detects a tilted face 673 with lips 673-1 curled down, eyebrows 673-2 wrinkled, and eyes 673-3 slightly narrowed to create a sullen expression. do. In response, device 600 modifies the displayed avatar (customizable avatar 670) to have the same facial expression (eg, head tilted with a grumpy expression).

図6M~図6Oで、デバイス600は、アバター675のリストの右側から開始して、アバター675のリストの左側に向かって左に移動する、横方向のジェスチャ676(例えば、ディスプレイ601上のスワイプ又はタッチアンドドラッグ入力)を検出する。横方向のジェスチャ676を検出することに応じて、デバイス600は、横方向のジェスチャ676の大きさ(及び方向)に基づいて、左にスクロールするアバター675のリストを表示し、それによって、カスタマイズ可能な女性アバター670が左にスクロールされ、カスタマイズ不可のサルアバター671が縮小されたアバター選択インターフェース668の中央にスクロールされるようにする。 6M-6O, device 600 performs a lateral gesture 676 (eg, a swipe on display 601 or touch-and-drag input). In response to detecting the lateral gesture 676, the device 600 displays a left scrolling list of avatars 675 based on the magnitude (and direction) of the lateral gesture 676, thereby customizable. female avatar 670 is scrolled to the left and non-customizable monkey avatar 671 is scrolled to the center of reduced avatar selection interface 668 .

女性アバター670が図6Mの中心位置から図6Oの左にずれた位置にスクロールされるときに、デバイス600は、図6Mでの3Dの顔追跡状態(アバター670が、顔673のポーズに一致するポーズを有する)から図6Oでの静的状態(アバター670が、顔673のポーズに基づいて決定されないデフォルトのポーズを有する)に移行する女性アバター670のアニメーションを表示する。デバイス600は、アニメーション化された移行を表示するときに、顔673に基づいて女性アバター670を変更するのを止める(ただし、顔673は、デバイス600によって引き続き任意選択的に追跡され得る)。例えば、顔673は、図6N及び図6Oではまだ不機嫌そうなポーズを有しているが、現在は頭部が傾いておらず、一方、女性アバター670は、図6N及び図6Oの両方で、顔673とは異なるポーズを有している。 When the female avatar 670 is scrolled from the center position in FIG. 6M to the left offset position in FIG. pose) to the static state in FIG. 6O (where avatar 670 has a default pose not determined based on the pose of face 673). Device 600 stops modifying female avatar 670 based on face 673 when displaying an animated transition (although face 673 may optionally continue to be tracked by device 600). For example, face 673 still has a grumpy pose in FIGS. 6N and 6O, but now has no head tilt, while female avatar 670 is in both FIGS. 6N and 6O. It has a pose different from that of the face 673 .

図6Nは、図6Mの顔追跡状態から図6Oの静的状態に移行しているアバター670のアニメーションの中間状態を示している。図6Nで、デバイス600は、検出された顔673に基づいて女性アバター670を変更しておらず、代わりに、図6Mでの不機嫌なポーズから図6Oでの静的な笑っているポーズに移行している女性アバター670を表示している。具体的には、図6Nは、女性アバターの頭部が直立位置に移動されており、その口が不機嫌な顔と笑顔の間(例えば、検出された顔の口の位置と、静的なアバターの口の位置の間)の位置にあり、その眉にしわが寄っていないことを示している。 FIG. 6N shows an intermediate state of the animation of avatar 670 transitioning from the face tracking state of FIG. 6M to the static state of FIG. 6O. In FIG. 6N, the device 600 has not changed the female avatar 670 based on the detected face 673, instead transitioning from the grumpy pose in FIG. 6M to the static smiling pose in FIG. 6O. A female avatar 670 is shown. Specifically, FIG. 6N shows that the female avatar's head has been moved to an upright position and its mouth is between a grumpy face and a smile (e.g., the detected face's mouth position and the static avatar's between the positions of the mouth), indicating that the eyebrows are not wrinkled.

また、図6Nは、サルアバター671が図6Mでの右にずれた位置から図6Oでの中心位置に向かって移動しているため、サルアバター671をわずかに中心からずれた位置に表示している。サルアバター671は、図6M~図6Oにおいて静的な笑顔のポーズを有している。 Also, FIG. 6N displays the monkey avatar 671 at a position slightly off-center because the monkey avatar 671 has moved from the position shifted to the right in FIG. 6M toward the central position in FIG. there is Monkey avatar 671 has a static smiling pose in FIGS. 6M-6O.

図6Oでは、女性アバター670は、静的な笑顔のポーズを伴って左の位置に完全に移動されており、サルアバター671は中心位置にある。デバイス600は、検出された顔673に基づいてサルアバター671をまだ変更していない。いくつかの実施形態では、デバイス600は、触覚フィードバック(例えば、触知出力)を生成し、任意選択的に、スクロールされているアバター675が縮小されたアバター選択インターフェース668の中央に位置することを示すオーディオ出力を生成する。この触覚フィードバックは、横方向のジェスチャ676を解除することによってデバイス600がそのアバターを選択するというように、アバターが配置されたということを、ユーザに知らせる。 In FIG. 6O, the female avatar 670 has been moved fully to the left position with a static smiling pose, and the monkey avatar 671 is in the center position. Device 600 has not yet changed monkey avatar 671 based on detected face 673 . In some embodiments, device 600 generates haptic feedback (eg, tactile output) to optionally indicate that scrolled avatar 675 is centered on reduced avatar selection interface 668 . Produces an audio output that shows This haptic feedback informs the user that an avatar has been positioned such that device 600 selects that avatar by releasing lateral gesture 676 .

サルが図6Oのスクリーンの中央に現れた後に、デバイス600は、入力676の終了を検出し、図6Pの検出された顔673に基づいて、中央に配置されたアバター(例えば、サルアバター671)の変更を再開する。したがって、図6Pで、サルアバター671は、顔673の不機嫌そうなポーズをとる(例えば、デバイス600は、静的なポーズから顔673のポーズに移行するように、サルアバター671を変更する)。 After the monkey appears in the center of the screen in FIG. 6O, device 600 detects the end of input 676 and centers the avatar (eg, monkey avatar 671) based on detected face 673 in FIG. 6P. Resume changes in Thus, in FIG. 6P, monkey avatar 671 assumes a moody pose of face 673 (eg, device 600 modifies monkey avatar 671 to transition from a static pose to a pose of face 673).

いくつかの実施形態では、ユーザがアバター675のリストをスクロールするときに、各アバターが縮小されたアバター選択インターフェース668の中心位置で停止すると、デバイス600は、顔673のポーズ(例えば、位置及び顔面表情)をとるように、そのアバターを変更する。これにより、ユーザは特定の顔面表情を保持することができ、デバイス600は、その顔面表情に一致するように中央のアバターを変更する。ユーザが顔面表情を保持して、別のアバターにスワイプするときに、デバイス600は、ユーザの顔の保持された顔面表情から静的なデフォルトのポーズに移行している現在選択されているアバターのアニメーションを表示し、一方、次のアバターが中心位置にスクロールされる。その後、デバイス600は、静的なポーズからユーザの保持された顔面表情に移行している次のアバターを表示する。いくつかの実施形態では、デバイス600は、アバターが中心位置で止まるまで、(検出された顔に応じて、又は追跡された顔から静的なポーズへのアニメーション化された移行として)縮小されたアバター選択インターフェース668の中央に配置されたアバターの変更を開始しない。したがって、ユーザがアバター675のリストを素早くスクロールする(例えば、アバターで止まらずに、アバターをスクロールする)ときに、デバイス600は、それらのスクロール中に、検出された顔に基づいてアバターをアニメーション化することも、変更することもない。 In some embodiments, as the user scrolls through the list of avatars 675, when each avatar stops at the center position of the reduced avatar selection interface 668, the device 600 changes the pose (e.g., position and facial position) of the face 673. change the avatar to take on facial expressions). This allows the user to retain a particular facial expression and device 600 changes the central avatar to match that facial expression. When the user holds a facial expression and swipes to another avatar, the device 600 displays the currently selected avatar transitioning from the held facial expression to a static default pose on the user's face. Display the animation while the next avatar is scrolled to the center position. Device 600 then displays the next avatar transitioning from a static pose to the user's retained facial expression. In some embodiments, device 600 is contracted (in response to a detected face or as an animated transition from a tracked face to a static pose) until the avatar stops at the center position. Do not start changing the avatar centered in the avatar selection interface 668 . Thus, when the user scrolls quickly through the list of avatars 675 (e.g., scrolls through the avatars without stopping at an avatar), the device 600 animates the avatars based on the detected faces during those scrolls. Do not do or change.

図6Pで選択されたサルアバター671はカスタマイズ不可のアバターであるため、デバイス600は、オプションアフォーダンス674を表示しない。カスタマイズ可能なアバター及びカスタマイズ不可のアバターは、前述したようにグループ化されているため、左方向にスクロールし続けると、デバイス600はその他のカスタマイズ不可のアバター(例えば、ロボットアバター678など)を表示するが、カスタマイズ可能なアバターを表示しない。カスタマイズ可能なアバターは、図6Q及び図6Rに関して下で説明されているように、右方向にスクロールすることによって表示され得る。 Device 600 does not display option affordance 674 because monkey avatar 671 selected in FIG. 6P is a non-customizable avatar. Customizable and non-customizable avatars are grouped as described above, so continuing to scroll left causes device 600 to display other non-customizable avatars (eg, robot avatar 678, etc.). but does not display a customizable avatar. Customizable avatars may be displayed by scrolling to the right, as described below with respect to Figures 6Q and 6R.

図6Q及び図6Rで、デバイス600は、アバター675のリストの右側に向かって右に移動する、横方向のジェスチャ680(例えば、ディスプレイ601上のスワイプ又はタッチアンドドラッグ入力)を検出する。横方向のジェスチャ680を検出することに応じて、デバイス600は、横方向のジェスチャ680の大きさ(及び方向)に基づいて、右にスクロールするアバター675のリストを表示し、それによって、カスタマイズ不可のロボットアバター678がスクロールされてディスプレイ601から消え、サルアバター671が右にずれた位置にスクロールされ、カスタマイズ可能な女性アバター670がディスプレイの中央にスクロールされるようにする。カスタマイズ可能なアバター及びカスタマイズ不可のアバターは、前述したようにグループ化されているため、右方向にスクロールし続けると、デバイス600はその他のカスタマイズ可能なアバター(又は、任意選択的にアバター作成アフォーダンス669)を表示するが、カスタマイズ不可のアバターを表示しない。カスタマイズ不可のアバターは、前述したように、左方向にスクロールすることによって表示され得る。 6Q and 6R, device 600 detects a lateral gesture 680 (eg, a swipe or touch-and-drag input on display 601) moving right toward the right side of the list of avatars 675. In FIGS. In response to detecting the lateral gesture 680, the device 600 displays a list of avatars 675 scrolling right based on the magnitude (and direction) of the lateral gesture 680, thereby rendering it non-customizable. robot avatar 678 is scrolled off display 601, monkey avatar 671 is scrolled to the right offset position, and customizable female avatar 670 is scrolled to the center of the display. Since customizable and non-customizable avatars are grouped as described above, continuing to scroll right will cause device 600 to display other customizable avatars (or optionally avatar creation affordance 669). ) but not the non-customizable avatar. Non-customizable avatars can be displayed by scrolling left, as described above.

図6Q及び図6Rは、図6M~図6Pに関して前述したのと同様に、アニメーション化された移行を伴ってアバターをスクロールするが、逆方向には移動しないということも示している。図6Q及び図6Rで、アバターが右に移動するときに、デバイス600は、図6Pでの顔追跡状態から図6Rに示された静的状態へのサルアバター671の移行を、図6Qに示された過渡的な外観を伴ってアニメーション化する。例えば、図6Pで、デバイス600は、顔673に基づいてサルアバター671を変更している(例えば、サルアバター671は、顔673のポーズに一致するポーズを有する)。図6Q及び図6Rに示されているように、デバイス600は、顔673に基づいてサルアバター671を変更することを止め(例えば、顔673は不機嫌そうな表情を維持するが、サルアバター671は異なるポーズを有する)、図6Pのポーズから図6Rの静的な外観へ移行する、サルアバター671のアニメーション化された移行を表示する。図6Qは、アニメーション化された移行の中間状態を示しており、サルアバター671が不機嫌な顔と笑顔の間の位置にある口を有し、その眉がしわを寄せていない位置にある。女性アバター670は、わずかに右にずれており、静的なデフォルトの笑顔のポーズを維持しながら、中心位置に向かって移動している。 Figures 6Q and 6R also show scrolling the avatar with an animated transition similar to that described above with respect to Figures 6M-6P, but not in the opposite direction. 6Q and 6R, as the avatar moves to the right, the device 600 transitions the monkey avatar 671 from the face tracking state in FIG. 6P to the static state shown in FIG. 6R as shown in FIG. 6Q. Animate with a rendered transitional appearance. For example, in FIG. 6P, device 600 modifies monkey avatar 671 based on face 673 (eg, monkey avatar 671 has a pose that matches the pose of face 673). As shown in FIGS. 6Q and 6R, device 600 stops modifying monkey avatar 671 based on face 673 (eg, face 673 maintains a grumpy expression, but monkey avatar 671 6P), displaying an animated transition of monkey avatar 671 transitioning from the pose of FIG. 6P to the static appearance of FIG. 6R. FIG. 6Q shows an intermediate state of the animated transition, where the monkey avatar 671 has its mouth positioned between a grumpy face and a smile, and its eyebrows in a non-wrinkled position. The female avatar 670 is offset slightly to the right, moving toward the center position while maintaining a static default smiling pose.

図6Rで、女性アバター670は、静的な笑顔のポーズを伴って、縮小されたアバター選択インターフェース668の中央に配置されている。サルアバター671は、静的なポーズを伴って右にずれた位置にある(サルアバター671の静的なポーズも、女性アバター670の静的なポーズと同様に笑顔のポーズであるが、これらの静的なポーズはアバターごとに異なることが可能である)。顔673は、中立的なポーズに移行している(例えば、眉にしわが寄っていない微笑)。図6Rで、デバイス600は、検出された顔673に基づいて女性アバター670を変更していない。 In FIG. 6R, a female avatar 670 is centered on the reduced avatar selection interface 668 with a static smiling pose. The monkey avatar 671 is in a position shifted to the right with a static pose (the static pose of the monkey avatar 671 is also a smiling pose like the static pose of the female avatar 670, but these A static pose can be different for each avatar). Face 673 has transitioned into a neutral pose (eg, a smile with no wrinkled brows). In FIG. 6R, device 600 has not changed female avatar 670 based on detected face 673 .

図6Sで、デバイス600は、縮小されたアバター選択インターフェース668の中央に配置されることによって選択された、カスタマイズ可能な女性アバター670を表示している。この場合も、女性アバター670がカスタマイズ可能なアバターであるため、デバイス600はオプションアフォーダンス674を表示する。デバイス600は、アバターのライブラリにアクセスするために選択できる編集アフォーダンス682も表示する。いくつかの実施形態では、デバイス600は、表示されたアバターがカスタマイズ可能であるか、又はカスタマイズ不可であるかに関わらず、編集アフォーダンス682を表示する。 In FIG. 6S, device 600 displays customizable female avatar 670 selected by being centered in reduced avatar selection interface 668 . Again, device 600 displays option affordance 674 because female avatar 670 is a customizable avatar. Device 600 also displays editing affordances 682 that can be selected to access a library of avatars. In some embodiments, device 600 displays editing affordance 682 regardless of whether the displayed avatar is customizable or non-customizable.

図6Tで、デバイス600は、編集アフォーダンス682上の入力684(例えば、デバイス601上のタップジェスチャ)を検出する。入力684を検出することに応じて、デバイス600は、図6Uに示されているライブラリインターフェース686を表示する。 6T, device 600 detects input 684 (eg, tap gesture on device 601) on editing affordance 682. In FIG. In response to detecting input 684, device 600 displays library interface 686 shown in FIG. 6U.

図6Uで、デバイス600は、編集アフォーダンス(例えば、編集アフォーダンス682)上のユーザ入力を検出することに応じて、ライブラリインターフェース686を表示する。図6Uに示された実施形態では、デバイス600は、女性アバターオプション670a及び新しいカスタマイズされた男性アバターオプション688aを有するライブラリインターフェース686を表示している。女性アバターオプション670aは女性アバター670に対応し、男性アバターオプション688aは男性アバター688(図6AEに示されている)に対応する。図6Uに示された実施形態では、カスタマイズされた男性アバターオプション688aは、図6I~図6Kに関して前述したステップに従って作成されたカスタマイズ可能な男性アバター(例えば、688)に対応する、カスタマイズ可能なアバターオプションである。簡潔にするために、これらのステップはここでは繰り返さない。デバイス600は、一緒にグループ化されて、カスタマイズ不可のアバターオプションとは区別された、男性アバターオプション668a及び女性アバターオプション670a(カスタマイズ可能なアバターオプション)を表示する。 6U, device 600 displays library interface 686 in response to detecting user input on an editing affordance (eg, editing affordance 682). In the embodiment shown in FIG. 6U, device 600 displays library interface 686 with female avatar option 670a and new customized male avatar option 688a. Female avatar option 670a corresponds to female avatar 670 and male avatar option 688a corresponds to male avatar 688 (shown in FIG. 6AE). In the embodiment shown in FIG. 6U, a customized male avatar option 688a corresponds to a customizable male avatar (eg, 688) created according to the steps described above with respect to FIGS. 6I-6K. Optional. For the sake of brevity, these steps are not repeated here. Device 600 displays male avatar option 668a and female avatar option 670a (customizable avatar options) grouped together and distinguished from non-customizable avatar options.

図6Vで、デバイス600は、女性アバターオプション670aを選択する入力690(例えば、ディスプレイ601上のタッチ入力)を検出する。 In FIG. 6V, device 600 detects input 690 (eg, touch input on display 601) selecting female avatar option 670a.

図6Wで、デバイス600は、女性アバターオプション670aを選択するための入力690を検出することに応じて、オプションメニュー692を表示する。デバイス600は、ライブラリインターフェース686から選択されたアバターオプション(例えば、女性アバターオプション670a)に対応するアバター(例えば、女性アバター670)、並びに編集オプション692a、複製オプション692b、及び削除オプション692cを有するオプションメニュー692を表示する。編集オプション、複製オプション、及び削除オプションはそれぞれ、ライブラリインターフェース686で選択されたアバターオプション(及び対応するアバター)を編集、複製、又は削除する各処理を開始するために、選択可能である。いくつかの実施形態では、デバイス600は、本明細書において説明された顔追跡機能に従って、オプションメニュー692に表示されたアバターを変更する。 In FIG. 6W, device 600 displays option menu 692 in response to detecting input 690 to select female avatar option 670a. Device 600 displays an avatar (e.g., female avatar 670) corresponding to the avatar option (e.g., female avatar option 670a) selected from library interface 686, and an options menu with edit option 692a, duplicate option 692b, and delete option 692c. 692 is displayed. An edit option, a duplicate option, and a delete option are each selectable to initiate a respective process of editing, duplicating, or deleting the avatar option (and corresponding avatar) selected in the library interface 686. In some embodiments, device 600 modifies the avatar displayed in options menu 692 according to the face tracking functionality described herein.

図6Xで、デバイス600は、編集オプション692a上の入力693a(例えば、ディスプレイ601上のタッチ入力)を検出する。デバイス600は、入力693aを検出することに応じて、アバター編集ユーザインターフェース694(図6Zに示されている)を表示し、アバター編集ユーザインターフェース694はアバター編集ユーザインターフェース652に類似している(ただし、デフォルトの新しいアバターの代わりに、選択されたアバター670又は選択されたアバター670の複製を表示する)。 In FIG. 6X, device 600 detects input 693a (eg, touch input on display 601) on edit option 692a. Device 600 displays avatar editing user interface 694 (shown in FIG. 6Z) in response to detecting input 693a, and avatar editing user interface 694 is similar to avatar editing user interface 652 (but , display the selected avatar 670 or a duplicate of the selected avatar 670 instead of the default new avatar).

図6Yで、デバイス600は、複製オプション692b上の入力693b(例えば、ディスプレイ601上のタッチ入力)を検出する。デバイス600は、入力693bを検出することに応じて、ライブラリインターフェース686で選択されたアバターオプションの複製バージョン(例えば、女性アバター670aの複製)及び対応するアバター(例えば、女性アバター670)の複製バージョンを作成する。デバイス600は、複製されたアバターを有するアバター編集ユーザインターフェース694(図6Zに示されている)を表示する。 In FIG. 6Y, device 600 detects input 693b (eg, touch input on display 601) on duplicate option 692b. In response to detecting input 693b, device 600 displays a duplicate version of the avatar option selected in library interface 686 (eg, duplicate female avatar 670a) and a duplicate version of the corresponding avatar (eg, female avatar 670). create. Device 600 displays avatar editing user interface 694 (shown in FIG. 6Z) with the duplicated avatar.

図6Zで、デバイス600は、入力693a又は693bを検出することに応じて、アバター編集ユーザインターフェース694を表示する。デバイス600が編集オプション692aで入力693aを検出した場合、デバイス600は、ライブラリインターフェース686で選択されたアバターオプションに対応するアバター(例えば、アバター670)を表示するアバター編集ユーザインターフェース694を表示する。しかし、デバイス600が複製オプション692bで入力693bを検出した場合、デバイス600は、選択されたアバターの複製(例えば、女性アバター670の複製)を作成し、その複製アバターをアバター編集ユーザインターフェース694に表示する。図6Zに示された実施形態では、デバイス600は複製アバター695を表示している。いくつかの実施形態では、デバイスは、入力693aを検出することに応じて、アバター編集ユーザインターフェースを表示するのではなく、複製アバターオプションを含むライブラリインターフェース686を表示する。 In FIG. 6Z, device 600 displays avatar editing user interface 694 in response to detecting input 693a or 693b. If device 600 detects input 693a on edit option 692a, device 600 displays avatar edit user interface 694 that displays the avatar (eg, avatar 670) corresponding to the avatar option selected in library interface 686. However, if device 600 detects input 693b on duplicate option 692b, device 600 creates a duplicate of the selected avatar (eg, duplicate of female avatar 670) and displays the duplicate avatar in avatar editing user interface 694. do. In the embodiment shown in FIG. 6Z, device 600 is displaying duplicate avatar 695 . In some embodiments, rather than displaying an avatar editing user interface in response to detecting input 693a, the device displays library interface 686 that includes a duplicate avatar option.

アバター編集ユーザインターフェース694は、図8A~図8CFを参照して下で説明されているアバター編集ユーザインターフェースに類似している。簡潔にするために、アバター編集ユーザインターフェース694を使用したアバターの編集の詳細は繰り返されない。 Avatar editing user interface 694 is similar to the avatar editing user interface described below with reference to FIGS. 8A-8CF. For the sake of brevity, the details of editing avatars using avatar editing user interface 694 are not repeated.

図6AAで、デバイス600は、複製アバター695に対応する複製アバターオプション695a(アバター編集ユーザインターフェース694を使用して異なるアバター特徴部を選択することに基づいて、変更されて表示される)を有するライブラリインターフェース686を表示している。変更された複製アバター695を保存した(例えば、アバター編集ユーザインターフェース694で「完了」の選択を検出した)後に、デバイス600は、複製アバターオプション695aを、複製の作成元になった選択されたアバターオプションの隣の位置(例えば、アバターオプション670aの隣)に表示する。 In FIG. 6AA, the device 600 has a library with duplicate avatar options 695a corresponding to the duplicate avatar 695 (displayed modified based on selecting different avatar features using the avatar editing user interface 694). An interface 686 is displayed. After saving modified duplicate avatar 695 (e.g., detecting selection of "Done" in avatar editing user interface 694), device 600 displays duplicate avatar option 695a to the selected avatar from which the duplicate was created. Display in a location next to the option (eg, next to avatar option 670a).

図6ABは、アバターオプション670aが図6Vで選択された後の、オプションメニュー692を示している。デバイスは、削除オプション692cで入力693cを検出することに応じて、選択されたアバターオプション670aをライブラリインターフェース686から削除する。そのような場合、デバイス600は、例えば図6ACに示されているように、アバターオプション670aをライブラリインターフェースから除去する。しかし、デバイス600が入力693a~入力693cをいずれも検出せず、代わりにキャンセルアフォーダンス696の選択を検出した場合、オプションメニュー692が閉じられ、デバイス600は、図6ADに示されているように、男性アバターオプション688a及び女性アバターオプション670aを有するライブラリインターフェース686を表示する(図6Uに示されたライブラリインターフェース686の状態に類似している)。 FIG. 6AB shows options menu 692 after avatar option 670a has been selected in FIG. 6V. The device deletes selected avatar option 670a from library interface 686 in response to detecting input 693c on delete option 692c. In such a case, device 600 removes avatar option 670a from the library interface, eg, as shown in FIG. 6AC. However, if device 600 does not detect any of inputs 693a-c, but instead detects selection of cancel affordance 696, option menu 692 is closed and device 600, as shown in FIG. Display library interface 686 with male avatar option 688a and female avatar option 670a (similar to the state of library interface 686 shown in FIG. 6U).

図6ADで、デバイス600は、完了アフォーダンス698上の入力697(例えば、ディスプレイ601上のタッチジェスチャ)を検出し、それに応じてライブラリインターフェース686を終了し、図6AEに示されているように、縮小されたアバター選択インターフェース668を表示する。縮小されたアバター選択インターフェース668は、男性アバター688、女性アバター670、及びカスタマイズ不可のアバター645を含んでいる。 In FIG. 6AD, device 600 detects input 697 (e.g., a touch gesture on display 601) on completion affordance 698 and exits library interface 686 in response and collapses, as shown in FIG. 6AE. display the selected avatar selection interface 668 . Reduced avatar selection interface 668 includes male avatar 688 , female avatar 670 , and non-customizable avatar 645 .

図6AEでは、3つの別個のジェスチャが、縮小されたアバター選択インターフェース668上で表されている。下で説明されているように、デバイス600が特定の方向(例えば、左又は右)でジェスチャを検出した場合、デバイス600は、表示されたアバター(例えば、カスタマイズ可能な女性アバター670)を、ジェスチャの方向によって決定された特定の種類のアバターに置き換える。例えば、ジェスチャが左方向である場合、表示されたアバターは、第1の種類のアバター(例えば、カスタマイズ不可のアバター又は人間以外のキャラクターを表すようにモデル化されたアバター)に置き換えられる。反対に、ジェスチャが右方向である場合、表示されたアバターは、第2の種類のアバター(例えば、カスタマイズ可能なアバター又は人間を表すようにモデル化されたアバター)に置き換えられる。 In FIG. 6AE, three separate gestures are represented on the reduced avatar selection interface 668. In FIG. As described below, if the device 600 detects a gesture in a particular direction (eg, left or right), the device 600 changes the displayed avatar (eg, customizable female avatar 670) to the gesture. Replace with a specific type of avatar determined by the direction of the . For example, if the gesture is to the left, the displayed avatar is replaced with a first type of avatar (eg, a non-customizable avatar or an avatar modeled to represent a non-human character). Conversely, if the gesture is in the right direction, the displayed avatar is replaced with a second type of avatar (eg, a customizable avatar or an avatar modeled to represent a human being).

例えば、図6AEで、デバイス600が左横方向のジェスチャ699a(例えば、ディスプレイ601上の左方向のスワイプ又はタッチアンドドラッグジェスチャ)を検出した場合、デバイス600は図6AFに示された実施形態を表示し、図6AFは、左に(縮小されたアバター選択インターフェース668の中央から離れた、例えば女性アバター670が選択されていないことを示す位置に)移動されたカスタマイズ可能な女性アバター670、及び縮小されたアバター選択インターフェース668の中央(例えば、サルアバター645が選択されていることを示す位置)に配置されたカスタマイズ不可のサルアバター645を示している。したがって、デバイス600は、左横方向のジェスチャ699aを検出することに応じて、カスタマイズ不可のアバターの選択を表示する。いくつかの実施形態では、左横方向のジェスチャ699aは、デバイス600に、縮小されたアバター選択インターフェース668をスクロールさせ、それによって、カスタマイズ可能な女性アバター670が完全にスクリーンの外に移動され、(例えば、図6Oに示されている実施形態と同様に)1つ以上のカスタマイズ不可のアバターのみが表示されるようにする。 For example, in FIG. 6AE, if device 600 detects a left lateral gesture 699a (eg, a leftward swipe or touch-and-drag gesture on display 601), device 600 displays the embodiment shown in FIG. 6AF. 6AF shows the customizable female avatar 670 moved to the left (away from the center of the reduced avatar selection interface 668, e.g., to a position indicating that the female avatar 670 is not selected), and the A non-customizable monkey avatar 645 is shown positioned in the center of an avatar selection interface 668 (eg, a position indicating that monkey avatar 645 is selected). Accordingly, device 600 displays a non-customizable avatar selection in response to detecting left lateral gesture 699a. In some embodiments, the left lateral gesture 699a causes the device 600 to scroll the reduced avatar selection interface 668, thereby moving the customizable female avatar 670 completely off the screen ( For example, only one or more non-customizable avatars may be displayed (similar to the embodiment shown in FIG. 6O).

デバイス600が右横方向のジェスチャ699b(例えば、ディスプレイ601上の右方向のスワイプ又はタッチアンドドラッグジェスチャ)を検出した場合、デバイス600は図6AGに示された実施形態を表示し、図6AGは、右に(縮小されたアバター選択インターフェース668の中央から離れた(例えば女性アバター670が選択されていないことを示す位置))に移動されたカスタマイズ可能な女性アバター670、及び縮小されたアバター選択インターフェース668の中央(例えば、男性アバター688が選択されていることを示す位置)に配置されたカスタマイズ可能な男性アバター688を示しており、任意選択的に、アバター作成アフォーダンス669を示している。したがって、デバイス600は、右横方向のジェスチャ699bを検出することに応じて、カスタマイズ不可のアバターを表示せずに、カスタマイズ可能なアバターの選択を表示する。 If the device 600 detects a right lateral gesture 699b (eg, a rightward swipe or touch-and-drag gesture on the display 601), the device 600 displays the embodiment shown in FIG. Customizable female avatar 670 moved to the right (away from the center of reduced avatar selection interface 668 (e.g., a position indicating female avatar 670 is not selected) and reduced avatar selection interface 668 A customizable male avatar 688 is shown positioned in the middle of (eg, a position indicating male avatar 688 is selected), optionally showing avatar creation affordances 669 . Accordingly, device 600 displays a selection of customizable avatars without displaying non-customizable avatars in response to detecting right lateral gesture 699b.

いくつかの実施形態では、デバイス600は、最初に選択されている(縮小されたアバター選択インターフェース668の中心位置にある)アバターがカスタマイズ不可のアバターであるシナリオを表示し、横方向のジェスチャを検出することに応じて、カスタマイズ不可のアバターが完全にスクリーンの外に移動されるようにスクロールする縮小されたアバター選択インターフェース668を表示することができ、それによって、1つ以上のカスタマイズ可能なアバターのみを縮小されたアバター選択インターフェース668に表示する。 In some embodiments, the device 600 displays a scenario where the initially selected avatar (in the center position of the reduced avatar selection interface 668) is the non-customizable avatar, and detects lateral gestures. If desired, a reduced avatar selection interface 668 may be displayed that scrolls such that the non-customizable avatars are moved completely off-screen, thereby displaying only one or more customizable avatars. is displayed in the reduced avatar selection interface 668 .

デバイス600が上向きの縦方向のジェスチャ699c(例えば、ディスプレイ601上の縦方向のスワイプ又は縦方向のタッチアンドドラッグジェスチャ)を検出した場合、デバイス600は、縮小されたアバター選択インターフェース668を展開して、図6AHの展開されたアバター選択インターフェース634を表示する。 If device 600 detects an upward vertical gesture 699c (eg, a vertical swipe or vertical touch-and-drag gesture on display 601), device 600 deploys reduced avatar selection interface 668. , displays the expanded avatar selection interface 634 of FIG. 6AH.

図6AHで、デバイス600は、カスタム男性アバターオプション688a及びカスタム女性アバターオプション670aをアバターオプション領域638内に有する展開されたアバター選択インターフェース634を表示している。女性アバターオプション670aが選択されており、女性アバターオプション670がアバター表示領域636に表示されている。デバイス600は、オプションアフォーダンス674もアバター表示領域638に表示している。デバイス600は、アバター670を(例えば、ユーザの顔において検出された変化に基づいて変更されている間に)記録するために選択できるキャプチャアフォーダンス644も表示している。 6AH, device 600 displays expanded avatar selection interface 634 with custom male avatar option 688a and custom female avatar option 670a within avatar options area 638. In FIG. Female avatar option 670 a is selected and female avatar option 670 is displayed in avatar display area 636 . Device 600 also displays optional affordance 674 in avatar display area 638 . Device 600 also displays capture affordances 644 that can be selected to record avatar 670 (eg, while being modified based on detected changes in the user's face).

図6AI~図6AJで、デバイス600は、アバターオプション領域638上のスクロールジェスチャ6100(例えば、ディスプレイ601上の縦方向のスワイプ又はタッチアンドドラッグジェスチャ)を検出する。デバイス600は、スクロールジェスチャ6100を検出することに応じて、アバターオプション領域638に表示されているアバターオプションの表示をスクロールする。 6AI-6AJ, device 600 detects scrolling gesture 6100 on avatar options area 638 (eg, vertical swipe or touch-and-drag gesture on display 601). Device 600 scrolls the display of avatar options displayed in avatar options area 638 in response to detecting scrolling gesture 6100 .

図6AKで、デバイス600は、オプションアフォーダンス674上の入力6102(例えば、ディスプレイ601上のタップジェスチャ)を検出する。図6ALで、デバイス600は、入力6102を検出することに応じて、表示されたアバターオプション領域638を、前述の編集オプション、複製オプション、及び削除オプション(例えば、692a、962b、962c)にそれぞれ類似する編集オプション、複製オプション、及び削除オプションを含んでいるオプションメニュー領域6104に置き換える。デバイス600は、キャンセルアフォーダンス6106も表示している。デバイス600は、キャンセルアフォーダンス6106上の入力6108(例えば、ディスプレイ601上のタップジェスチャ)を検出することに応じて、オプションメニュー領域6104を除去し、図6AMに示されているように、アバターオプション領域638を再び表示する。 In FIG. 6AK, device 600 detects input 6102 (eg, tap gesture on display 601) on option affordance 674. In FIG. 6AL, in response to detecting input 6102, device 600 changes displayed avatar options area 638 similar to the previously described edit, duplicate, and delete options (eg, 692a, 962b, 962c), respectively. Replaced by options menu area 6104 containing edit, duplicate, and delete options. Device 600 also displays cancellation affordance 6106 . In response to detecting input 6108 (e.g., a tap gesture on display 601) on cancel affordance 6106, device 600 removes options menu region 6104 and displays the avatar options region 6104 as shown in FIG. 6AM. 638 is displayed again.

いくつかの実施形態では、デバイス600は、異なるアバターオプションの選択に応じて、アバター表示領域636に表示されているアバターを変更する。例えば、図6AMで、デバイス600は、うんちアバターオプション6112a上の入力6110(例えば、ディスプレイ601上のタップジェスチャ)を検出する。それに応じて、デバイス600は、アバター670を除去し、図6ANに示されているように、うんちアバター6112を表示する。加えて、デバイス600は、選択されたアバターオプション(例えば、6112a)がカスタマイズ不可のアバター(例えば、うんちアバター6112)に対応しているため、編集アフォーダンス674を除去している。 In some embodiments, device 600 changes the avatar displayed in avatar display area 636 in response to selection of different avatar options. For example, in FIG. 6AM, device 600 detects input 6110 (eg, tap gesture on display 601) on poop avatar option 6112a. In response, device 600 removes avatar 670 and displays poop avatar 6112, as shown in FIG. 6AN. Additionally, device 600 removes editing affordance 674 because the selected avatar option (eg, 6112a) corresponds to a non-customizable avatar (eg, poop avatar 6112).

図7は、いくつかの実施形態に従って、電子デバイス(例えば、600)を使用してアプリケーション内のアバター間をナビゲートする方法を示すフロー図である。方法700は、表示装置及び1つ以上の入力デバイスを備えているデバイス(例えば、100、300、500、600)で実行される。方法700のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 FIG. 7 is a flow diagram illustrating a method of navigating between avatars within an application using an electronic device (eg, 600), according to some embodiments. Method 700 is performed on a device (eg, 100, 300, 500, 600) that includes a display and one or more input devices. Some acts of method 700 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

下で説明されているように、方法700は、アプリケーション内のアバター間をナビゲートする直感的な方法を提供する。この方法は、アバターを管理する際のユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがアプリケーション内のアバター間をより高速かつより効率的にナビゲートすることを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。 As described below, method 700 provides an intuitive way of navigating between avatars within an application. This method reduces the user's cognitive burden in managing avatars, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to navigate between avatars within an application faster and more efficiently saves power and increases intervals between battery charges.

電子デバイスは、表示装置を介してアバターナビゲーションユーザインターフェース(例えば、668)を表示する(702)。アバターナビゲーションユーザインターフェースは、アバター(例えば、670)を含む。 The electronic device displays (702) an avatar navigation user interface (eg, 668) via a display device. The avatar navigation user interface includes an avatar (eg, 670).

アバターナビゲーションユーザインターフェース(例えば、668)が表示されている間に、電子デバイスは、1つ以上の入力デバイス(例えば、タッチスクリーンディスプレイ上のアバターナビゲーションユーザインターフェースに対応する位置でのスワイプジェスチャ)を介して、アバターナビゲーションユーザインターフェース(例えば、668)に向けられたジェスチャ(例えば、699a、699b)を検出する(704)。 While the avatar navigation user interface (e.g., 668) is displayed, the electronic device may interact with one or more input devices (e.g., swipe gestures at positions corresponding to the avatar navigation user interface on the touch screen display). to detect 704 gestures (eg, 699a, 699b) directed at the avatar navigation user interface (eg, 668).

電子デバイスは、ジェスチャ(例えば、699a、699b)を検出することに応じて(706)、ジェスチャが第1の方向(例えば、右向きの横方向のスワイプジェスチャ)であるという判定に従って(708)、第1の種類のアバター(例えば、人間以外のキャラクターではなく、人間を表すようにモデル化されたアバター670、688、あるいは構成可能であるか、又はアバターのプロトタイプ若しくはテンプレートから作成できるアバター)をアバターナビゲーションユーザインターフェース(例えば、668)に表示する(710)。第1の種類のアバターを表示することによって、入力が受信されたこと、及びデバイスが現在、第1の種類のアバターを選択できる状態にあるということを確認する視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In response to detecting the gesture (eg, 699a, 699b) (706), the electronic device, in accordance with determining (708) that the gesture is in a first direction (eg, a right-facing lateral swipe gesture), One type of avatar (e.g., avatars 670, 688 that are modeled to represent humans rather than non-human characters, or avatars that are configurable or can be created from avatar prototypes or templates) are avatar navigation. Display (710) in a user interface (eg, 668). Displaying the first type of avatar provides visual feedback to the user confirming that input has been received and that the device is now ready to select the first type of avatar. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

電子デバイスは、ジェスチャ(例えば、699a)を検出することに応じて(706)、ジェスチャ(例えば、699a)が第1の方向と反対の第2の方向(例えば、左向きの横方向のスワイプジェスチャ)であるという判定に従って(714)、第1の種類(例えば、670、688)と異なる第2の種類(例えば、645)のアバター(例えば、人間以外のキャラクターを表すようにモデル化されたアバター、又は選択可能であるが構成可能ではないアバター)をアバターナビゲーションユーザインターフェースに表示する(716)。第2の種類のアバターを表示することによって、入力が受信されたこと、及びデバイスが現在、第2の種類のアバターを選択できる状態にあるということを確認する視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In response to detecting the gesture (eg, 699a) 706, the electronic device detects that the gesture (eg, 699a) moves in a second direction opposite the first direction (eg, a leftward lateral swipe gesture). avatars of a second type (e.g., 645) different from the first type (e.g., 670, 688) (e.g., avatars modeled to represent non-human characters; or selectable but not configurable avatar) in the avatar navigation user interface (716). Displaying the second type of avatar provides visual feedback to the user confirming that input has been received and that the device is now ready to select the second type of avatar. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイスは、ジェスチャが第1の方向であるという判定に更に従い(708)、第2の種類(例えば、645)のアバターをアバターナビゲーションユーザインターフェース(例えば、668)に表示することを止める(712)。電子デバイスは、ジェスチャが第1の方向と反対の第2の方向であるという判定に更に従い(714)、第1の種類(例えば、670、688)のアバターをアバターナビゲーションユーザインターフェース(例えば、668)に表示することを止める(718)。特定の種類のアバターを表示しないことによって、電子デバイスは、入力が受信されたこと、及びデバイスがこの特定の種類のアバターを選択できる状態にないということを確認する視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device further follows (708) the determination that the gesture is in the first direction and directs the avatar of the second type (eg, 645) to the avatar navigation user interface (eg, 668). Stop displaying (712). The electronic device further follows (714) the determination that the gesture is in a second direction opposite the first direction, and displays the avatar of the first type (eg, 670, 688) in the avatar navigation user interface (eg, 668). ) (718). By not displaying a particular type of avatar, the electronic device provides visual feedback to the user confirming that input has been received and that the device is not ready to select this particular type of avatar. . By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1の種類(例えば、670)のアバターを表示した後に、電子デバイスは第1の方向の第2のジェスチャ(例えば、699b)を検出する。電子デバイスは、第2のジェスチャを検出することに応じて、第1の種類(例えば、688)の第2のアバターを表示する。 According to some embodiments, after displaying the avatar of the first type (eg, 670), the electronic device detects a second gesture (eg, 699b) in the first direction. The electronic device displays a second avatar of the first type (eg, 688) in response to detecting the second gesture.

いくつかの実施形態に従って、第2の種類(例えば、645)のアバターを表示した後に、電子デバイスは第2の方向の第3のジェスチャを検出する。電子デバイスは、第3のジェスチャを検出することに応じて、第2の種類(例えば、678)の第2のアバターを表示する。 According to some embodiments, after displaying the second type (eg, 645) avatar, the electronic device detects a third gesture in the second direction. The electronic device displays a second avatar of a second type (eg, 678) in response to detecting the third gesture.

いくつかの実施形態に従って、第1の種類のアバター(例えば、アバター670)は、人間のキャラクター(例えば、人間以外のキャラクターではなく、人間を表すようにモデル化されたアバター)の外観を有する。いくつかの実施形態では、そのようなアバターは、人間の身体的特徴に概して対応するカスタマイズ可能(例えば、選択可能又は構成可能)なアバター特徴部(例えば、図8A~図8BBに見られるような頭部、毛髪、目、及び唇)を含む。例えば、そのようなアバターは、様々な身体的な人間の特徴又は特性を有する個人の表現(例えば、浅黒い肌の色及び長い茶色の直毛を有する高齢の女性)を含んでよい。そのようなアバターは、通常は人間の外観に関連付けられる様々な人間以外の特性(例えば、装飾拡張物、帽子、眼鏡など)(例えば、図8BB~8CFに示されている)を有する個人の表現も含む。いくつかの実施形態では、そのようなアバターは、定型化された動物、定型化されたロボット、又は通常は無生物若しくは非人間的対象物の定型化などの、擬人化された構成を含まない。アバターの外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, a first type of avatar (eg, avatar 670) has the appearance of a human character (eg, an avatar modeled to represent a human rather than a non-human character). In some embodiments, such avatars include customizable (eg, selectable or configurable) avatar features that generally correspond to human physical characteristics (eg, as seen in FIGS. 8A-8BB). head, hair, eyes, and lips). For example, such avatars may include representations of individuals with various physical human features or characteristics (eg, an elderly woman with dark skin tone and long brown straight hair). Such avatars are representations of individuals with various non-human characteristics (e.g., decorative extensions, hats, eyeglasses, etc.) normally associated with human appearance (e.g., shown in FIGS. 8BB-8CF). Also includes In some embodiments, such avatars do not include anthropomorphic features, such as stylized animals, stylized robots, or stylized typically inanimate or non-human objects. The avatar's appearance provides feedback to the user indicating the types of avatar characteristics that can be customized. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第2の種類のアバター(例えば、図6Gに示されたアバターオプションに対応するアバターであるアバター645)は、人間以外のキャラクターの外観を有する(例えば、擬人化された構成(例えば、定型化された動物、定型化されたロボット、又は通常は無生物若しくは非人間的対象物の定型化)である人間以外のキャラクターなどを含む、人間以外のキャラクターを表すようにモデル化されたアバター)。アバターの外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the second type of avatar (eg, avatar 645, which is the avatar corresponding to the avatar option shown in FIG. 6G) has the appearance of a non-human character (eg, anthropomorphic). Modeled to represent non-human characters, including non-human characters that are constructs (e.g., stylized animals, stylized robots, or stylizations of normally inanimate or non-human objects) avatar). Avatar appearance provides feedback to the user indicating the types of avatar characteristics that can be customized. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1の種類(例えば、670)のアバターは、ユーザによって構成可能(例えば、作成可能、選択可能、カスタマイズ可能)な複数のアバター特徴部(例えば、851、828)を含む。いくつかの実施形態では、そのようなアバターは、ユーザによって作成可能であり、又はユーザによって構成可能な複数の特徴を使用して予め構成され得る。いくつかの実施形態では、アバター特徴部の構成は、仮想アバターの外観又は物理的構造における大幅な変更をもたらす。 According to some embodiments, an avatar of a first type (eg, 670) has a plurality of avatar features (eg, 851, 828) that are user-configurable (eg, createable, selectable, customizable). include. In some embodiments, such an avatar may be user-creatable or pre-configured with a number of user-configurable features. In some embodiments, configuring avatar features results in significant changes in the appearance or physical structure of the virtual avatar.

いくつかの実施形態に従って、第2の種類(例えば、645)のアバターは、ユーザによって構成可能(例えば、作成可能、選択可能、カスタマイズ可能)なアバター特徴部を含まない。いくつかの実施形態では、そのようなアバターは、予め構成されており、ユーザによって構成可能な特徴を有していない。場合によっては、そのようなアバターは、わずかに変更されてよいが(例えば、アバターの色を変更するか、又はアバターのサイズを変更する)、そのような変更は、仮想アバターの外観又は物理的構造を大幅に変更しない。 According to some embodiments, avatars of the second type (eg, 645) do not include avatar features that are user-configurable (eg, createable, selectable, customizable). In some embodiments, such avatars are pre-configured and have no user-configurable characteristics. In some cases, such avatars may be slightly modified (e.g., changing the color of the avatar or changing the size of the avatar), but such modifications may affect the appearance or physical appearance of the virtual avatar. Do not change the structure significantly.

いくつかの実施形態に従って、アバターナビゲーションユーザインターフェースは、複数のアバターを有する部分領域(例えば、686)を含む。複数のアバターは、第1の種類(例えば、670a、688a、670a)のアバターの第1の集合及び第2の種類(例えば、640a)のアバターの第2の集合を含む。第1の種類のアバターの第1の集合は、第2の種類のアバターの第2の集合から分離される(例えば、区別される)。いくつかの実施形態では、第1の種類のアバターが第2の種類のアバターから分離されており、それによって、アバターナビゲーションユーザインターフェースが表示されていて、電子デバイスがユーザのジェスチャ(例えば、スワイプジェスチャ)を検出したときに、デバイスが、アバターナビゲーションユーザインターフェースにおいて、ジェスチャが第1の方向である場合は第1の種類のアバターを表示又は選択し、あるいはジェスチャが第1の方向と反対の第2の方向である場合は第2の種類のアバターを表示するようにする。いくつかの実施形態では、これによってユーザは、異なる種類のアバターに到達するために同じ種類の複数のアバターをスクロールする必要なしに、第1又は第2の種類のアバターを直ちに選択することができる。様々な種類のアバターを視覚的に分離することによって、複数の種類のアバターが表示されている(かつ、カスタマイズに利用できる)ことを示すフィードバックをユーザに提供し、カスタマイズ可能なアバターの特性の種類に関してユーザに知らせる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the avatar navigation user interface includes a subregion (eg, 686) with multiple avatars. The plurality of avatars includes a first set of avatars of a first type (eg, 670a, 688a, 670a) and a second set of avatars of a second type (eg, 640a). The first set of avatars of the first type is separated (eg, distinguished) from the second set of avatars of the second type. In some embodiments, the first type of avatar is separated from the second type of avatar such that an avatar navigation user interface is displayed and the electronic device responds to user gestures (e.g., swipe gestures). ), the device displays or selects the first type of avatar in the avatar navigation user interface if the gesture is in the first direction, or displays or selects the first type of avatar if the gesture is in the first direction, or the second In the direction of , the second type of avatar is displayed. In some embodiments, this allows the user to immediately select a first or second type of avatar without having to scroll through multiple avatars of the same type to reach a different type of avatar. . Provide feedback to the user that multiple types of avatars are being displayed (and available for customization) by visually separating the various types of avatars, and the types of avatar traits that can be customized inform the user about By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、アバター(例えば、670)は、第1の種類のアバターの第1の集合のうちの1つ以上と、第2の種類のアバターの第2の集合のうちの1つ以上との間の位置(例えば、境界領域(例えば、675))に表示された複数のアバターのうちの選択された1つである(例えば、アバターナビゲーションユーザインターフェースに最初に表示されるアバターは、第1の種類のアバターのグループと第2の種類のアバターのグループの間に配置される)。 According to some embodiments, the avatars (eg, 670) are one or more of a first set of avatars of a first type and one of a second set of avatars of a second type. (e.g., the first avatar displayed in the avatar navigation user interface) is a selected one of a plurality of avatars displayed at a position between (e.g., a boundary region (e.g., 675)) placed between a group of avatars of the first type and a group of avatars of the second type).

いくつかの実施形態に従って、第1の種類のアバターの第1の集合は、複数のアバターのうちの選択された1つを含む。電子デバイスは、ジェスチャが第1の方向であるという判定に従って、複数のアバターのうちの選択された1つを、第1の種類の異なるアバターに置き換える(例えば、選択されたアバター(例えば、670)が、第1の種類のアバターの第1の集合からの第1の種類(例えば、688)のアバターのうちの異なる1つに置き換えられる)。電子デバイスは、ジェスチャが第2の方向であるという判定に従って、複数のアバターのうちの選択された1つを、第2の種類のアバターに置き換える(例えば、選択されたアバター(例えば、670)が、第2の種類のアバターの第2の集合からの第2の種類(例えば、645)のアバターのうちの1つに置き換えられる)。 According to some embodiments, the first set of avatars of the first type includes selected ones of the plurality of avatars. The electronic device replaces the selected one of the plurality of avatars with a different avatar of a first type according to the determination that the gesture is in the first direction (e.g., the selected avatar (e.g., 670) is replaced with a different one of the avatars of the first type (eg, 688) from the first set of avatars of the first type). The electronic device replaces a selected one of the plurality of avatars with an avatar of a second type (eg, the selected avatar (eg, 670) is , is replaced by one of the avatars of the second type (eg, 645) from the second set of avatars of the second type.

いくつかの実施形態に従って、第2の種類のアバターの第2の集合は、複数のアバターのうちの選択された1つを含む。電子デバイスは、ジェスチャが第1の方向であるという判定に従って、複数のアバターのうちの選択された1つを、第1の種類のアバターに置き換える(例えば、選択されたアバター(例えば、645)が、第1の種類のアバターの第1の集合からの第1の種類(例えば、670)のアバターのうちの1つに置き換えられる)。電子デバイスは、ジェスチャが第2の方向であるという判定に従って、複数のアバターのうちの選択された1つを、第2の種類の異なるアバターに置き換える(例えば、選択されたアバター(例えば、645)が、第2の種類のアバターの第2の集合からの第2の種類のアバターのうちの異なる1つ(例えば、678)に置き換えられる)。 According to some embodiments, the second set of second type avatars includes a selected one of the plurality of avatars. The electronic device replaces the selected one of the plurality of avatars with an avatar of a first type according to the determination that the gesture is in the first direction (eg, the selected avatar (eg, 645) is , is replaced by one of the avatars of the first type (eg, 670) from the first set of avatars of the first type. The electronic device replaces the selected one of the plurality of avatars with a different avatar of a second type according to the determination that the gesture is in the second direction (e.g., the selected avatar (e.g., 645) is replaced with a different one of the second type avatars (eg, 678) from the second set of second type avatars).

特定の種類のアバターを表示することによって、入力が受信されたこと、及びデバイスが現在、特定の種類のアバターを選択できる状態にあるということを確認する視覚フィードバックを、ユーザに提供する。電子デバイスは、アバターを置き換えることによって、デバイスが、置き換えられたアバターをユーザによって選択できなくなった状態にあるということの視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Displaying a particular type of avatar provides visual feedback to the user confirming that input has been received and that the device is now ready to select the particular type of avatar. By replacing the avatar, the electronic device provides visual feedback that the device is in a state where the replaced avatar is no longer selectable by the user. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、アバターナビゲーションユーザインターフェースは、第1のアフォーダンス(例えば、682)(例えば、選択可能な表示されたアバター、又は「編集」アフォーダンス(アバターではない))を含む。アバターナビゲーションユーザインターフェースが表示されている間に、電子デバイスは、1つ以上の入力デバイスを介して、第1のアフォーダンスに向けられたジェスチャを検出する(例えば、タッチスクリーンディスプレイ上の、「編集」アフォーダンス又は表示されたアバターに対応する位置でのタッチジェスチャ、あるいはスワイプアップジェスチャなどの、第1の方向と異なる第3の方向でのスワイプジェスチャ)。電子デバイスは、第1のアフォーダンスに向けられたジェスチャを検出することに応じて、アバターライブラリユーザインターフェース(例えば、686)を表示する。アバターライブラリユーザインターフェースは、第2のアフォーダンス(例えば、648)(例えば、「新しいアバター」又は「+」アフォーダンス)及び第1の種類の1つ以上のアバターを含む。 According to some embodiments, the avatar navigation user interface includes a first affordance (eg, 682) (eg, a selectable displayed avatar, or an "edit" affordance (not an avatar)). While the avatar navigation user interface is being displayed, the electronic device detects a gesture directed to the first affordance via one or more input devices (e.g., "edit" on the touch screen display). A swipe gesture in a third direction different from the first direction, such as a touch gesture at a location corresponding to an affordance or displayed avatar, or a swipe up gesture). The electronic device displays an avatar library user interface (eg, 686) in response to detecting a gesture directed at the first affordance. The avatar library user interface includes a second affordance (eg, 648) (eg, "new avatar" or "+" affordance) and one or more avatars of the first type.

いくつかの実施形態に従って、アバターライブラリユーザインターフェースが表示されている間に、電子デバイスは、1つ以上の入力デバイスを介して、第2のアフォーダンス(例えば、648)に向けられたジェスチャ(例えば、タッチスクリーンディスプレイ上の「新しいアバター」アフォーダンスに対応する位置でのタッチジェスチャ)を検出する。電子デバイスは、第2のアフォーダンスに向けられたジェスチャを検出することに応じて、アバター編集ユーザインターフェース(例えば、652)を表示する。アバター編集ユーザインターフェースは、第1の種類の新しいアバターを生成する(例えば、アバターライブラリユーザインターフェースに追加される新しいアバターを編集する)ユーザインターフェースである。一部の実施形態では、電子デバイスは、アバター編集ユーザインターフェースを表示し、第1の種類の新しいアバターを作成するためのユーザ入力を受信する。第1の種類の新しいアバターが作成された後に、デバイスは、第1の種類の新しいアバターをアバターライブラリユーザインターフェースに表示する。例えば、第1の種類の新しいアバターは、アバターライブラリ内の第1の種類の表示されたアバターの端に追加される。 According to some embodiments, while the avatar library user interface is being displayed, the electronic device, via one or more input devices, gestures (e.g., Detect touch gestures at locations corresponding to the "new avatar" affordance on the touch screen display). The electronic device displays an avatar editing user interface (eg, 652) in response to detecting a gesture directed at the second affordance. An avatar editing user interface is a user interface that creates a first type of new avatar (eg, edits a new avatar that is added to the avatar library user interface). In some embodiments, the electronic device displays an avatar editing user interface and receives user input to create a new avatar of the first type. After the new avatar of the first type is created, the device displays the new avatar of the first type in the avatar library user interface. For example, a new avatar of the first type is added to the end of the displayed avatars of the first type in the avatar library.

いくつかの実施形態に従って、電子デバイスは、第1の種類の新しいアバターを生成し、新しいアバターをアバターライブラリユーザインターフェース(例えば、686)に表示する。新しいアバターは、第1の種類の1つ以上のアバターのうちの最後の1つの次の位置(例えば、第1の種類の1つ以上のアバターの順序における最後の位置)に表示される。 According to some embodiments, the electronic device generates a new avatar of the first type and displays the new avatar in the avatar library user interface (eg, 686). The new avatar is displayed in the position next to the last one of the one or more avatars of the first type (eg, the last position in the order of the one or more avatars of the first type).

いくつかの実施形態に従って、アバターナビゲーションユーザインターフェースは、アバターを表示されたアバターナビゲーションユーザインターフェースから除去する(例えば、削除する、又は非表示にする)機能に関連付けられたアフォーダンス(例えば、「削除」アフォーダンス)(例えば、692c)を更に含む。電子デバイスは、1つ以上の入力デバイスを介して、この機能に関連付けられたアフォーダンスに向けられたジェスチャ(例えば、タッチスクリーンディスプレイ上の「削除」アフォーダンスに対応する位置でのタッチジェスチャ)を検出する。電子デバイスは、この機能に関連付けられたアフォーダンスに向けられたジェスチャを検出することに応じて、アバターを表示されたアバターナビゲーションユーザインターフェースから除去する(例えば、削除する、又は非表示にする)。 According to some embodiments, the avatar navigation user interface includes affordances (e.g., "delete" affordances) associated with the ability to remove (e.g., delete or hide) avatars from the displayed avatar navigation user interface. ) (eg, 692c). The electronic device detects, via one or more input devices, a gesture directed at the affordance associated with this function (e.g., a touch gesture at a location corresponding to the "delete" affordance on the touchscreen display). . The electronic device removes (eg, deletes or hides) the avatar from the displayed avatar navigation user interface in response to detecting a gesture directed at the affordance associated with this function.

いくつかの実施形態に従って、アバターナビゲーションユーザインターフェースは、メッセージングユーザインターフェース(例えば、603)(例えば、通信プラットフォームによってホストされた会話の参加者間でメッセージを送信するインターフェース)に表示される。いくつかの実施形態では、アバターは、メッセージングユーザインターフェースの一部として表示されたアバターナビゲーションユーザインターフェースからアクセスされることが可能であり、それによって、アバターナビゲーションユーザインターフェースから選択されたアバターが、会話の参加者に送信するメッセージングユーザインターフェースに表示されるようにする。 According to some embodiments, the avatar navigation user interface is displayed on a messaging user interface (eg, 603) (eg, an interface for sending messages between participants in conversations hosted by a communication platform). In some embodiments, the avatar can be accessed from an avatar navigation user interface displayed as part of the messaging user interface, whereby an avatar selected from the avatar navigation user interface can participate in a conversation. Be visible in the messaging user interface that you send to participants.

アバターナビゲーションユーザインターフェースをメッセージングユーザインターフェースに表示することで、ユーザは、メッセージングユーザインターフェースを離れることなくアバター間でナビゲートすることが可能になり、したがって、電子デバイスのアプリケーション間で切り替えるためのユーザ入力を提供する必要がなくなる。必要なユーザ入力の数を低減することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Displaying an avatar navigation user interface in a messaging user interface allows a user to navigate between avatars without leaving the messaging user interface, thus providing user input to switch between applications of the electronic device. no longer need to provide. By reducing the number of user inputs required, the usability of the device is improved, and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing errors), as well as reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイスは、アバターナビゲーションユーザインターフェースが第1の種類のアバターを含んでいないという判定に従い、第1の種類の新しいアバターの生成に関連付けられたアフォーダンス(例えば、632)(例えば、「続行」アフォーダンス)を有するアバター開始ユーザインターフェース(例えば、626)(例えば、アバタースプラッシュスクリーン)を表示する。アバター開始ユーザインターフェースが表示されている間に、電子デバイスは、第1の種類の新しいアバターの生成に関連付けられたアフォーダンスに向けられたジェスチャ(例えば、630)(例えば、タッチスクリーンディスプレイ上の「続行」アフォーダンスに対応する位置でのタッチジェスチャ)を検出する。電子デバイスは、第1の種類の新しいアバターの生成に関連付けられたアフォーダンスに向けられたジェスチャを検出することに応じて、アバター編集ユーザインターフェース(例えば、652、801)を表示する。アバター編集ユーザインターフェースは、第1の種類の新しいアバターを生成する(例えば、アバターライブラリユーザインターフェースに追加される新しいアバターを編集する)ユーザインターフェースである。 According to some embodiments, the electronic device, following a determination that the avatar navigation user interface does not include avatars of the first type, provides affordances (e.g., 632) associated with generating new avatars of the first type (e.g., 632) ( For example, display an avatar-initiated user interface (eg, 626) (eg, an avatar splash screen) with a "continue" affordance). While the avatar initiation user interface is being displayed, the electronic device may make a gesture (eg, 630) directed to the affordance associated with generating a new avatar of the first type (eg, "Continue" on the touch screen display). ” touch gestures at locations corresponding to affordances). The electronic device displays an avatar editing user interface (eg, 652, 801) in response to detecting a gesture directed to affordances associated with creating a new avatar of the first type. An avatar editing user interface is a user interface for creating a first type of new avatar (eg, editing a new avatar that is added to the avatar library user interface).

いくつかの実施形態に従って、電子デバイスは、アバターナビゲーションユーザインターフェースが第1の種類のアバターを含んでいるという判定に従い、第1の種類のアバター、及び第1の種類(例えば、670)の表示されたアバターの1つ以上の特徴の管理に関連付けられたアフォーダンス(例えば、682)(例えば、「編集」アフォーダンス)を表示する。いくつかの実施形態では、第1の種類の1つ以上のアバターが作成されている場合、アバターナビゲーションユーザインターフェースは、第1の種類のアバターのうちの1つ及びアフォーダンス(例えば、「編集」アフォーダンス)を表示する。いくつかの実施形態では、電子デバイスは、アフォーダンスの選択を検出することに応じて、第1の種類(例えば、670)のアバター及び第1の種類(例えば、688)のその他のアバターの表現を含んでいるアバターライブラリユーザインターフェース(例えば、686)を表示する。いくつかの実施形態では、電子デバイスは、第1の種類の表示されたアバターの選択を検出することに応じて、アバターライブラリユーザインターフェースを表示する。いくつかの実施形態では、電子デバイスは、アフォーダンス又は第1の種類の表示されたアバターの選択を検出することに応じて、第1の種類のアバターを編集するユーザインターフェースを提供するアバター編集ユーザインターフェース(例えば、652、801)を表示する。 According to some embodiments, the electronic device displays the first type of avatar and the first type (e.g., 670) following a determination that the avatar navigation user interface includes the first type of avatar. display affordances (eg, 682) associated with managing one or more characteristics of the avatar (eg, an “edit” affordance). In some embodiments, when one or more avatars of the first type have been created, the avatar navigation user interface displays one of the avatars of the first type and an affordance (e.g., an "edit" affordance ). In some embodiments, the electronic device renders representations of avatars of the first type (eg, 670) and other avatars of the first type (eg, 688) in response to detecting selection of affordances. Display the containing avatar library user interface (eg, 686). In some embodiments, the electronic device displays an avatar library user interface in response to detecting selection of the first type of displayed avatar. In some embodiments, the electronic device provides an avatar editing user interface for editing the first type of avatar in response to detecting affordances or selection of the first type of displayed avatar. (eg, 652, 801).

いくつかの実施形態に従って、第1の種類のアバターを表示することは、非対話状態(例えば、図6Lの670)(例えば、第1の種類のアバターが、ユーザの顔における変化に反応しない静的な既定の外観を有する)から対話状態(例えば、図6Mの670)(例えば、第1の種類のアバターが、ユーザの顔における変化に反応する動的な外観を有する)へ移行する第1の種類のアバターを表示することを含む。いくつかの実施形態に従って、第2の種類のアバターを表示することは、非対話状態(例えば、図6Oの678)(例えば、第2の種類のアバターが、ユーザの顔における変化に反応しない静的な既定の外観を有する)から対話状態(例えば、図6Pの678)(例えば、第2の種類のアバターが、ユーザの顔における変化に反応する動的な外観を有する)へ移行する第2の種類(例えば、678)のアバターを表示することを含む。 According to some embodiments, displaying the first type of avatar may be performed in a non-interactive state (eg, 670 in FIG. 6L) (eg, a static state in which the first type of avatar does not react to changes in the user's face). ) to an interactive state (e.g., 670 in FIG. 6M) (e.g., a first type of avatar has a dynamic appearance that reacts to changes in the user's face). Including displaying avatars of the type According to some embodiments, displaying the second type of avatar may be performed in a non-interactive state (eg, 678 in FIG. 6O) (eg, a static state in which the second type of avatar does not react to changes in the user's face). (e.g., a second type of avatar has a dynamic appearance that reacts to changes in the user's face) from an interactive state (e.g., 678 in FIG. 6P) (e.g., a second type of avatar has a dynamic appearance that reacts to changes in the user's face). types (eg, 678) of avatars.

いくつかの実施形態に従って、電子デバイスは、表示装置を介して、第1の種類(例えば、688、670)の1つ以上の保存された(例えば、以前に作成された)アバターを含んでいるアバターライブラリユーザインターフェース(例えば、686)を表示する。電子デバイスは、(例えば、向けられたジェスチャを検出して)第1の種類の保存されたアバターのうちの1つの選択を検出する(例えば、タッチスクリーンディスプレイ上の第1の種類の保存されたアバターに対応する位置でのタッチジェスチャ)。電子デバイスは、(例えば、向けられたジェスチャを検出して)第1の種類の保存されたアバターのうちの1つの選択を検出することに応じて、第1の種類の保存されたアバターのうちの1つに対する編集機能、複製機能、及び削除機能のうちの1つに関連付けられた1つ以上のメニューアフォーダンス(例えば、「編集」アフォーダンス692a、「複製」アフォーダンス692b、又は「削除」アフォーダンス692c)を有するメニュー(例えば、692)を表示する。 According to some embodiments, the electronic device includes one or more stored (e.g., previously created) avatars of a first type (e.g., 688, 670) via a display device Display the avatar library user interface (eg, 686). The electronic device detects selection of one of the first type of stored avatars (e.g., by detecting a directed gesture) (e.g., by detecting a first type of stored avatar on the touch screen display). touch gestures at positions corresponding to the avatar). The electronic device, in response to detecting selection of one of the first type of stored avatars (e.g., by detecting a directed gesture), selects one of the first type of stored avatars. (e.g., "Edit" affordance 692a, "Copy" affordance 692b, or "Delete" affordance 692c) associated with one of the edit, duplicate, and delete functions for one of to display a menu (eg, 692) with

いくつかの実施形態に従って、電子デバイスは、(例えば、向けられたジェスチャを検出して)複製機能に関連付けられた第1のアフォーダンス(例えば、692b)の選択を検出する(例えば、タッチスクリーンディスプレイ上の「複製」アフォーダンスに対応する位置でのタッチジェスチャ)。電子デバイスは、第1のアフォーダンスの選択を検出することに応じて、保存されたアバターのうちの1つの複製バージョン(例えば、695)を生成し、その複製バージョンをアバター編集ユーザインターフェース(例えば、694)に表示する(例えば、「複製」アフォーダンスを選択した後に、選択されたアバターが複製され、その後、保存されたアバターのうちの選択された1つのアバター特徴部に一致するアバター特徴部を有するアバターの複製バージョンが、アバター編集ユーザインターフェースに表示される)。いくつかの実施形態では、複製されたアバターは、アバター編集ユーザインターフェース(例えば、652、694、801)で編集され、編集後に、ライブラリ(例えば、686)に保存され得る。いくつかの実施形態では、複製アバターが保存された後に、この複製アバターは、アバターライブラリユーザインターフェースにおいて、アバターライブラリ内の保存されたアバターのうちの選択された1つの隣の位置(例えば、複製されたアバターのすぐ隣、又は順序内の次の位置であり、順序内のこの次の位置は、順序内の複製されたアバターの位置に直ちに進む)に表示される。 According to some embodiments, the electronic device detects (e.g., by detecting a directed gesture) selection of a first affordance (e.g., 692b) associated with the replication function (e.g., on a touch screen display). touch gesture at a position corresponding to the "duplicate" affordance of the ). The electronic device generates a duplicate version (eg, 695) of one of the saved avatars in response to detecting selection of the first affordance, and displays the duplicate version in the avatar editing user interface (eg, 694). ) to display (e.g., after selecting the "duplicate" affordance, the selected avatar is duplicated, and then an avatar with avatar features that match the avatar features of the selected one of the saved avatars is displayed in the avatar editing user interface). In some embodiments, the cloned avatar can be edited with an avatar editing user interface (eg, 652, 694, 801) and saved to a library (eg, 686) after editing. In some embodiments, after the duplicate avatar is saved, the duplicate avatar is placed next to the selected one of the saved avatars in the avatar library in the avatar library user interface (e.g., the duplicated avatar). immediately next to the duplicated avatar, or the next position in the sequence, which immediately advances to the duplicated avatar's position in the sequence.

いくつかの実施形態に従って、電子デバイスは、(例えば、向けられたジェスチャを検出して)編集機能に関連付けられた第2のアフォーダンス(例えば、692a)の選択を検出する(例えば、タッチスクリーンディスプレイ上の「編集」アフォーダンスに対応する位置でのタッチジェスチャ)。電子デバイスは、第2のアフォーダンスに向けられたジェスチャを検出することに応じて、保存されたアバター(例えば、編集機能が選択されたときに選択されたアバター)のうちの1つを含んでいるアバター編集ユーザインターフェース(例えば、652、694、801)を表示する。 According to some embodiments, the electronic device detects selection of a second affordance (e.g., 692a) associated with an editing function (e.g., by detecting a directed gesture) (e.g., on a touch screen display). touch gesture at a position corresponding to the "edit" affordance of the ). The electronic device includes one of the saved avatars (eg, the avatar selected when the editing function was selected) in response to detecting a gesture directed at the second affordance. Display the avatar editing user interface (eg, 652, 694, 801).

いくつかの実施形態に従って、電子デバイスは、(例えば、向けられたジェスチャを検出して)削除機能に関連付けられた第3のアフォーダンス(例えば、692c)の選択を検出する(例えば、タッチスクリーンディスプレイ上の「削除」アフォーダンスに対応する位置でのタッチジェスチャ)。電子デバイスは、(例えば、向けられたジェスチャを検出して)第3のアフォーダンスの選択を検出することに応じて、保存されたアバターのうちの表示された1つをアバターライブラリユーザインターフェースから除去する。 According to some embodiments, the electronic device detects selection of a third affordance (e.g., 692c) associated with the delete function (e.g., by detecting a directed gesture) (e.g., on a touch screen display). touch gesture at a position corresponding to the "remove" affordance of the ). The electronic device removes the displayed one of the saved avatars from the avatar library user interface in response to detecting selection of the third affordance (e.g., detecting a directed gesture). .

いくつかの実施形態に従って、電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、検出されたジェスチャ(例えば、676)の大きさ及び方向に従ってアバターナビゲーションユーザインターフェースを横切る方向に移動する個別のアバター(例えば、図6M~図6Oのインターフェース668を横切って移動する671)を表示することを含めて、第1又は第2の種類(例えば、670、671)の個別のアバターを表示する。電子デバイスは、個別のアバターが第1の位置(例えば、検出されたジェスチャの大きさ及び方向に基づいて決定される第1の閾値位置(例えば、個別のアバターの選択に関連付けられた位置))に達するという判定に従って、既定の外観を有する非対話状態(例えば、個別のアバターが、ユーザの顔において検出された変化に応じて変化しない既定の外観を有する、静的状態)(例えば、図6Oの671)から、検出された顔(例えば、673)(例えば、電子デバイスの1つ以上のカメラの視野内で検出された顔)に基づいて決定される外観を有する対話状態(例えば、図6Pの671)(例えば、個別のアバターが、ユーザの顔において検出された変化に応じて変化する、動的状態)へ移行している個別のアバターのアニメーションを表示する。いくつかの実施形態では、非対話状態から対話状態へ移行している個別のアバターのアニメーションは、アバターの顔の表情、位置、向き、及び/又はサイズを、中立的な顔の表情、位置、向き、及び/又はサイズからユーザの顔/頭部追跡に基づくアバターの顔の表情、位置、向き、及び/又はサイズに、徐々に変更することを含む。アバターの外観は、ユーザのジェスチャの大きさ及び方向に従うアバターの動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) traverses the avatar navigation user interface according to the magnitude and direction of the detected gesture (eg, 676) via the display (eg, 601). Displaying individual avatars of a first or second type (eg, 670, 671), including displaying moving individual avatars (eg, 671 moving across interface 668 of FIGS. 6M-6O). indicate. The electronic device determines that the individual avatar is at a first position (e.g., a first threshold position determined based on the magnitude and direction of the detected gesture (e.g., a position associated with selection of the individual avatar)). A non-interactive state with a default appearance (e.g., a static state in which an individual avatar has a default appearance that does not change in response to detected changes in the user's face) (e.g., FIG. 6O 671) from the interaction state (e.g., FIG. 6P 671) (eg, a dynamic state in which the individual avatar changes in response to changes detected in the user's face). In some embodiments, animation of an individual avatar transitioning from a non-interactive state to an interactive state changes the avatar's facial expression, position, orientation, and/or size to a neutral facial expression, position, Gradual change from orientation and/or size to facial expression, position, orientation and/or size of the avatar based on the user's face/head tracking. The appearance of the avatar provides the user with feedback indicating the movement of the avatar according to the magnitude and direction of the user's gesture. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイス(例えば、600)は、個別のアバター(例えば、671)が第2の位置(例えば、図6Qの671)(例えば、検出されたジェスチャの大きさ及び方向に基づいて決定される第2の閾値位置(例えば、(例えば異なるアバターを選択するために)個別のアバターをスワイプすることに関連付けられた位置))に達するという判定に従って、検出された顔(例えば、673)に基づいて決定される外観を有する対話状態(例えば、図6Pの671)から、既定の外観を有する非対話状態(例えば、図6Rの671)へ移行している個別のアバターのアニメーションを表示する。いくつかの実施形態では、対話状態から非対話状態へ移行している個別のアバターのアニメーションは、アバターの顔の表情、位置、向き、及び/又はサイズを、ユーザの顔/頭部追跡に基づく顔の表情、位置、向き、及び/又はサイズからアバターの中立的な顔の表情、位置、向き、及び/又はサイズに、徐々に変更することを含む。対話状態から非対話状態へ移行するアバターのアニメーションを表示することによって、アバターの非対話的外観の視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (e.g., 600) detects that the individual avatar (e.g., 671) is in a second position (e.g., 671 in FIG. 6Q) (e.g., the magnitude and direction of the detected gesture). A detected face (e.g., 673) from an interactive state (e.g., 671 in FIG. 6P) to a non-interactive state (e.g., 671 in FIG. 6R) with a default appearance. indicate. In some embodiments, the animation of an individual avatar transitioning from an interactive state to a non-interactive state is based on the avatar's facial expression, position, orientation, and/or size based on the user's face/head tracking. Including gradually changing from a facial expression, position, orientation and/or size to the avatar's neutral facial expression, position, orientation and/or size. Providing visual feedback of the avatar's non-interactive appearance by displaying an animation of the avatar transitioning from an interactive state to a non-interactive state. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

なお、方法700に関して前述した処理(例えば、図7)の詳細は、以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法900は、方法700に関連して前述した様々な方法の特性のうちの1つ以上を、任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図9に関して後述される方法900に従って実現されてよい。追加の例として、方法1000、1100、1200、及び1400は、方法700に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10~図12に関して後述される方法に従って実現されてよい。別の例として、いくつかの実施形態では、ナビゲーションユーザインターフェースが、仮想アバターを変更する処理を呼び出し、この処理は、図14A及び図14Bに関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は、以下では繰り返さない。 It should be noted that the processing details described above with respect to method 700 (eg, FIG. 7) are applicable in an analogous manner to the methods described below. For example, method 900 optionally includes one or more of the various method features described above with respect to method 700 . For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which may be implemented according to method 900 described below with respect to FIG. As additional examples, methods 1000 , 1100 , 1200 , and 1400 optionally include one or more of the various method features described above with respect to method 700 . For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which process may be implemented according to the methods described below with respect to FIGS. 10-12. As another example, in some embodiments the navigational user interface invokes a process to modify the virtual avatar, which may be implemented according to the method described below with respect to Figures 14A and 14B. For the sake of brevity, these details are not repeated below.

図8A~図8CFは、いくつかの実施形態に従って、アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示している。これらの図のユーザインターフェースは、図9~図12の処理を含めた、以下で説明される処理を例示するために使用される。 8A-8CF illustrate exemplary user interfaces displaying an avatar editing user interface, according to some embodiments. The user interfaces of these figures are used to illustrate the processes described below, including the processes of FIGS. 9-12.

図8Aで、デバイス600は、アバター表示領域803及びアバターの特性領域804を有するアバター編集ユーザインターフェース801を表示している。アバター表示領域803は、例えばライン806によってアバターの特性領域804から視覚的に区別され、アバター805及びアバター特徴部領域807を含む。アバター特徴部領域807は、アバター編集ユーザインターフェースで編集され得るアバター特徴部に対応するアバター特徴部アフォーダンス809を含む。アバターの特性領域804は、表示されたアバター特徴部の特性及び対応する特徴部オプションを含む。アバター特徴部の特性及び特徴部オプションは、アバター特徴部領域807で現在選択されているアバター特徴部に対応する。図8Aで、デバイスは、アバター805の直下に配置されて、アバターの頭部の特徴が現在編集用に選択されていることを示すために強調表示されている、アバターの頭部アフォーダンス809aを表示している。アバターの頭部の特徴が編集用に選択されているため、デバイス600は、アバターの頭部の特徴に対応するアバター特徴部の特性及び特徴部オプションをアバターの特性領域804に表示する。 In FIG. 8A, device 600 displays avatar editing user interface 801 having avatar display area 803 and avatar properties area 804 . Avatar display area 803 is visually distinguished from avatar properties area 804 by, for example, line 806 and includes avatar 805 and avatar features area 807 . Avatar feature area 807 includes avatar feature affordances 809 corresponding to avatar features that can be edited with the avatar editing user interface. The avatar properties area 804 includes properties of the displayed avatar feature and corresponding feature options. The avatar feature properties and feature options correspond to the avatar feature currently selected in the avatar features area 807 . In FIG. 8A, the device displays the avatar's head affordance 809a, positioned directly below the avatar 805 and highlighted to indicate that the avatar's head features are currently selected for editing. are doing. Since the avatar head features have been selected for editing, the device 600 displays the avatar feature properties and feature options corresponding to the avatar head features in the avatar properties area 804 .

デバイスは、アバター編集ユーザインターフェースでアバターを編集するときに行われたアバター特徴部に対する変更に基づいて、アバターの現在の状態を表すように、アバター805を表示する。図8Aに示された実施形態では、アバター特徴部が選択されておらず、変更されてもいないため、アバター805は、複数のデフォルトの(例えば、予め設定又は決定された)特徴を伴って表示されている。例えば、アバター805は、既定の顔の構造(例えば、既定の顔の形状、鼻、唇、目、耳、及び眉)を有する。アバター805は、肌の色、毛髪又は髪形、顔の毛(眉以外)、及びアクセサリも選択されていない。デバイスがアバター特徴部を更新する入力を受信したときに、デバイス600は、アバター特徴部に対する選択された更新を反映するように、アバター805を更新する。 The device displays the avatar 805 to represent the current state of the avatar based on changes made to the avatar features when editing the avatar with the avatar editing user interface. In the embodiment shown in FIG. 8A, no avatar features have been selected or changed, so the avatar 805 is displayed with a number of default (eg, preset or determined) features. It is For example, the avatar 805 has predefined facial features (eg, predefined facial shapes, nose, lips, eyes, ears, and eyebrows). Avatar 805 also has no skin color, hair or hairstyle, facial hair (other than eyebrows), and accessories selected. When the device receives input to update avatar features, device 600 updates avatar 805 to reflect the selected updates to the avatar features.

いくつかの実施形態では、デバイス600は、アバター特徴部うちのいずれかの選択又は変更を検出する前に、2つ以上の色(例えば、黄色及び白色)の間で変動するアバター805を表示し、それによって、アバター805を変更するための入力をデバイス600が受信する準備ができていることを、ユーザに示すことができる。いくつかの実施形態では、デバイス600は、アバター特徴部うちのいずれかの選択又は変更を検出する前に、ユーザの顔を追跡しないでアバター805を表示する(例えば、アバター805は表示されるが、ユーザの顔における変化に応じて変更されない)。いくつかの実施形態では、デバイス600は、アバター編集ユーザインターフェース801での入力(例えば、色オプションの選択、表示された特徴部オプションのスクロール、アバター上のジェスチャ、アフォーダンス(例えば、「顔追跡の開始」アフォーダンス)上のジェスチャなど)を検出した後に、アバター805の表示の変動を停止し、かつ/又はユーザの顔の追跡(例えば、ユーザの顔において検出された変化に応じてアバター805を変更すること)を開始する。 In some embodiments, device 600 displays avatar 805 that fluctuates between two or more colors (eg, yellow and white) before detecting selection or change of any of the avatar features. , thereby indicating to the user that device 600 is ready to receive input to modify avatar 805 . In some embodiments, device 600 displays avatar 805 without tracking the user's face (e.g., avatar 805 is displayed but , not modified in response to changes in the user's face). In some embodiments, the device 600 supports input on the avatar editing user interface 801 (e.g., selecting color options, scrolling through displayed feature options, gestures on the avatar, affordances (e.g., "start face tracking"). (e.g., gestures on affordances), and/or track the user's face (e.g., change avatar 805 in response to detected changes in the user's face). ).

アバターの特性領域804は、現在選択されているアバター特徴部(例えば、アバターの頭部)に対応するアバター特徴部の特性の表示されたリストを含む。個別のアバター特徴部の特性は、選択されたアバター特徴部の対応する特性を変更するために選択され得る、選択可能な特徴部オプションの集合を含む。更に具体的には、選択可能な特徴部オプションの集合に含まれる選択可能な特徴部オプションはそれぞれ、選択されたアバター特徴部の対応する特性を変更するための値に対応する。その後、変更された特性は、アバター805に対する表示された変更、及びこの特性の表示された表現を含んでいるその他のアバター特徴部オプションに反映される。 Avatar properties area 804 includes a displayed list of avatar feature properties corresponding to the currently selected avatar feature (eg, avatar head). Individual avatar feature properties include a set of selectable feature options that can be selected to change corresponding properties of the selected avatar feature. More specifically, each selectable feature option in the set of selectable feature options corresponds to a value for modifying the corresponding characteristic of the selected avatar feature. The changed trait is then reflected in the displayed changes to the avatar 805 and other avatar feature options that include displayed representations of this trait.

デバイス600は、現在選択されているアバター特徴部の特性を変更するために使用できるオプションを表すように、アバター特徴部オプションを表示する。表示されたアバター特徴部オプションは、他の選択されたアバター特徴部オプションに基づいて、動的に更新され得る。他の選択されたアバター特徴部オプションは、同じ現在選択されているアバター特徴部に対応する異なるアバター特徴部オプション、及び異なるアバター特徴部(例えば、以前に変更されたアバター特徴部などの、現在選択されていないアバター特徴部)に対応する選択されたアバター特徴部オプションを含む。例えば、アバターの頭部の特徴の特性に対する変更(例えば、肌の色の選択)を、アバターの頭部の特徴に対応するアバター特徴部オプション(例えば、顔の形状の特徴部オプション)に表示することができ、任意選択的に、例えば毛髪又は目などの、他のアバター特徴部に対応するアバター特徴部オプションに表示することができる。この例では、デバイスは、肌の色の選択を検出することに応じて、現在表示されているアバター特徴部オプション(例えば、顔の形状オプション)を、選択された肌の色を表示するように更新する。更に、異なるアバター特徴部(例えば、目)が選択された場合、目に関して表示されるアバター特徴部オプションも、選択された肌の色を含む。 Device 600 displays the avatar feature options to represent options that can be used to change the characteristics of the currently selected avatar feature. The displayed avatar feature options may be dynamically updated based on other selected avatar feature options. Other selected avatar feature options include different avatar feature options corresponding to the same currently selected avatar feature, and different avatar features (e.g., previously changed avatar features, etc.). Contains the selected avatar feature option corresponding to the avatar feature that is not selected. For example, changes to the properties of the avatar's head features (e.g., skin color selection) are displayed in the avatar feature options (e.g., face shape feature options) that correspond to the avatar's head features. can optionally be displayed in the avatar feature options corresponding to other avatar features, such as hair or eyes. In this example, in response to detecting a skin color selection, the device changes the currently displayed avatar feature options (e.g., face shape options) to display the selected skin color. Update. Additionally, if a different avatar feature (eg, eyes) is selected, the avatar feature options displayed for the eyes also include the selected skin color.

図8Aに示されているように、アバターの頭部アフォーダンス809aが選択されているため、デバイス600は、アバターの頭部の特徴に対応するアバター特徴部の特性及び特徴部オプションを表示している。表示されたアバター特徴部の特性は、肌の色特性808及び顔の形状特性810を含んでいる(アバターの頭部の特徴は、その他のアバター特徴部の特性を含むことができる)。肌の色特性808は、アバターの頭部の特徴(例えば、アバター805の肌の色)の色を変更するために選択され得る色オプション812を含む。デバイスが特定の色オプション812の選択を検出した場合、デバイスは、現在選択されているアバター特徴部(例えば、図8Aのアバターの頭部)の肌の色を、選択された色に一致するように変更する。いくつかの実施形態では、肌の色オプション812の選択は、顔の毛の特徴(例えば、眉、顎ひげなど)、目の色、又は唇の色などの、別のアバター特徴部の色にも影響を与える。図8Aに示された実施形態では、肌の色特性808は、他のアバター特徴部の色オプションの最初に表示された集合(例えば、図8Pの毛髪の色特性838を参照)に対して拡張された色オプション808の集合を含む。いくつかの実施形態では、色オプション808の拡張された集合は、横方向にスクロールすることができず(ただし、縦方向にスクロールすることはできる)、色オプションの集合を拡張するために選択できるオプション(図8AXのカラーピッカーオプション886など)を含まない。顔の形状特性810は、アバター805の顔の形状を変更するために選択できる顔の形状オプション814を含む。 As shown in FIG. 8A, avatar head affordance 809a is selected, so device 600 displays avatar feature properties and feature options corresponding to the avatar's head features. . The displayed avatar feature properties include skin color properties 808 and face shape properties 810 (avatar head features can include other avatar feature properties). Skin color property 808 includes color options 812 that may be selected to change the color of the avatar's head features (eg, the skin color of avatar 805). If the device detects selection of a particular color option 812, the device will change the skin color of the currently selected avatar feature (eg, the avatar's head in FIG. 8A) to match the selected color. change to In some embodiments, selection of skin color option 812 may be applied to different avatar feature colors, such as facial hair features (eg, eyebrows, beard, etc.), eye color, or lip color. also affect. In the embodiment shown in FIG. 8A, the skin color characteristic 808 is extended with respect to the initially displayed set of other avatar feature color options (see, for example, the hair color characteristic 838 of FIG. 8P). contains a set of colored options 808. In some embodiments, the expanded set of color options 808 cannot be scrolled horizontally (but can be scrolled vertically) and can be selected to expand the set of color options. Does not include options (such as the color picker option 886 in FIG. 8AX). Face shape properties 810 include face shape options 814 that can be selected to change the face shape of avatar 805 .

いくつかの実施形態では、選択された特徴部オプションは、選択された特徴部オプションの周囲に表示された境界によって示される。例えば、顔の形状オプション814aの周囲に表示された境界818は、顔の形状オプション814aが現在選択されているアバターの顔の形状であることを示している。それに応じて、選択された顔の形状オプション814aと同じ顔の形状(例えば、丸い顎)を有するアバター805が表示されている。反対に、色オプション812が選択されていないため、肌の色(例えば、デフォルトの肌の色又は予め選択された肌の色)がないアバター805及び顔の形状オプション814が表示されている。 In some embodiments, the selected feature option is indicated by a border displayed around the selected feature option. For example, a border 818 displayed around face shape option 814a indicates that face shape option 814a is the currently selected avatar face shape. Accordingly, an avatar 805 having the same face shape (eg, round jaw) as the selected face shape option 814a is displayed. Conversely, since color option 812 is not selected, avatar 805 without skin color (eg, default skin color or pre-selected skin color) and face shape option 814 are displayed.

いくつかの実施形態では、表示されたアバター特徴部の特性はそれぞれ、他の隣接するアバター特徴部の特性から視覚的に区別される。いくつかの実施形態では、アバター特徴部の特性は、アバター特徴部の特性の個別のヘッダーによって視覚的に区別される。例えば、図8Aでは、肌の色特性808は、顔の形状ヘッダー816によって、顔の形状特性810から視覚的に区別されている。いくつかの実施形態では、アバター特徴部の特性は、その他のインジケータ(例えば、ディスプレイ601の幅を完全に、又は部分的に横切って伸びる横線など)によって、視覚的に区別される。 In some embodiments, each displayed avatar feature characteristic is visually distinct from other adjacent avatar feature characteristics. In some embodiments, the avatar feature properties are visually distinguished by separate headers for the avatar feature properties. For example, in FIG. 8A, skin color characteristic 808 is visually distinguished from face shape characteristic 810 by face shape header 816 . In some embodiments, avatar feature characteristics are visually distinguished by other indicators (eg, horizontal lines that extend completely or partially across the width of display 601, etc.).

図8Bで、デバイス600は、色オプション812aでの入力820(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、色オプション812aの選択を検出する。 In FIG. 8B, device 600 detects selection of color option 812a in response to receiving input 820 (eg, touch input on display 601) on color option 812a.

図8Cで、デバイス600は、色オプション812aの周囲に境界824を表示することによって、色オプション812aが選択されていることを示す。また、デバイス600は、選択された色オプション812aに一致する肌の色を有するように、アバター805及び顔の形状オプション814を変更する。加えて、デバイス600は、毛髪の色スライダー856(図8W~図8ACを参照)に関して後述される方法と同様の方法で調整できる、肌の色スライダー822を表示する。スライダー822は、選択された色オプション812aのグラデーションを調整するために使用される。いくつかの実施形態では、グラデーションは、例えば陰影、彩度、淡色、中間調、ハイライト、暖かさ、又は色相などの、選択された色オプション(例えば、肌の色オプション812a)の様々な特性を表現することができる。いくつかの実施形態では、特定の特性は、選択された肌の色に基づいて決定される。例えば、いくつかの実施形態では、より明るい肌の色が選択された場合、スライダーを使用して調整される特性は陰影特性であり、一方、浅黒い肌の色が選択された場合、スライダーを使用して調整される特性は彩度である。デバイス600は、選択された色オプション(例えば、選択された色オプション812a)の陰影に対する調整を検出することに応じて、アバター(例えば、アバター805)、肌の色を表示するすべての特徴部オプション(例えば、顔の形状オプション814)、及び肌の色による影響を受けるすべてのアバター特徴部の肌の色を変更する。 In FIG. 8C, device 600 indicates that color option 812a is selected by displaying a border 824 around color option 812a. Device 600 also modifies avatar 805 and face shape option 814 to have a skin tone that matches selected color option 812a. Additionally, the device 600 displays a skin tone slider 822 that can be adjusted in a manner similar to that described below with respect to the hair tone slider 856 (see FIGS. 8W-8AC). A slider 822 is used to adjust the gradation of the selected color option 812a. In some embodiments, the gradation may represent various characteristics of the selected color option (e.g., skin color option 812a) such as shading, saturation, tint, midtone, highlight, warmth, or hue. can be expressed. In some embodiments, the particular characteristic is determined based on the selected skin tone. For example, in some embodiments, if a lighter skin color is selected, the property that is adjusted using the slider is the shading property, whereas if a darker skin color is selected, the slider is used. The property that is adjusted is saturation. Device 600 adjusts the avatar (e.g., avatar 805), all feature options displaying skin color, in response to detecting an adjustment to the shading of the selected color option (e.g., selected color option 812a). (eg, face shape option 814), and change the skin color of all avatar features affected by skin color.

いくつかの実施形態では、選択された肌の色は、他のアバター特徴部(例えば、毛髪、唇など)の色又は色特性(例えば、基色、色相、輝度、陰影、彩度、中間調、ハイライト、暖かさ、アンダートーンなど)に影響を与える。例えば、アバターの毛髪又は顔の毛(例えば、眉又は顎ひげ)は、選択された肌の色に基づいて決定される、淡色を有してよい。例えば、肌の色が暗くなるほど、より暗い淡色(例えば、茶色又は黒色の淡色)を有する毛髪が生成され、一方、肌の色が明るいほど、より明るい淡色(例えば、ブロンド又は赤色の淡色)の毛髪が生成される。これらの淡色は、下で更に詳細に説明されているように、特定のアバター特徴部に適用される色に影響を与えることができる。同様に、アバターの唇の色は、選択された肌の色に基づく淡色を有することができる。例えば、アバターの唇の色は、選択された肌の色に基づく色、及び任意選択的に、赤色又はピンク色などの異なる色を有することができる。いくつかの実施形態では、異なる色が、色スライダー822の調整の設定に基づいて決定された量だけ、肌の色に結合される。例えば、スライダー822を一方向に調整することで、アバターの唇の色を構成する異なる色の値(例えば、アバターの唇の色における赤色又はピンク色の量)が増加し、スライダー822を別の方向に調整することで、アバターの唇の色を構成する異なる色の値が減少する。 In some embodiments, the skin color selected is the color or color characteristics (e.g., base color, hue, brightness, shading, saturation, midtone, highlights, warmth, undertones, etc.). For example, the avatar's hair or facial hair (eg, eyebrows or beard) may have a tint determined based on the selected skin tone. For example, darker skin tones produce hair with darker shades (e.g., brown or black shades), while lighter skin tones produce hair with lighter shades (e.g., blonde or red shades). Hair is produced. These tints can influence the colors applied to certain avatar features, as described in more detail below. Similarly, the avatar's lip color can have a tint based on the selected skin tone. For example, the avatar's lip color can have a color based on the selected skin tone and optionally a different color such as red or pink. In some embodiments, a different color is combined with the skin color by an amount determined based on the adjustment setting of color slider 822 . For example, adjusting slider 822 in one direction increases the value of the different colors that make up the avatar's lip color (eg, the amount of red or pink in the avatar's lip color), and adjusting slider 822 in another direction increases it. Adjusting direction reduces the different color values that make up the avatar's lip color.

図8Cに示されているように、アバターの頭部の特徴の肌の色を更新することは、アバターの鼻、耳、顔、及び唇828の肌の色を変更することを含む。いくつかの実施形態では、アバターの唇828の肌の色を更新することは、唇の外側領域828aの肌の色を変更すること、及び唇の内部828bを変更しないことを含む。いくつかの実施形態では、デバイス600は、アバターの肌とは異なる他のアバター特徴部(眉827及びアバターの目829など)の色も更新する。いくつかの実施形態では、他の特徴(例えば、眉827及び目829)の更新される色は、選択された肌の色に基づく。例えば、眉827の更新される色は、選択された肌の色オプション812aよりも暗くなるように決定された色に更新される。これらの更新は、アバター805、及び顔の形状オプション814などの他のアバター特徴部オプションの両方に表示される。 As shown in FIG. 8C, updating the skin color of the avatar's head features includes changing the skin color of the avatar's nose, ears, face, and lips 828 . In some embodiments, updating the skin color of the avatar's lips 828 includes changing the skin color of the outer region 828a of the lip and not changing the interior 828b of the lip. In some embodiments, device 600 also updates the color of other avatar features that differ from the avatar's skin (such as eyebrows 827 and avatar eyes 829). In some embodiments, the updated colors of other features (eg, eyebrows 827 and eyes 829) are based on the selected skin tone. For example, the updated color of the eyebrows 827 is updated to a color determined to be darker than the selected skin color option 812a. These updates are displayed on both the avatar 805 and other avatar feature options such as face shape options 814 .

図8Dで、デバイス600は、顔の形状オプション814bでの入力826(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、顔の形状オプション814bの選択を検出する。それに応じて、デバイス600は、肌の色スライダー822を図8Eのアバターの特性領域804から除去し、境界818を顔の形状オプション814aから顔の形状オプション814bに移動することによって、選択された顔の形状オプションを示し、814aの丸い顔の形状オプションから顔の形状オプション814bで表された異なる顔の形状(例えば、とがった顎、狭い頬)に移行するように、アバター805を変更する。したがって、アバター805は、図8Dに示されている丸い顎を有する状態から、図8Eに示されているとがった顎と狭い頬へ移行して、表示される。 In FIG. 8D, device 600 detects selection of face shape option 814b in response to receiving input 826 (eg, touch input on display 601) on face shape option 814b. In response, the device 600 removes the skin tone slider 822 from the avatar properties area 804 of FIG. and change the avatar 805 to transition from a round face shape option at 814a to a different face shape (eg, pointed chin, narrow cheeks) represented by face shape option 814b. Thus, the avatar 805 is displayed transitioning from having a rounded chin shown in FIG. 8D to a pointed chin and narrow cheeks shown in FIG. 8E.

いくつかの実施形態では、特徴部オプションが選択された後に、デバイス600は、アバター特徴部領域807内の次のアバター特徴部を選択するようにユーザを導くために、アニメーションを表示する。例えば、図8Fで、デバイス600は、アバターの毛髪アフォーダンス809bを強調表示し、アバターの毛髪アフォーダンス809bを選択して次のアバター特徴部の編集に進むように、ユーザに対して促す。いくつかの実施形態では、このアニメーションは、デバイスがアバター編集ユーザインターフェースを最初に表示したときにのみ表示される。 In some embodiments, after a feature option is selected, device 600 displays an animation to guide the user to select the next avatar feature within avatar feature area 807 . For example, in FIG. 8F, device 600 highlights avatar hair affordance 809b and prompts the user to select avatar hair affordance 809b to proceed to editing the next avatar feature. In some embodiments, this animation is only displayed the first time the device displays the avatar editing user interface.

図8Gで、デバイス600は、アバターの毛髪アフォーダンス809bでの入力830(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、アバターの毛髪アフォーダンス809bの選択を検出する。デバイス600は、アバターの毛髪アフォーダンス809bの選択を検出することに応じて、アバターの毛髪の特徴が選択されたことを示すようにアバター表示領域803を更新し、アバターの毛髪の特徴に対応するアバター特徴部の特性及び特徴部オプションを表示するようにアバターの特性領域804を更新する。この移行が、図8H~図8Oに示されている。 In FIG. 8G, device 600 detects selection of avatar hair affordance 809b in response to receiving input 830 (eg, touch input on display 601) on avatar hair affordance 809b. In response to detecting the selection of the avatar hair affordance 809b, the device 600 updates the avatar display area 803 to indicate that the avatar hair feature has been selected, and the avatar corresponding to the avatar hair feature. Update the avatar properties area 804 to display the feature properties and feature options. This transition is illustrated in Figures 8H-8O.

いくつかの実施形態では、個別のアバター特徴部アフォーダンス809は、個別のアバター特徴部アフォーダンス809でのタップジェスチャによって、又はアバター特徴部領域807でのスワイプジェスチャ(又は、任意選択的に、アバター805以外のアバター表示領域803上の任意の位置でのスワイプジェスチャ)によって選択され得る。そのような実施形態では、スワイプジェスチャによって、アバター特徴部領域807を横方向にスクロールし、所望のアバター特徴部アフォーダンス809をアバター805の直下に配置することができる。デバイス600は、タッチのリフトオフを検出することに応じて、スクロールが終了した後にアバター805の直下に配置されたアバター特徴部アフォーダンスを(アフォーダンスを強調表示することを含めて)選択する。 In some embodiments, the individual avatar feature affordance 809 is triggered by a tap gesture on the individual avatar feature affordance 809, or by a swipe gesture on the avatar feature region 807 (or, optionally, on an avatar other than 805). swipe gesture anywhere on the avatar display area 803). In such embodiments, the swipe gesture may scroll the avatar feature region 807 horizontally to position the desired avatar feature affordance 809 directly below the avatar 805 . Device 600 selects (including highlighting the affordance) the avatar feature affordance located directly below avatar 805 after scrolling ends in response to detecting touch liftoff.

図8Hに示されているように、デバイス600は、アバターの毛髪アフォーダンス809bを強調表示し、アバターの毛髪アフォーダンス809bがアバター805の直下に配置されるように、左にずれたアバター特徴部アフォーダンス809を表示することによって、アバター表示領域803を更新する。アバターの目アフォーダンス809cが(図8Gでのその位置に対して)左にずれ、現在、アバターの唇アフォーダンス809dがディスプレイ601の右端の縁部に表示されている。 As shown in FIG. 8H, the device 600 highlights the avatar hair affordance 809b and shifts the avatar feature affordance 809 to the left such that the avatar hair affordance 809b is positioned directly below the avatar 805. is displayed to update the avatar display area 803 . The avatar's eye affordance 809c has shifted to the left (relative to its position in FIG. 8G) and the avatar's lip affordance 809d is now displayed at the rightmost edge of the display 601. FIG.

デバイス600は、アバターの顔フィーチャに対応するアバター特徴部の特性(例えば、肌の色特性808及び顔の形状特性810)を表示することを止め、新しく選択されたアバター特徴部に対応する新しいアバター特徴部の特性及び特徴部オプションを表示することによって、アバターの特性領域804を更新する。図8H~図8Oに示されている実施形態などの、いくつかの実施形態では、デバイス600は、カスケード効果で新しいアバター特徴部の特性及び特徴部オプションを表示し、それによって、アバターの毛髪の特徴に対応するアバター特徴部の特性が、左右(例えば、左から右へ)の順序、及び上から下へ(例えば、アバターの特性領域804の上部にある最初のアバター特徴部の特性から、アバターの特性領域804の下部にある最後のアバター特徴部の特性へ)の順序で、アバターの特性領域804に表示される。 The device 600 stops displaying avatar feature properties (e.g., skin color properties 808 and face shape properties 810) corresponding to the avatar's facial features and displays a new avatar corresponding to the newly selected avatar features. Update the avatar properties area 804 by displaying the feature properties and feature options. In some embodiments, such as the embodiment shown in FIGS. 8H-8O, the device 600 displays new avatar feature properties and feature options in a cascading effect, thereby displaying the avatar's hair. The avatar feature properties corresponding to the features are ordered from left to right (e.g., left to right) and top to bottom (e.g., from the properties of the first avatar feature at the top of the avatar's properties area 804 to the avatar to the properties of the last avatar feature at the bottom of properties area 804).

例えば、図8H及び図8Iは、ディスプレイ601を左から右へ横切ってスライドする毛髪の色オプションのアニメーションを伴ってディスプレイ601上に現れる毛髪の色オプション832を示している。すべての毛髪の色オプション832が配置される前に、デバイス600は、ディスプレイ601上の毛髪の色オプション832の下に、1つずつ、左から右への順序で現れる毛髪のテクスチャーオプション834のアニメーションの表示を開始する(図8Jで開始して、図8Lで終了する)。毛髪のテクスチャーオプション834が配置された後に、デバイス600は、ディスプレイ601上の毛髪のテクスチャーオプション834の下に、1つずつ、左から右への順序で現れる髪形オプション836を表示する(図8Mで開始して、図8Oで終了する)。特徴部オプションの個別の集合の連続的配置が、特徴部オプションの前の集合が配置される前(例えば、毛髪の色オプション832に対する毛髪のテクスチャーオプション834のタイミングと同様)、又は特徴部オプションの前の集合が配置された後(例えば、毛髪のテクスチャーオプション834に対する髪形オプション836のタイミングと同様)のいずれかで開始できるということが理解されるべきである。 For example, FIGS. 8H and 8I show hair color options 832 appearing on display 601 with an animation of the hair color options sliding across display 601 from left to right. Before all hair color options 832 are arranged, device 600 animates hair texture options 834 to appear one by one in left-to-right order below hair color options 832 on display 601 . (starting in FIG. 8J and ending in FIG. 8L). After the hair texture options 834 are arranged, the device 600 displays hairstyle options 836 that appear one after another in left-to-right order below the hair texture options 834 on the display 601 (see FIG. 8M). beginning and ending with FIG. 8O). The sequential placement of individual sets of feature options may occur before the previous set of feature options is placed (e.g., similar to the timing of hair texture options 834 with respect to hair color options 832), or after the placement of feature options. It should be understood that it can start either after the previous set has been laid out (eg, similar to the timing of hairstyle options 836 relative to hair texture options 834).

前述したように、選択されたアバター特徴部の特徴部オプションの一部は、毛髪の色オプションの外観に関して上で説明したようにスライドするカスケード効果で表示され、一方、選択されたアバター特徴部の他の特徴部オプションは、毛髪のテクスチャーオプション834及び髪形オプション836に関して説明したように反復的に配置するカスケード効果で表示される。本明細書において説明された実施形態のいずれかに従って、これらのカスケード効果のいずれかを、特徴部オプションの配置の表示に使用することができる。 As mentioned above, some of the feature options for the selected avatar feature are displayed in a sliding cascading effect as described above with respect to the appearance of the hair color options, while the Other feature options are displayed in a cascading effect that repeats placement as described with respect to hair texture option 834 and hairstyle option 836 . Any of these cascading effects can be used to display feature option placement according to any of the embodiments described herein.

図8Pで、デバイス600は、毛髪の色オプション832を有する毛髪の色特性838、毛髪のテクスチャーオプション834及びテクスチャーヘッダー841を有する毛髪のテクスチャー特性840、並びに髪形オプション836及び髪形ヘッダー843を有する髪形特性842を表示している。図8Pでは、毛髪の色オプションが選択されていない。しかし、境界844及び846によってそれぞれ示されているように、ストレートヘアのテクスチャーオプション834a及びはげ頭の髪形オプション836aが選択されている。はげ頭の髪形を有するアバター805が表示されているが、ストレートヘアのテクスチャーは、はげ頭の髪形のため、アバター805上で識別できない。しかし、ストレートヘアのテクスチャーは、ピクシーカットの髪形オプション836b及びボブカットの髪形オプション836cには反映され、これらの髪形オプションは、ストレートヘアのテクスチャーを有する異なる髪形を表示する。 In FIG. 8P, device 600 displays hair color properties 838 with hair color options 832, hair texture properties 840 with hair texture options 834 and texture header 841, and hairstyle properties with hairstyle options 836 and hairstyle header 843. 842 is displayed. In FIG. 8P, the hair color option has not been selected. However, straight hair texture option 834a and bald hairstyle option 836a have been selected, as indicated by boundaries 844 and 846, respectively. An avatar 805 with a bald hairstyle is displayed, but the straight hair texture cannot be discerned on the avatar 805 due to the bald hairstyle. However, straight hair texture is reflected in pixie cut hairstyle option 836b and bob cut hairstyle option 836c, which display different hairstyles with straight hair texture.

図8Pに示されているように、デバイス600は、短い髪形オプション836bでの入力848(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、ピクシーカットの髪形オプション836bの選択を検出する。図8Qで、デバイス600は、図8Pで選択されたピクシーカットの髪形オプション836bに対応するアバターの毛髪851を有し、選択されたストレートヘアのテクスチャー834aに対応するストレートヘアのテクスチャーを有するアバター805を表示している。デバイス600は、ピクシーカットの髪形オプション836bの検出された選択の視覚的な確認を提供するために、はげ頭の髪形オプション836aからピクシーカットの髪形オプション836bに移動した境界846も表示する。 As shown in FIG. 8P, device 600 detects selection of pixie cut hairstyle option 836b in response to receiving input 848 (eg, touch input on display 601) on short hairstyle option 836b. do. In FIG. 8Q, device 600 has avatar hair 851 corresponding to pixie cut hairstyle option 836b selected in FIG. 8P, and avatar 805 having straight hair texture corresponding to selected straight hair texture 834a. is displayed. The device 600 also displays a border 846 moved from the bald hairstyle option 836a to the pixie cut hairstyle option 836b to provide visual confirmation of the detected selection of the pixie cut hairstyle option 836b.

いくつかの実施形態では、特徴部オプションは、特徴部オプションに対応する個別のアバター特徴部のズームイン(例えば、拡大)表示を含む。そのような特徴部オプションでは、通常、アバター特徴部のクローズアップ表示が、異なるアバター特徴部オプションを区別するのに十分な詳細を示すために有益である。例えば、図8Rで、デバイス600は、毛髪のテクスチャー特性840に対応する毛髪のテクスチャーオプション834を表示している。毛髪のテクスチャーオプション834はそれぞれ、毛髪のテクスチャーオプション834によって表される異なる毛髪のテクスチャーがより良く示されるように、アバターの毛髪の拡大表示を表示しているため、これらの毛髪のテクスチャーオプション834は、ユーザによって容易に区別され得る。ストレートヘアのテクスチャーオプション834aは、ストレートヘアのテクスチャーを有するアバターの毛髪の拡大表示を表示する。ウェーブヘアのテクスチャーオプション834bは、ウェーブヘアのテクスチャーを有するアバターの毛髪の拡大表示を表示する。縮毛のテクスチャーオプション834cは、縮毛のテクスチャーを有するアバターの毛髪の拡大表示を表示する。 In some embodiments, feature options include a zoomed-in (eg, enlarged) display of individual avatar features corresponding to the feature option. For such feature options, a close-up view of the avatar feature is usually beneficial to show enough detail to distinguish between different avatar feature options. For example, in FIG. 8R, device 600 displays hair texture option 834 corresponding to hair texture property 840 . Because each of the hair texture options 834 displays a zoomed-in view of the avatar's hair to better show the different hair textures represented by the hair texture options 834, these hair texture options 834 , can be easily distinguished by the user. The straight hair texture option 834a displays a magnified view of the avatar's hair with straight hair texture. The wavy hair texture option 834b displays a magnified view of the avatar's hair with wavy hair texture. Curly texture option 834c displays a magnified view of the avatar's hair with curly texture.

図8Rに示されているように、デバイス600は、ウェーブヘアのテクスチャーオプション834bでの入力850(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、ウェーブヘアのテクスチャーオプション834bの選択を検出する。 As shown in FIG. 8R, device 600 selects wavy hair texture option 834b in response to receiving input 850 (eg, touch input on display 601) on wavy hair texture option 834b. to detect

図8S~図8Uは、図8Rで選択されたウェーブヘアのテクスチャーオプション834bを検出することに応じてアバター805及び個別の髪形特徴部オプション836を更新するデバイス600を示している。例えば、アバターの毛髪851は、図8Rでのストレートヘアのテクスチャーを有する外観から、図8Sでのウェーブヘアのテクスチャーを有する外観へ移行する。 8S-8U illustrate device 600 updating avatar 805 and individual hairstyle feature options 836 in response to detecting wavy hair texture option 834b selected in FIG. 8R. For example, the avatar's hair 851 transitions from the textured appearance of straight hair in FIG. 8R to the textured appearance of wavy hair in FIG. 8S.

更に、本明細書において説明された実施形態では、異なる特徴部オプションの選択による影響を受けるアバター特徴部を示す特徴部オプションが、その異なる特徴部オプションの選択を反映するように更新される。例えば、図8S~図8Uで、ピクシーカットの髪形オプション836b及びボブカットの髪形オプション836cがアバターの毛髪(具体的には、ウェーブヘアのテクスチャーオプション834bの選択による影響を受けるアバターの毛髪)を示しているため、髪形オプション836b及び836cに表示された個別の髪形が、図8Rでのストレートヘアのテクスチャーを有する外観から選択されたウェーブヘアのテクスチャーを有する異なる外観へ移行する個別の髪形オプションを表示するように、更新される。はげ頭の髪形オプション836aは、アバターの毛髪を表示しない。したがって、はげ頭の髪形オプション836aは、異なる外観に移行して表示されない。 Further, in the embodiments described herein, feature options indicating avatar features affected by selection of different feature options are updated to reflect the selection of the different feature options. For example, in FIGS. 8S-8U, a pixie cut hairstyle option 836b and a bob cut hairstyle option 836c show the avatar's hair (specifically, the avatar's hair affected by selection of the wavy hair texture option 834b). Therefore, the individual hairstyles displayed in hairstyle options 836b and 836c display individual hairstyle options that transition from an appearance with straight hair texture in FIG. 8R to a different appearance with wavy hair texture selected. so it will be updated. The bald hairstyle option 836a does not display the avatar's hair. Therefore, the bald hairstyle option 836a transitions to a different appearance and is not displayed.

いくつかの実施形態では、特定のアバター特徴部の特性に関する特徴部オプションが選択された場合、その選択に応じて、その特性に関して表示される特徴部オプションは変化しないが、他のアバター特徴部の特性に関する特徴部オプションは変化する。例えば、図8S~図8Uで、ウェーブヘアのテクスチャーオプション834bが選択されたときに、毛髪のテクスチャーオプション834は変化しないが、髪形オプション836は変化する。同様に、図8AN~図8AQ(後述される)に示されているように、異なる髪形オプションが選択されたときに、髪形オプションは変化しないが、他の特徴部オプション(例えば、毛髪のテクスチャーオプション)は変化する(例えば、図8AQで変更された毛髪のテクスチャーオプション834)。 In some embodiments, if a feature option for a particular avatar feature trait is selected, the displayed feature options for that trait do not change in response to the selection, but other avatar feature trait options do not change. Feature options for properties vary. For example, in FIGS. 8S-8U, when the wavy hair texture option 834b is selected, the hair texture option 834 does not change, but the hairstyle option 836 does. Similarly, as shown in FIGS. 8AN-8AQ (discussed below), when different hairstyle options are selected, the hairstyle options do not change, but other feature options (e.g., hair texture options) ) changes (eg, hair texture option 834 modified in FIG. 8AQ).

ピクシーカットの髪形オプション836b及びボブカットの髪形オプション836cの移行が、図8S~図8Uに示されている。図8Rでのストレートヘアのテクスチャーを有する外観から、図8S及び図8Tで選択されたウェーブヘアのテクスチャーを有する異なる外観へ移行している、ピクシーカットの髪形オプション836bが表示されている。この移行は、ストレートヘアのテクスチャーからウェーブヘアのテクスチャーへの移行中に、表示されたピクシーカットの髪形オプション836b及び任意選択的に境界846を拡大すること(図8Sの拡大されたピクシーカットの髪形オプション836b’及び拡大された境界846’を参照)、並びにその後、ウェーブヘアのテクスチャーを有する外観への移行が完了した後に、図8Tでピクシーカットの髪形オプション836bを再び元のサイズに縮小することを含む。図8Sでのストレートヘアのテクスチャーを有する外観から、図8T及び図8Uで選択されたウェーブヘアのテクスチャーを有する異なる外観へ移行している、ボブカットの髪形オプション836cが表示されている。この移行は、ストレートヘアのテクスチャーからウェーブヘアのテクスチャーへの移行中に、表示されたボブカットの髪形オプション836cを拡大すること(図8Tの拡大されたボブカットの髪形オプション836c’を参照)、並びにその後、ウェーブヘアのテクスチャーを有する外観への移行が完了した後に、図8Uでボブカットの髪形オプション836cを再び元のサイズに縮小することを含む。 The transition of the pixie cut hairstyle option 836b and the bob cut hairstyle option 836c is shown in FIGS. 8S-8U. A pixie cut hairstyle option 836b is displayed transitioning from an appearance with straight hair texture in FIG. 8R to a different appearance with wavy hair texture selected in FIGS. 8S and 8T. This transition consists in expanding the displayed pixie cut hairstyle option 836b and optionally the boundary 846 during the transition from straight hair texture to wavy hair texture (expanded pixie cut hairstyle in FIG. 8S). option 836b' and enlarged border 846'), and then shrinking the pixie cut hairstyle option 836b back to its original size in FIG. including. A bob cut hairstyle option 836c is displayed transitioning from an appearance with straight hair texture in FIG. 8S to a different appearance with wavy hair texture selected in FIGS. 8T and 8U. This transition consists of expanding the displayed bob cut option 836c during the transition from the straight hair texture to the wavy hair texture (see expanded bob cut option 836c' in FIG. 8T), and then , after the transition to the textured appearance of wavy hair is completed, shrinking the bob cut hairstyle option 836c back to its original size in FIG. 8U.

ピクシーカットの髪形オプション836bの移行が完了した後に(例えば、拡大されたピクシーカットの髪形オプション836b’が図8Tで元のサイズに戻るのを表示した後に)、ボブカットの髪形オプション836cが移行される。移行中の特徴部オプションを瞬間的に拡大する表示効果を、表示される順序における移行完了のタイミングと組み合わせることで、波及効果の外観を与え、それによって、異なる特徴部オプション(例えば、移行中の特徴部オプション以外の特徴部オプション)のユーザの選択に基づいて特定の特徴部オプションが移行していることの視覚的なインジケーションをユーザに提供する。また、この視覚効果は、個別の特徴部オプションが移行処理中であることを(例えば、特徴部オプションが拡大されているときに)正確にユーザに示し、移行がいつ完了したかのインジケーションも(例えば、特徴部オプションが元の小さいサイズに戻るときに)提供する。また、特定の特徴部オプションが(もしあれば)瞬間的に拡大されて表示されないことによって、そのような特徴部オプションが選択による影響を受けなかったということの視覚的な確認を、ユーザに提供する。 After the pixie cut hairstyle option 836b has been migrated (eg, after displaying the enlarged pixie cut hairstyle option 836b' returning to its original size in FIG. 8T), the bob cut hairstyle option 836c is migrated. . The display effect of momentarily enlarging the transitioning feature options, combined with the timing of transition completion in the displayed order, gives the appearance of a ripple effect, thereby allowing different feature options (e.g., transitioning Provide a user with a visual indication that a particular feature option is transitioning based on the user's selection of a feature option other than the feature option. This visual effect also accurately indicates to the user that an individual feature option is in the process of transitioning (e.g., when the feature option is being magnified) and also provides an indication of when the transition is complete. (e.g. when the feature option reverts to the original small size). Also, certain feature options (if any) are not displayed momentarily enlarged to provide the user with visual confirmation that such feature options were not affected by the selection. do.

図8Vで、デバイス600は、毛髪の色オプション832aでの入力852(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、毛髪の色オプション832aの選択を検出する。 In FIG. 8V, device 600 detects selection of hair color option 832a in response to receiving input 852 (eg, touch input on display 601) on hair color option 832a.

図8Wで、デバイス600は、毛髪の色オプション832aの周囲に境界854を表示することによって、毛髪の色オプション832aが選択されていることを示す。デバイス600は、選択された毛髪の色オプション832aに一致する毛髪の色を有するように、アバターの毛髪851、眉827、毛髪のテクスチャーオプション834、及び髪形オプション836(例えば、836b及び836c)も変更する。いくつかの実施形態では、肌の色及び毛髪の色の組み合わせに基づいて、眉827の色(又は色特性)が決定される。例えば、選択された毛髪の色に基づいて眉827の色相を決定することができ、選択された肌の色に基づいて眉827の輝度を決定することができる。前述した波及効果の外観に従って、毛髪のテクスチャーオプション834及び髪形オプション836の移行を表示できる。例えば、毛髪のテクスチャーオプション834a~834cが(例えば、瞬間的に拡大して)順番に移行した後に、髪形オプション836b及び836cが(例えば、瞬間的に拡大して)順番に移行する。 In FIG. 8W, device 600 indicates that hair color option 832a is selected by displaying a border 854 around hair color option 832a. The device 600 also modifies the avatar's hair 851, eyebrows 827, hair texture options 834, and hairstyle options 836 (e.g., 836b and 836c) to have hair colors that match the selected hair color option 832a. do. In some embodiments, the color (or color characteristics) of eyebrows 827 is determined based on a combination of skin color and hair color. For example, the hue of eyebrows 827 can be determined based on the selected hair color, and the brightness of eyebrows 827 can be determined based on the selected skin color. The transition of hair texture options 834 and hairstyle options 836 can be displayed according to the appearance of the ripple effect described above. For example, hair texture options 834a-834c transition in sequence (eg, momentarily expanding) followed by hairstyle options 836b and 836c in sequence (eg, momentarily expanding).

デバイス600は、選択された毛髪の色オプション832aのグラデーションを調整する毛髪の色スライダー856も表示する。毛髪の色スライダー856は、選択された色832aの高いグラデーション値857aと低いグラデーション値857bの間に広がるグラデーション領域857(本明細書では、トラックとも呼ばれる)内の初期(例えば、デフォルト)位置を有するセレクターアフォーダンス858(本明細書では、サムとも呼ばれる)を含む。セレクターアフォーダンス858を領域857内で(例えば、スライダーでの入力の大きさ及び方向に従って)動かして、グラデーション領域857内のセレクターアフォーダンス858の位置に基づいて、選択された色832aのグラデーションを調整することができる。選択された毛髪の色オプション832aのグラデーションを調整すると、デバイスは、選択された色832aを有するすべてのアバター特徴部を(そのようなアバター特徴部を表示する特徴部オプション及び選択された毛髪の色オプションの色を含めて)変更する(例えば、アフォーダンス858が領域857内で移動したときに、図8AY及び図8AZにおいて832aが変化する)。特に指定されない限り、本明細書において特定の色オプションを変更することへの参照が行われた場合、この変更は、この色オプションに関連付けられた個別の特徴、及び個別のアバター特徴部を表示する特徴部オプションにも適用される。 The device 600 also displays a hair color slider 856 that adjusts the gradation of the selected hair color option 832a. The hair color slider 856 has an initial (eg, default) position within a gradation region 857 (also referred to herein as a track) that extends between the high gradation value 857a and the low gradation value 857b of the selected color 832a. Includes selector affordance 858 (also referred to herein as a thumb). Moving the selector affordance 858 within the region 857 (eg, according to the magnitude and direction of the input on the slider) to adjust the gradation of the selected color 832a based on the position of the selector affordance 858 within the gradation region 857. can be done. Adjusting the gradation of the selected hair color option 832a causes the device to display all avatar features that have the selected color 832a (feature options displaying such avatar features and the selected hair color (eg, 832a changes in FIGS. 8AY and 8AZ when affordance 858 moves within region 857). Unless otherwise specified, when reference is made herein to changing a particular color option, this change will display the individual feature associated with that color option and the individual avatar feature. Also applies to feature options.

いくつかの実施形態では、グラデーションは、例えば陰影、彩度、淡色、中間調、ハイライト、暖かさ、輝度、又は色相などの、選択された毛髪の色の様々な特性を表現することができる。いくつかの実施形態では、グラデーションは、選択された色とは異なる、アバターの選択された肌の色に任意選択的に基づく、アバターの毛髪の淡色を表すことができる。グラデーション領域857内でセレクターアフォーダンス858を動かすことによって、淡色のグラデーションを調整することができ、それによって、選択された毛髪の色及びアバターの毛髪851の外観を最終的に変更する。いくつかの実施形態では、毛髪の淡色は、選択された肌の色に基づいて決定された自然な毛髪の色に対応する。例えば、肌の色が暗いほど、毛髪はより暗い淡色(例えば、茶色又は黒色の淡色)を有し、一方、肌の色が明るいほど、より明るい淡色(例えば、ブロンド又は赤色の淡色)の毛髪が生成される。淡色を調整することで、特定の色が適用されるだけでなく、淡色のグラデーションに基づいて、その色の明度も適用された外観を毛髪に与える。例えば、非自然的な選択された毛髪の色(例えば、紫色)を有するアバターの毛髪の場合、淡色を低いグラデーション値857bに調整すると、わずかに自然であるか、又は全く自然ではない淡色の毛髪の色(例えば、茶色)が得られる。これによって、紫色の毛髪の色を強調し、アバターが大量の紫色の毛髪染剤を塗布したような外観が得られる。反対に、淡色を高いグラデーション値857aに調整すると、毛髪(又は、アバターの眉若しくは唇などのその他のアバター特徴部)の自然な淡色を強調し、アバターが少量の紫色の毛髪染剤を塗布したような外観が得られる。スライダーに沿ってセレクターアフォーダンス858の位置を調整することによって、ユーザは、デバイス600が選択された色832aに適用する淡色のグラデーションを調整することができる。 In some embodiments, the gradation can represent various characteristics of the selected hair color, such as shade, saturation, tint, midtone, highlight, warmth, brightness, or hue. . In some embodiments, the gradation may represent a tint of the avatar's hair, optionally based on the avatar's selected skin color, different from the selected color. By moving the selector affordance 858 within the gradation area 857 , the gradation of light colors can be adjusted, thereby ultimately changing the selected hair color and appearance of the avatar's hair 851 . In some embodiments, the light hair color corresponds to the natural hair color determined based on the selected skin color. For example, darker skin tones have darker shades of hair (e.g., brown or black shades), while lighter skin tones have lighter shades (e.g., blonde or red shades) of hair. is generated. Adjusting the tint gives the hair the appearance that not only a particular color is applied, but also the lightness of that color is applied based on the tint gradation. For example, for avatar hair that has an unnatural selected hair color (e.g., purple), adjusting the light color to a low gradation value 857b results in slightly natural or no natural light hair. color (eg brown) is obtained. This accentuates the purple hair color and gives the appearance that the avatar has applied a large amount of purple hair dye. Conversely, adjusting the light color to a high gradation value 857a emphasizes the natural light color of the hair (or other avatar features such as the avatar's eyebrows or lips) and causes the avatar to apply a small amount of purple hair dye. You get a look like this. By adjusting the position of selector affordance 858 along the slider, the user can adjust the tint gradation that device 600 applies to selected color 832a.

いくつかの実施形態では、セレクターアフォーダンス858は、選択された色832aの現在選択されているグラデーションを表す色を含む。セレクターアフォーダンス858は、初期位置では、選択された色832aが最初に表示されるときの選択された色832aと同じ色を有する。言い換えると、選択された色832aは、最初に選択されるときに、初期(例えば、デフォルト又は予め選択された)色を有する(例えば、図8Vを参照)。毛髪の色スライダー856が最初に表示されるときに、セレクターアフォーダンス858は、領域857の中央での初期位置及びセレクターの色832aの初期色に対応する色を有する。セレクターアフォーダンス858の位置を初期位置から異なる位置に移動すると、デバイスは、セレクターアフォーダンス858の新しい位置に基づいて、選択された色832aのグラデーション、セレクターアフォーダンス858の対応する色、及び選択された色832aを有するすべてのアバター特徴部(そのようなアバター特徴部を表示する特徴部オプションを含む)を変更する。図8Xに示された実施形態では、セレクターアフォーダンス858を高いグラデーション値857aに向かって動かすと選択された色832aが暗くなり、一方、セレクターアフォーダンス858を低いいグラデーション値857bに向かって動かすと選択された色832aが明るくなる。 In some embodiments, selector affordance 858 includes a color representing the currently selected gradation of selected color 832a. Selector affordance 858, in its initial position, has the same color as selected color 832a when selected color 832a is first displayed. In other words, the selected color 832a has an initial (eg, default or pre-selected) color when first selected (see, eg, FIG. 8V). When hair color slider 856 is first displayed, selector affordance 858 has an initial position in the middle of region 857 and a color corresponding to the initial color of selector color 832a. When the position of selector affordance 858 is moved from its initial position to a different position, the device may generate a gradient of selected color 832a, a corresponding color of selector affordance 858, and selected color 832a based on the new position of selector affordance 858. , including the feature option to display such avatar features. In the embodiment shown in FIG. 8X, moving the selector affordance 858 toward higher gradation values 857a darkens the selected color 832a, while moving the selector affordance 858 toward lower gradation values 857b darkens the selected color. The color 832a is lighter.

例えば、図8X~図8Zで、デバイス600は、セレクターアフォーダンス858でタッチアンドドラッグ入力860を検出し、それに応じて、入力860のドラッグ移動に基づいて領域857内でセレクターアフォーダンス858の移動を表示し、領域857内のセレクターアフォーダンス858の位置に基づいて、セレクターアフォーダンス858の色、選択された色832a、並びにアバターの毛髪851及び特徴部オプション(例えば、834a~834c、836b、及び836c)に表示されるすべてのアバターの毛髪の色を更新する。 For example, in FIGS. 8X-8Z, device 600 detects touch-and-drag input 860 on selector affordance 858 and, in response, displays movement of selector affordance 858 within region 857 based on the drag movement of input 860. , based on the position of the selector affordance 858 within the region 857, the color of the selector affordance 858, the selected color 832a, and the avatar's hair 851 and features options (eg, 834a-834c, 836b, and 836c). Updates the hair color of all avatars with

図8Xで、入力860は、セレクターアフォーダンス858の初期位置(領域857の中央)に対応する初期位置860’を有する。セレクターアフォーダンス858が初期(例えば、デフォルト)位置にあるため、デバイス600は、選択された色832a、セレクターアフォーダンス858の色、選択された色832aを有するその他の表示された特徴をいずれも変更しない。いくつかの実施形態では、デバイス600は、セレクターアフォーダンス858で入力(例えば、入力860)を検出することに応じて、例えば触覚フィードバック(例えば、触知出力)などのフィードバックを生成し、この触覚フィードバックは、セレクターアフォーダンス858がデフォルト位置に配置されたときに(又は、セレクターアフォーダンス858が異なる位置からデフォルト位置(例えば、スライダー856の中央)に移動されたときに)、オーディオ出力を伴うか又は伴わずに、任意選択的に生成される。これによって、セレクターアフォーダンス858が選択された色832aの初期色(例えば、値)に対応する初期(例えば、デフォルト)位置に配置されたときに、ユーザに通知するためのフィードバックを提供する。 8X, input 860 has an initial position 860' corresponding to the initial position of selector affordance 858 (in the middle of region 857). Because selector affordance 858 is in an initial (eg, default) position, device 600 does not change selected color 832a, the color of selector affordance 858, or any other displayed feature with selected color 832a. In some embodiments, device 600 generates feedback, such as, for example, haptic feedback (eg, tactile output) in response to detecting input (eg, input 860) at selector affordance 858, and this haptic feedback with or without audio output when selector affordance 858 is placed in the default position (or when selector affordance 858 is moved from a different position to the default position (e.g., center of slider 856)) , optionally generated. This provides feedback to inform the user when the selector affordance 858 is placed in the initial (eg, default) position corresponding to the initial color (eg, value) of the selected color 832a.

図8Yで、デバイス600は、第2の位置860’’に移動する入力860を検出し、それに応じて、第2の位置860’’に対応する第2の位置でセレクターアフォーダンス858を表示する。セレクターアフォーダンス858の第2の位置は、領域857に沿って選択される色832aの(図8Xに示されたグラデーションと比較して)より大きいグラデーション(例えば、より暗い陰影又はより大きい淡色)に対応する。したがって、デバイス600は、領域857内のセレクターアフォーダンス858の相対位置に基づいて、より大きいグラデーションを有するセレクターアフォーダンス858を表示する。また、デバイス600は、選択された色832a、及び選択された色832aを表示するすべてのフィーチャ(例えば、アバターの毛髪851、毛髪のテクスチャーオプション834a~834c、並びに髪形オプション836b及び836c)を、より大きいグラデーション(例えば、陰影又は淡色)を有するように更新する。 In FIG. 8Y, device 600 detects input 860 moving to second position 860'' and, in response, displays selector affordance 858 at a second position corresponding to second position 860''. A second position of selector affordance 858 corresponds to a larger gradation (e.g., darker shading or lighter shade) of color 832a selected along region 857 (compared to the gradation shown in FIG. 8X). do. Accordingly, device 600 displays selector affordance 858 with a greater gradation based on the relative position of selector affordance 858 within region 857 . Device 600 also displays selected color 832a, and all features that display selected color 832a (eg, avatar hair 851, hair texture options 834a-834c, and hairstyle options 836b and 836c). Update to have larger gradations (e.g. shades or tints).

図8Zで、デバイス600は、第3の位置860’’’に移動する入力860を検出し、それに応じて、第3の位置860’’’に対応する第3の位置でセレクターアフォーダンス858を表示する。セレクターアフォーダンス858の第3の位置は、図8Yに示されているグラデーションよりも大きいグラデーション(例えば、より暗い陰影又はより大きい淡色)に対応する。したがって、デバイス600は、領域857内のセレクターアフォーダンス858の相対位置に基づいて、より大きいグラデーションを有するセレクターアフォーダンス858を表示する。また、デバイス600は、選択された色832a、及び選択された色832aを表示するすべてのフィーチャ(例えば、アバターの毛髪851、毛髪のテクスチャーオプション834a~834c、並びに髪形オプション836b及び836c)を、図8Zに示されているより大きいグラデーション(例えば、より暗い陰影又はより大きい淡色)を有するように更新する。 In FIG. 8Z, device 600 detects input 860 moving to third position 860''' and, in response, displays selector affordance 858 at a third position corresponding to third position 860'''. do. A third position of selector affordance 858 corresponds to a larger gradation than that shown in FIG. 8Y (eg, a darker shade or a lighter shade). Accordingly, device 600 displays selector affordance 858 with a greater gradation based on the relative position of selector affordance 858 within region 857 . Device 600 also displays selected color 832a and all features that display selected color 832a (eg, avatar hair 851, hair texture options 834a-834c, and hairstyle options 836b and 836c). Update to have a larger gradation (e.g., darker shades or a larger tint) shown in 8Z.

図8AAで、デバイス600は、セレクターアフォーダンス858が図8Z示されている位置860’’’に対応する位置(例えば、858’)にあるときに、入力860の終了(例えば、タッチアンドドラッグ入力のリフトオフ)を検出する。したがって、デバイス600は、入力860が終了したときに、選択された色832a(及び、選択された色832aを有するすべてのフィーチャ)の選択されたグラデーションを維持する。いくつかの実施形態(例えば、後述される図8AS及び図8ATを参照)では、デバイス600は、セレクターアフォーダンス858の位置及び選択された色832aの変更されたグラデーションを含めて、異なる色オプション832が選択された後でも、変更された毛髪の色スライダー856を維持する。 8AA, device 600 terminates input 860 (e.g., touch-and-drag input) when selector affordance 858 is in a position (e.g., 858') corresponding to position 860''' shown in FIG. 8Z. lift-off). Accordingly, the device 600 maintains the selected gradation of the selected color 832a (and all features with the selected color 832a) when the input 860 ends. In some embodiments (see, for example, FIGS. 8AS and 8AT described below), the device 600 provides different color options 832, including the position of the selector affordance 858 and a modified gradation of the selected color 832a. Maintain the modified hair color slider 856 even after it has been selected.

図8ABで、デバイス600は、毛髪の色オプション832bでの入力861(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、毛髪の色オプション832bの選択を検出する。 In FIG. 8AB, device 600 detects selection of hair color option 832b in response to receiving input 861 (eg, touch input on display 601) on hair color option 832b.

図8ACで、デバイス600は、毛髪の色オプション832bの周囲に境界862を表示することによって、毛髪の色オプション832bが選択されていることを示す。また、デバイス600は、セレクターアフォーダンス858を選択された毛髪の色オプション832bのデフォルト位置に動かし、セレクターアフォーダンス858の色を選択された毛髪の色オプション832bに対応する色に更新することによって、表示された毛髪の色スライダー856を変更する。デバイス600は、選択された毛髪の色オプション832bに一致する毛髪の色を有するように、アバターの毛髪851、毛髪のテクスチャーオプション834、及び髪形オプション836(例えば、836b及び836c)も変更する。前述した波及効果の外観に従って、毛髪のテクスチャーオプション834及び髪形オプション836の移行が表示される。例えば、毛髪のテクスチャーオプション834a~834cが(例えば、瞬間的に拡大して)順番に移行した後に、髪形オプション836b及び836cが(例えば、瞬間的に拡大して)順番に移行する。 In FIG. 8AC, device 600 indicates that hair color option 832b is selected by displaying a border 862 around hair color option 832b. Device 600 also displays by moving selector affordance 858 to the default position of selected hair color option 832b and updating the color of selector affordance 858 to a color corresponding to selected hair color option 832b. change the hair color slider 856. The device 600 also modifies the avatar's hair 851, hair texture options 834, and hairstyle options 836 (eg, 836b and 836c) to have hair colors that match the selected hair color option 832b. A transition of hair texture options 834 and hairstyle options 836 is displayed according to the appearance of the ripple effect previously described. For example, hair texture options 834a-834c transition in sequence (eg, momentarily expanding) followed by hairstyle options 836b and 836c in sequence (eg, momentarily expanding).

図8AD~図ALで、デバイス600は、ディスプレイ601上のタッチアンドドラッグジェスチャである入力864を検出し、最初のタッチは、アバターの特性領域804内の位置に対応する。デバイス600は、縦方向の入力864の移動を検出することに応じて、入力864の移動方向に基づいて(例えば、ドラッグの方向に基づいて)、アバターの特性領域804に表示されたアバター特徴部の特性及び対応する特徴部オプションをスクロールする。更に、デバイス600は、ドラッグの方向、並びにアバター表示領域803及びアバターの特性領域804の現在の状態(例えば、サイズ)に基づいて、アバター表示領域803(表示されたアバター805及び任意選択的にアバター特徴部領域807を含む)及びアバターの特性領域804のサイズを調整する。 8AD-AL, the device 600 detects an input 864 that is a touch-and-drag gesture on the display 601, the first touch corresponding to a position within the avatar's property area 804. In FIG. In response to detecting movement of the vertical input 864, the device 600 adjusts the avatar features displayed in the avatar's properties area 804 based on the direction of movement of the input 864 (eg, based on the direction of dragging). properties and corresponding feature options. In addition, device 600 adjusts avatar display area 803 (displayed avatar 805 and optionally avatar (including the features area 807) and the avatar's properties area 804.

例えば、図8AD~図8AFは、上向きの方向(例えば、アバター表示領域803に向かう方向)で入力864の移動を検出することに応じて、図8ADでの初期の完全に展開された状態から、図8AFでの縮小された状態に移行している(例えば、縮小している)、アバター表示領域803及びアバター805を示している。アバター表示領域803の移行と同時に、デバイス600は、図8ADでの初期状態から図8AFでの完全に展開された状態に移行している(例えば、展開している)アバターの特性領域804を表示する。図8AEは、入力864の相対的位置が図8ADに示された位置と図8AFに示された位置の間にあるときの、個別の中間状態(例えば、サイズ)をそれぞれ有するアバター表示領域803(アバター805を含む)及びアバターの特性領域804を示している。このようにして、デバイス600は、上向きの方向のドラッグジェスチャに応じて、アバター表示領域803及びアバター805が縮小された状態に達し、かつアバターの特性領域804が完全に展開された状態に達するまで、アバター表示領域803及びアバター805を継続的に縮小し、一方で同時にアバターの特性領域804を展開する(かつ、ライン806を上にずらす)。アバター表示領域803及びアバター805が縮小された状態にあるとき、デバイス600は、上向きの方向のドラッグジェスチャの更なる移動に応じて(又は、その後の上向きのドラッグジェスチャに応じて)、アバター表示領域803及びアバター805を更に縮小することも、アバターの特性領域804を更に展開することも行わない。むしろ、デバイス600は、上向きの方向のドラッグジェスチャの更なる移動に応じて(又は、アバター表示領域803が縮小された状態にあるときのアバターの特性領域804でのその後の上向きのドラッグジェスチャに応じて)、アバター特徴部の特性及び特徴部オプションをスクロールし続ける(髪形特性842の追加の髪形オプション836d~836fを露わにしており、毛髪の色の特徴832及び毛髪の色スライダー856を含めて、毛髪の色特性838をアバターの特性領域804の表示された部分の外へ移動している、図8AG~図8AHを参照)。 For example, FIGS. 8AD-8AF show, from the initial fully deployed state in FIG. Avatar display area 803 and avatar 805 are shown transitioning (eg, shrinking) to the reduced state in FIG. 8AF. Simultaneously with the transition of the avatar display area 803, the device 600 displays a property area 804 of the avatar transitioning (eg, unfolding) from its initial state in FIG. 8AD to its fully expanded state in FIG. 8AF. do. FIG. 8AE shows avatar display areas 803 ( avatar 805) and the avatar's properties area 804. In this manner, the device 600 will continue until the avatar display area 803 and the avatar 805 reach a contracted state and the avatar properties area 804 reaches a fully expanded state in response to an upward drag gesture. , continuously shrinks the avatar display area 803 and the avatar 805, while simultaneously expanding the avatar's properties area 804 (and shifting the line 806 up). When avatar display area 803 and avatar 805 are in the contracted state, device 600 moves the avatar display area 803 and 805 in response to further movement of the upward drag gesture (or in response to subsequent upward drag gestures). Neither 803 nor avatar 805 are further collapsed nor the avatar's property area 804 is further expanded. Rather, device 600 responds to further movement of an upward drag gesture (or a subsequent upward drag gesture on avatar's property area 804 when avatar display area 803 is in a contracted state). ), continue scrolling through the avatar feature properties and feature options (exposing additional hairstyle options 836d-836f in hairstyle properties 842, including hair color feature 832 and hair color slider 856). , moving the hair color characteristic 838 out of the displayed portion of the avatar's characteristic area 804, see FIGS. 8AG-8AH).

反対に、ディスプレイ600は、図8AH~図8AJに示されているように、下向きの方向の入力864の移動を検出することに応じて、アバター表示領域803を縮小された(又は中間)状態から展開する。アバター表示領域803の展開と同時に、デバイス600は、図8AHでの展開された状態(又は、図8AIでの中間状態)から図8AJでの元の状態(例えば、サイズ)に移行している(例えば、縮小している)アバターの特性領域804を表示する。デバイス600が、入力864の下向きの移動を検出することに応じてアバター表示領域803を展開することによって、アバター805を拡大するため、ユーザは、アバターの特性領域804内でアバター特徴部の特性及び特徴部オプションの初期位置にスクロールして戻る必要なしに、更に容易にアバター805を確認することができる(例えば、図8ADを参照)。 Conversely, display 600 moves avatar display area 803 from a reduced (or intermediate) state in response to detecting movement of input 864 in a downward direction, as shown in FIGS. 8AH-8AJ. expand. Simultaneously with the expansion of avatar display area 803, device 600 transitions from the expanded state in FIG. 8AH (or the intermediate state in FIG. 8AI) to the original state (eg, size) in FIG. 8AJ ( For example, display the avatar's properties area 804 (which is zoomed out). As device 600 expands avatar 805 by expanding avatar display area 803 in response to detecting downward movement of input 864 , the user can view avatar feature properties and The avatar 805 can be more easily identified without having to scroll back to the initial position of the features option (see, eg, FIG. 8AD).

デバイス600は、アバター表示領域803を縮小することによって、更に大きいアバターの特性領域804を表示して、追加のアバター特徴部の特性及び/又は特徴部オプションを表示する。アバターの特性領域804が展開又は縮小するときに、アバター特徴部の特性及び特徴部オプションのサイズは変化しない。したがって、デバイス600は、アバターの特性領域804が展開したときに、より多くのアバター特徴部の特性及び/又は特徴部オプションを表示し、アバターの特性領域804が縮小したときに、より少ないアバター特徴部の特性及び/又は特徴部オプションを表示する。 By shrinking the avatar display area 803, the device 600 displays a larger avatar properties area 804 to display additional avatar feature properties and/or feature options. Avatar feature properties and feature option sizes do not change when the avatar properties area 804 expands or contracts. Accordingly, the device 600 displays more avatar feature properties and/or feature options when the avatar properties area 804 expands, and displays fewer avatar features options when the avatar properties area 804 contracts. Display feature properties and/or feature options.

いくつかの実施形態では、デバイス600がアバター特徴部の特性(例えば、808、810、838、840、842)及びそれらの個別の特徴部オプション(例えば、812、814、832、834、836)のスクロールを表示するときに、アバター特徴部の特性の一部がスクロールされて、アバターの特性領域804の上端(例えば、ライン806の下)から外に部分的に出た場合、デバイス600は、アバターの特性領域804の上部に配置されたこのアバター特徴部の特性の個別のヘッダーの表示を維持する。例えば、図8AHに示されているように、毛髪のテクスチャー特性840がスクロールされて、アバターの特性領域804の表示部分の外に出たときに、デバイス600は、テクスチャーヘッダー841をアバターの特性領域804の上部(例えば、ライン806の直下)に「固定」する。「固定された」テクスチャーヘッダー841は、毛髪のテクスチャー特性840の全体が(例えば、上向きの方向に)スクロールされてアバターの特性領域804の外に出るまで、又は毛髪のテクスチャー特性840の全体がライン806の下に配置されるまで(例えば、スクロールされてアバターの特性領域804の表示部分の上端から外に出ている毛髪のテクスチャー特性840の部分がないときに)、アバターの特性領域804の上部に表示されたままになる。いくつかの実施形態では、「固定された」ヘッダーは、ライン806の下の位置から解放されたときに、隣接するアバター特徴部の特性のヘッダーに置き換えられる(例えば、図8ALの髪形ヘッダー843を参照)。いくつかの実施形態では、固定されたヘッダー(例えば、テクスチャーヘッダー841)は、アバターの特性領域804内の特徴部オプションから視覚的に区別される。例えば、図8AHに示されているように、テクスチャーヘッダー841は、ライン806及び867によって視覚的に区別される。 In some embodiments, the device 600 can display avatar feature properties (e.g., 808, 810, 838, 840, 842) and their individual feature options (e.g., 812, 814, 832, 834, 836). When displaying a scroll, if some of the properties of the avatar feature are scrolled partially out of the top of the avatar's properties area 804 (eg, below line 806), device 600 displays the avatar's maintain the display of a separate header for the properties of this avatar feature located at the top of the properties area 804 of the . For example, as shown in FIG. 8AH, when hair texture properties 840 are scrolled outside the visible portion of avatar properties area 804, device 600 displays texture header 841 in the avatar properties area. "Anchor" to the top of 804 (eg, just below line 806). The "fixed" texture header 841 is displayed until the entire hair texture property 840 is scrolled (e.g., in an upward direction) out of the avatar properties area 804, or until the entire hair texture property 840 is scrolled out of line. 806 (e.g., when no portion of the hair texture feature 840 is scrolled out of the top of the displayed portion of the avatar's properties area 804). remains displayed in the In some embodiments, the "fixed" header is replaced by an adjacent avatar feature property header when released from a position below line 806 (e.g., hairstyle header 843 in FIG. 8AL). reference). In some embodiments, fixed headers (eg, texture header 841) are visually distinct from feature options in the avatar's properties area 804. FIG. For example, texture header 841 is visually distinguished by lines 806 and 867, as shown in FIG. 8AH.

図8AK及び8ALで、デバイス600は、(図8AI及び図8AJに示されているように、下向きに移動した後に)上向きの方向に移動する入力864を検出し、アバター表示領域803及びアバター805を圧縮し、一方で同時にアバターの特性領域804を展開し、前述したように、髪形ヘッダー843をアバターの特性領域804の縁部に移動する(テクスチャーヘッダー841を置き換える)。入力864の移動によって、アバターの特性領域804に表示されたコンテンツもスクロールされ、追加の髪形オプション836g~836iを表示する。 8AK and 8AL, device 600 detects input 864 moving in an upward direction (after moving downward, as shown in FIGS. 8AI and 8AJ), causing avatar display area 803 and avatar 805 to Compress while simultaneously expanding the avatar's properties area 804 and moving the hairstyle header 843 to the edge of the avatar's properties area 804 (replaces the texture header 841) as described above. Movement of input 864 also scrolls the content displayed in avatar properties area 804 to display additional hairstyle options 836g-836i.

図8AMで、デバイス600は、入力864の終了(例えば、リフトオフ)を検出する。デバイス600は、縮小された状態にあるアバター表示領域803及びアバター805、並びに完全に展開された状態にあるアバターの特性領域804を表示する。アバターの特性領域804は、髪形オプション836a~836iを有する髪形特性842(図8Rのウェーブヘアのテクスチャーオプション834bの以前の選択に基づくウェーブヘアのテクスチャー及び図8ABで選択された毛髪の色オプション832bに基づく毛髪の色をそれぞれ有する)、及びライン806の下に配置され、ライン867によって髪形オプション836a~836cから視覚的に区別された髪形ヘッダー843を表示する。ピクシーカットの髪形836bの周囲に配置された境界846によって示され、アバター805に表示されたピクシーカットの髪形を(及びウェーブヘアのテクスチャーも)有するアバターの毛髪851によって示されているように、ピクシーカットの髪形836bが選択されて表示されている。アバターの毛髪アフォーダンス809bが強調表示されて、アバターの毛髪の特徴が編集のために現在選択されていることを示している。 In FIG. 8AM, device 600 detects the end of input 864 (eg, liftoff). Device 600 displays avatar display area 803 and avatar 805 in a contracted state, and avatar properties area 804 in a fully expanded state. Avatar properties area 804 includes hairstyle properties 842 with hairstyle options 836a-836i (wavy hair texture based on previous selection of wavy hair texture option 834b in FIG. 8R and hair color option 832b selected in FIG. 8AB). ), and a hairstyle header 843 located below line 806 and visually distinguished from hairstyle options 836a-836c by line 867. Pixie cut hairstyle 836b, as illustrated by border 846 placed around pixie cut hairstyle 836b and by avatar hair 851 having the pixie cut hairstyle (and also the wavy hair texture) displayed on avatar 805. A cut hairstyle 836b is selected and displayed. Avatar hair affordance 809b is highlighted to indicate that the avatar hair feature is currently selected for editing.

いくつかの実施形態では、特徴部オプションの選択を検出することに応じて、アバター表示領域803及びアバター805が、圧縮された状態から完全に展開された状態に直接移行する。例えば、図8ANで、デバイス600は、スパイクヘアの髪形オプション836fに対応する位置で入力869(例えば、ディスプレイ601上のタッチ入力)を検出する。図8AOで、デバイス600は、スパイクヘアの髪形オプション836fの選択を検出することに応じて、完全に展開された状態にあるアバター表示領域803及びアバター805を表示する。デバイス600は、選択されたスパイクヘアの髪形オプション836fに一致するように、アバターの毛髪851を変更する(図8Rでの以前の選択に基づくウェーブヘアのテクスチャー及び図8ABで選択された毛髪の色オプション832bに基づく毛髪の色を有する)。また、デバイス600は、境界846をピクシーカットの髪形オプション836bから除去し、スパイクヘアの髪形オプション836fの周囲に境界846を表示することによって、スパイクヘアの髪形オプション836fの選択を示す。 In some embodiments, avatar display area 803 and avatar 805 transition directly from a compressed state to a fully expanded state in response to detecting feature option selection. For example, in FIG. 8AN, device 600 detects input 869 (eg, touch input on display 601) at a location corresponding to spike hair hairstyle option 836f. In FIG. 8AO, device 600 displays avatar display area 803 and avatar 805 in a fully expanded state in response to detecting selection of spike hair hairstyle option 836f. The device 600 modifies the avatar's hair 851 to match the selected spike hair hairstyle option 836f (the wavy hair texture based on the previous selection in FIG. 8R and the hair color selected in FIG. 8AB). with hair color based on option 832b). Device 600 also indicates selection of spike hair hairstyle option 836f by removing border 846 from pixie cut hairstyle option 836b and displaying border 846 around spike hair hairstyle option 836f.

図8AP及び図8AQで、デバイス600は、ディスプレイ601上のタッチアンドドラッグジェスチャである入力870を検出し、最初のタッチは、アバターの特性領域804内の位置に対応する。デバイス600は、下向きの方向の入力870の移動を検出し、それに応じて、特徴部オプション(例えば、髪形オプション836a~836i)及び髪形ヘッダー843を下向きの方向にスクロールして、図8AQに示されているように、毛髪の色特性838、毛髪のテクスチャー特性840、及び髪形特性842の一部を表示する。 8AP and 8AQ, the device 600 detects an input 870 that is a touch-and-drag gesture on the display 601, the first touch corresponding to a position within the avatar's property area 804. In FIGS. Device 600 detects movement of input 870 in a downward direction and scrolls feature options (eg, hairstyle options 836a-836i) and hairstyle header 843 in a downward direction accordingly, as shown in FIG. 8AQ. As shown, some of the hair color characteristics 838, hair texture characteristics 840, and hairstyle characteristics 842 are displayed.

図8ARで、デバイス600は、入力870の終了(例えば、リフトオフ)を検出する。デバイス600は、毛髪の色スライダー856及び毛髪の色オプション832(境界862によって示された選択された毛髪の色オプション832bを含む)を有する毛髪の色特性838、テクスチャーヘッダー841及び毛髪のテクスチャーオプション834a~834c(境界844によって示された選択されたウェーブヘアのテクスチャーオプション834bを含む)を有する毛髪のテクスチャー特性840、並びに髪形ヘッダー843及び髪形オプション836a~836cを有する髪形特性842を表示する。 In FIG. 8AR, device 600 detects the end of input 870 (eg, liftoff). The device 600 includes a hair color property 838 with a hair color slider 856 and hair color options 832 (including a selected hair color option 832b indicated by a border 862), a texture header 841 and a hair texture option 834a. .

図8ASで、デバイス600は、毛髪の色オプション832a上の入力871(例えば、タッチ入力)を検出する。それに応じて、デバイス600は、図8ASで選択された色832bから図8ATで選択された色832a(図8X~図8AAに関して上で説明された変更から生じた色)に対応する色に移行しているアバターの毛髪851を表示する。選択された毛髪の色のみが入力871によって変化しため、アバターの毛髪851は、依然として、選択されたスパイクヘアの髪形オプション836fに対応するスパイクヘアの髪形、及び選択されたウェーブヘアのテクスチャーオプション834bに対応するウェーブヘアのテクスチャーで表示される。更に、デバイス600は、図8ASで表示された状態から図8ATで表示された状態にそれぞれ移行している毛髪の色を含んでいる特徴部オプションを表示する。したがって、デバイス600は、毛髪の色オプション832bに対応する毛髪の色から毛髪の色オプション832aに対応する毛髪の色に移行している毛髪のテクスチャーオプション834a~834c並びに髪形オプション836b及び836cを表示する。この移行は、前述した波及効果の外観(例えば、移行中の特徴部オプションの瞬間的な拡大を伴う連続的移行)を含むことができる。 In FIG. 8AS, device 600 detects input 871 (eg, touch input) on hair color option 832a. In response, device 600 transitions from color 832b selected in FIG. 8AS to a color corresponding to color 832a selected in FIG. 8AT (the color resulting from the changes described above with respect to FIGS. 8X-8AA). Display the hair 851 of the avatar that is wearing. Since only the selected hair color is changed by the input 871, the avatar's hair 851 still has the spiked hair hairstyle corresponding to the selected spiked hair hairstyle option 836f, and the selected wavy hair texture option 834b. Appears with a wavy hair texture that corresponds to . In addition, the device 600 displays feature options that include hair colors transitioning respectively from the state displayed in FIG. 8AS to the state displayed in FIG. 8AT. Accordingly, device 600 displays hair texture options 834a-834c and hairstyle options 836b and 836c transitioning from a hair color corresponding to hair color option 832b to a hair color corresponding to hair color option 832a. . This transition may include the appearance of the ripple effect previously described (eg, continuous transition with momentary expansion of feature options during transition).

図8ATに示されているように、デバイス600は、入力871を検出することに応じて、図8X~図8AAに関して上で説明された入力860に応じて以前に設定された色832aに対して維持されている変更済みの設定に移行している毛髪の色スライダー856も表示する。これは、色オプション832aと同じ変更された色、及びデバイス600が毛髪の色オプション832bで入力861を検出する直前の図8AAに示されている位置と同じである、色合い領域857内の変更された位置に移行している、セレクターアフォーダンス858を表示することを含む。 As shown in FIG. 8AT, in response to detecting input 871, device 600 adjusts color 832a previously set in response to input 860 described above with respect to FIGS. 8X-8AA. Also displayed is a hair color slider 856 transitioning to the modified settings that are maintained. This is the same changed color as color option 832a and the same changed color within tint region 857 as shown in FIG. including displaying selector affordance 858, transitioning to the selected position.

図8AUで、デバイス600は、アバターの特性領域804内で部分的にスクリーンの外に出て表示されているボブカットの髪形オプション836cで、入力872(例えば、タッチ入力)を検出する。それに応じて、デバイス600は、図8AVに示されているように、スパイクヘアの髪形から、選択されたボブカットの髪形オプション836cに対応するボブカットの髪形に移行しているアバターの毛髪851を表示する。また、デバイス600は、選択されたボブカットの髪形オプション836cの完全な表現を表示するために、アバターの特性領域804のわずかなスクロール(及び、毛髪の色オプション832の除去)を表示し、この特徴部オプションの選択を示すために、ボブカットの髪形オプション836cの周囲に境界846を表示する。入力872によって他の特徴部オプションが選択されていないため、アバターの毛髪851以外のアバター特徴部は変更されない。更に、他の表示された特徴部オプションが、選択された髪形を示すのに十分な量のアバターの毛髪を表示していないため、デバイス600は特徴部オプションの更新を何も表示しない。 In FIG. 8AU, device 600 detects input 872 (eg, touch input) at bob cut hairstyle option 836c being displayed partially off-screen within avatar's properties area 804. In FIG. In response, the device 600 displays the avatar's hair 851 transitioning from a spike haircut to a bob cut hairstyle corresponding to the selected bob cut hairstyle option 836c, as shown in FIG. 8AV. . Device 600 also displays a slight scroll of avatar properties area 804 (and removal of hair color option 832) to display a complete representation of the selected bob cut hairstyle option 836c, and this feature A border 846 is displayed around the bob cut option 836c to indicate the selection of the bob option. Avatar features other than the avatar's hair 851 are not changed because no other feature option is selected by input 872 . Additionally, the device 600 does not display any feature option updates because the other displayed feature options do not display a sufficient amount of avatar hair to indicate the selected hairstyle.

図8AWで、デバイス600は、アバターの唇アフォーダンス809c上の入力873(例えば、タッチ入力)を検出する。デバイス600は、入力873を検出することに応じて、図8AXに示されているように、アバターの唇の特徴が選択されていることを示すように(例えば、アバターの唇アフォーダンス809cを太字にし、アバター805の直下に配置することによって)アバター表示領域803を更新し、アバターの唇の特徴に対応するアバター特徴部の特性及び特徴部オプションを表示するようにアバターの特性領域804を更新する。図8AX~図8BAに示されたアバター特徴部の特性及び特徴部オプションは、アバターの唇の特徴に対応する。したがって、デバイス600は、そのようないずれかの特徴部オプションの選択を検出することに応じて、アバター805に表示されているアバターの唇828を変更し、一部の場合には、選択された特徴部オプションがアバターの唇を表示するかどうかに応じて、特徴部オプションに表示されたアバターの唇の表現を更新する。 In FIG. 8AW, device 600 detects input 873 (eg, touch input) on avatar's lip affordance 809c. In response to detecting input 873, device 600 may bold avatar lip affordance 809c to indicate that an avatar lip feature is selected (eg, bold avatar lip affordance 809c), as shown in FIG. , directly below the avatar 805) and updates the avatar properties area 804 to display avatar feature properties and feature options corresponding to the avatar's lip features. The avatar feature properties and feature options shown in FIGS. 8AX-8BA correspond to lip features of the avatar. Accordingly, in response to detecting selection of any such feature option, the device 600 changes the avatar lips 828 displayed on the avatar 805 and, in some cases, Update the representation of the avatar's lips displayed in the features option depending on whether the features option displays the avatar's lips.

図8AXに示されているように、更新されたアバターの特性領域804は、様々な唇の色オプションを有する唇の色特性875及び唇の形状オプション880を有する唇の形状特性878を含む。唇の色オプションは、自然な唇の色オプション882、非自然的な唇の色オプション884、及びカラーピッカーオプション886を含む。自然な唇の色オプション882は、いくつかの実施形態では、アバター805に対して選択された肌の色に基づいて決定される、自然な人間の唇の色オプションを表す。非自然的な唇の色オプション884は、いくつかの実施形態では、選択された肌の色に基づいて決定されず、代わりに、口紅の色又は人間の唇にとって自然ではない(例えば、青色、緑色などの)その他の色に対応することがある色を表す。カラーピッカーオプション886は、アバターの唇の色を調整するために選択できるその他の色の選択肢を表示する選択可能なオプションである。いくつかの実施形態では、唇の色オプション(例えば、882、884、886)は、唇の色オプション上の入力(例えば、タップ、スワイプ、ドラッグなど)に応じて、横方向にスクロール可能である。唇の色オプションをスクロールすることで、追加の唇の色オプション(例えば、882、884、886)を表示する。いくつかの実施形態では、カラーピッカーオプション886は、唇の色オプションの端に配置され、唇の色オプションが唇の色オプションの端にスクロールされるまで、表示されない。 As shown in FIG. 8AX, updated avatar properties area 804 includes lip color properties 875 with various lip color options and lip shape properties 878 with lip shape options 880 . The lip color options include a natural lip color option 882, an unnatural lip color option 884, and a color picker option 886. Natural lip color options 882 represent, in some embodiments, natural human lip color options that are determined based on the skin color selected for avatar 805 . The unnatural lip color option 884, in some embodiments, is not determined based on the selected skin tone, but instead is a lipstick color or color that is unnatural to human lips (e.g., blue, represents a color that may correspond to other colors (such as green). Color picker option 886 is a selectable option that displays other color choices that can be selected to adjust the avatar's lip color. In some embodiments, the lip color options (e.g., 882, 884, 886) are horizontally scrollable in response to input (e.g., tap, swipe, drag, etc.) on the lip color options. . Scrolling through the lip color options displays additional lip color options (eg, 882, 884, 886). In some embodiments, the color picker option 886 is positioned at the end of the lip color options and is not displayed until the lip color options are scrolled to the end of the lip color options.

図8AXで、デバイス600は、カラーピッカーオプション886上の入力887(例えば、ディスプレイ601上のタッチジェスチャ)を検出する。図8AYで、デバイス600は、入力887を検出することに応じて、自然な唇の色オプション及び非自然的な唇の色オプションを含む様々な色オプションを表示する拡張されたカラーパレット888を表示する。いくつかの実施形態では、拡張されたカラーパレット888は、いずれかの表示されたアバター特徴部の特性及び特徴部オプションを含んでいるアバターの特性領域804の一部の上に現れるポップアップメニューとして表示され得る。 8AX, device 600 detects input 887 (eg, touch gesture on display 601) on color picker option 886. In FIG. In FIG. 8AY, in response to detecting input 887, device 600 displays expanded color palette 888 displaying various color options, including natural lip color options and non-natural lip color options. do. In some embodiments, the expanded color palette 888 is displayed as a pop-up menu that appears over a portion of the avatar properties area 804 that contains properties and feature options for any displayed avatar features. can be

図8AYで、デバイス600は、選択された唇の色オプション890上の入力889(例えば、ディスプレイ601上のタッチジェスチャ)を検出する。 In FIG. 8AY, device 600 detects input 889 (eg, touch gesture on display 601) on selected lip color option 890. In FIG.

図8AZで、デバイス600は、選択された唇の色オプション890の選択を検出することに応じて、選択された唇の色オプション890の色に一致するように更新されたアバターの唇828を表示する。加えて、唇の形状オプション(例えば、唇の形状オプション880a)が、(例えば、本明細書において説明された波及効果の外観に従って)選択された唇の色オプション890を含むように更新される。また、デバイス600は、選択された唇の色オプション890に一致するように、(図8AXの唇の色オプション884aとして表された)唇の色オプションのうちの1つを更新し、更新された唇の色オプション884aの周囲に境界891を表示する。 In FIG. 8AZ, in response to detecting selection of the selected lip color option 890, the device 600 displays the avatar's lips 828 updated to match the color of the selected lip color option 890. do. Additionally, the lip shape options (e.g., lip shape option 880a) are updated to include the selected lip color option 890 (e.g., according to the ripple effect appearance described herein). The device 600 also updates one of the lip color options (represented as lip color option 884a in FIG. 8AX) to match the selected lip color option 890 and updated A border 891 is displayed around the lip color option 884a.

デバイス600は、本明細書において説明された他の色のスライダーと同様の方法で制御され得る唇の色スライダー892も表示する。唇の色スライダー892は、892aでの高いグラデーション値から892bでの低いグラデーション値まで選択された唇の色884aのグラデーションを調整するために唇の色スライダーに沿って配置され得る、セレクターアフォーダンス893を含む。いくつかの実施形態では、グラデーションは、例えば陰影、彩度、淡色、中間調、ハイライト、暖かさ、又は色相などの、選択された唇の色の様々な特性を表現することができる。いくつかの実施形態では、グラデーションは、選択された色とは異なる、アバターの選択された肌の色に任意選択的に基づく、アバターの唇の淡色を表すことができる。唇の色スライダー892に沿ってセレクターアフォーダンス893を動かすことによって、淡色のグラデーションを調整することができ、それによって、選択された唇の色及びアバターの唇828の外観を最終的に変更する。例えば、選択された色の淡色は、赤色、又は自然な肌の色(例えば、茶色)に対応する何らかのその他の色であることができ、一方、選択された唇の色(例えば、選択された唇の色884a)は、任意の色(任意の非自然的な色を含む)であることができる。淡色を調整することで、特定の色が唇に適用されるだけでなく、淡色のグラデーションに基づいて、その色の明度も適用された外観をアバターの唇に与える。例えば、非自然的な選択された唇の色(例えば、緑色)を有するアバターの唇の場合、淡色を低いグラデーション値892bに調整すると、わずかに自然であるか、又は全く自然ではない淡色の唇の色(例えば、赤色)が得られる。これによって緑色の唇の色を強調し、アバターが大量の緑色の口紅を塗ったか、又は不自然な色の唇を有しているような外観が得られる。反対に、淡色を高いグラデーション値892aに調整すると、唇の淡色を強調し、アバターが少量の緑色の口紅を塗ったような外観が得られる。スライダーに沿ってセレクターアフォーダンス893の位置を調整することによって、ユーザは、デバイス600が選択された色884aに適用する淡色のグラデーションを調整することができる。 Device 600 also displays a lip color slider 892 that can be controlled in a manner similar to the other color sliders described herein. A lip color slider 892 has a selector affordance 893 that can be positioned along the lip color slider to adjust the gradation of the selected lip color 884a from a high gradation value at 892a to a low gradation value at 892b. include. In some embodiments, the gradation can represent various characteristics of the selected lip color, such as shading, saturation, tint, midtone, highlight, warmth, or hue. In some embodiments, the gradation may represent a tint of the avatar's lips, optionally based on the avatar's selected skin color, different from the selected color. By moving the selector affordance 893 along the lip color slider 892 , the tint gradation can be adjusted, thereby ultimately changing the selected lip color and the appearance of the avatar's lips 828 . For example, the selected color tint can be red or some other color that corresponds to a natural skin tone (e.g., brown), while the selected lip color (e.g., the selected lip color The lip color 884a) can be any color (including any unnatural color). Adjusting the tint gives the avatar's lips the appearance that not only a particular color is applied to the lips, but also the brightness of that color is applied based on the tint color gradation. For example, for an avatar's lips that have an unnatural selected lip color (e.g., green), adjusting the light color to a low gradation value 892b results in slightly natural or no natural light colored lips. color (eg red) is obtained. This accentuates the green lip color and gives the appearance that the avatar has a lot of green lipstick or has unnaturally colored lips. Conversely, adjusting the light color to a high gradation value 892a emphasizes the light color of the lips, giving the appearance that the avatar has applied a small amount of green lipstick. By adjusting the position of selector affordance 893 along the slider, the user can adjust the tint gradation that device 600 applies to selected color 884a.

図8BAで、デバイス600は、アバターのアクセサリアフォーダンス809d上の入力8100(例えば、タッチ入力)を検出する。デバイス600は、入力8100を検出することに応じて、図8BBに示されているように、アバターのアクセサリの特徴が選択されていることを示すように(例えば、アバターのアクセサリアフォーダンス809dを太字にし、アバター805の直下に配置することによって)アバター表示領域803を更新し、アバターのアクセサリの特徴に対応するアバター特徴部の特性及び特徴部オプションを表示するようにアバターの特性領域804を更新する。図8BA~図8BRに示されたアバター特徴部の特性及び特徴部オプションは、アバターのアクセサリの特徴に対応する。したがって、デバイス600は、そのようないずれかの特徴部オプションの選択を検出することに応じて、選択された特徴部オプションに基づいてアバター805を変更し、一部の場合には、選択された特徴部オプションに基づいて、特徴部オプションに表示されたアバターのアクセサリの表現を更新する。 In FIG. 8BA, the device 600 detects input 8100 (eg, touch input) on the avatar's accessory affordance 809d. In response to detecting input 8100, device 600 may bold the avatar's accessory affordance 809d to indicate that the avatar's accessory feature is selected, as shown in FIG. , directly below the avatar 805) and updates the avatar's properties area 804 to display avatar feature properties and feature options corresponding to the avatar's accessory properties. The avatar feature properties and feature options shown in FIGS. 8BA-8BR correspond to the avatar's accessory features. Accordingly, in response to detecting the selection of any such feature option, the device 600 modifies the avatar 805 based on the selected feature option, and in some cases the selected feature option. Based on the feature options, update the representation of the avatar accessory displayed in the feature options.

図8BBに示されているように、アバターの特性領域804は、イヤリングオプション8104を有するイヤリング特性8102、帽子オプション8108を有する帽子特性8106、及び眼鏡オプション8112を有する眼鏡特性8110(図8BMに示されている)を含む。デバイス600は、イヤリングオプション8104a(イヤリングなし)が現在選択されていることを示すように、イヤリングオプション8104aの周囲に境界8114を表示する。また、デバイス600は、帽子オプション8108a(帽子なし)が現在選択されていることを示すように、帽子オプション8108aの周囲に境界8116を表示する。デバイス600は、選択されたイヤリングオプション8104a及び帽子オプション8108aに基づいて、イヤリング及び帽子を有しないアバター805を表示する。 As shown in FIG. 8BB, the avatar's properties area 804 includes an earring property 8102 with an earring option 8104, a hat property 8106 with a hat option 8108, and a glasses property 8110 with a glasses option 8112 (shown in FIG. 8BM). ). Device 600 displays a border 8114 around earring option 8104a to indicate that earring option 8104a (no earrings) is currently selected. Device 600 also displays a border 8116 around hat option 8108a to indicate that hat option 8108a (no hat) is currently selected. Device 600 displays avatar 805 without earrings and hat based on earring option 8104a and hat option 8108a selected.

いくつかの実施形態では、特徴部オプションを横方向にスクロールして、追加の特徴部オプションを表示することができる。例えば、図8BBで、デバイス600は、スクリーンの外に部分的に出たイヤリングオプション8104d及び帽子オプション8108dを表示し、イヤリングオプション8104及び帽子オプション8108を(例えば、図8BV~図8BWに示されているような横方向のスワイプ又はタッチアンドドラッグジェスチャに応じて)横方向にスクロールできることを示している。 In some embodiments, the feature options can be scrolled horizontally to display additional feature options. For example, in FIG. 8BB, device 600 displays earring option 8104d and hat option 8108d partially off-screen, displaying earring option 8104 and hat option 8108 (eg, shown in FIGS. 8BV-8BW). horizontal scrolling (in response to a horizontal swipe or touch-and-drag gesture).

いくつかの実施形態では、デバイス600は、個別の特徴部オプションが選択された場合のアバター(例えば、アバター805)の可能性のある外観を表すように、特徴部オプションを表示する。しかし、いくつかの実施形態では、デバイス600は、個別の特徴部オプションが選択された場合のアバターの可能性のある外観を完全には表さないように、特徴部オプションを表示する。例えば、デバイス600は、個別のアバター特徴部の一部が省略されたアバター特徴部の表現を有する特徴部オプションを表示することができる。個別のアバター特徴部の一部を特徴部オプションから省略することで、省略された部分が表示された場合に遮られることが予想される特徴部オプション内の他のアバター特徴部を表示するが、特徴部オプションが選択された場合のアバターの可能性のある外観を、完全には表さない。例えば、図8BBで、デバイス600は、アバターの毛髪(例えば、アバターの毛髪851)の表現を有するが、アバターの耳及び一部の場合にはイヤリングの表現が表示されるようにアバターの毛髪の一部が省略された、イヤリングオプション8104を表示している。選択可能な様々なイヤリングオプションを遮られずに表示するために、アバターの毛髪の一部がイヤリングオプション8104から省略されている。しかし、現在選択されているアバターの髪形(例えば、アバターの毛髪851によって示されている)がアバターの耳(及び、もしあれば、選択されたアバターのイヤリング)を覆っているため、イヤリングオプション8104は、イヤリングオプションが選択された場合のアバター805の可能性のある外観を表していない。したがって、いくつかの実施形態では、特定のアバター特徴部オプションは、それらが選択された場合に、他のアバター特徴部の一部に影響を与えない。例えば、鼻のリングに対応するアバターのアクセサリオプションは、アバターの毛髪などの他のアバター特徴部に対する変更(例えば、アバター上のアバター特徴部の得られた配置に起因する、特徴部形状に対する調整)をもたらさない。同様に、特定のイヤリングに対応するアバターのアクセサリオプションは、アバターの毛髪に対する変更をもたらさない。 In some embodiments, the device 600 displays feature options to represent possible appearances of the avatar (eg, avatar 805) if the individual feature option is selected. However, in some embodiments, device 600 displays feature options in a way that does not fully represent the possible appearance of the avatar if the individual feature option is selected. For example, device 600 may display feature options having representations of avatar features with portions of individual avatar features omitted. Omitting a portion of an individual avatar feature from a feature option displays other avatar features within the feature option that would be expected to be obscured if the omitted portion were displayed, but It does not fully represent the possible appearance of the avatar when the features option is selected. For example, in FIG. 8BB, device 600 has a representation of the avatar's hair (eg, avatar hair 851), but the avatar's hair is modified such that representations of the avatar's ears and, in some cases, earrings are displayed. A truncated earring option 8104 is shown. A portion of the avatar's hair has been omitted from earring options 8104 to provide an unobstructed display of the various earring options available for selection. However, since the currently selected avatar hairstyle (eg, indicated by avatar hair 851) covers the avatar's ears (and the selected avatar's earrings, if any), earring option 8104 is disabled. do not represent the possible appearance of avatar 805 when the earring option is selected. Thus, in some embodiments, certain avatar feature options do not affect some of the other avatar features when they are selected. For example, an avatar accessory option corresponding to a nose ring may allow changes to other avatar features such as the avatar's hair (e.g., adjustments to the feature shape due to the resulting placement of the avatar feature on the avatar). does not bring Similarly, an avatar's accessory option corresponding to a particular earring will not result in any changes to the avatar's hair.

デバイス600は、帽子オプション8108を有する帽子特性8106も表示する。表示された帽子オプション8108は、個別の帽子オプションが選択された場合のアバター805に対する可能性のある変更を表している。選択された帽子を含むようにアバター805を変更することに加えて、そのような可能性のある変更は、アバターの毛髪851を再形成すること、及びアバター805の顔に上に影を落とすなどの照明の影響を含む。図8BBで、アバターの毛髪851の再形成は、帽子オプション8108b~8108cにおいて表されている(その他の帽子オプション8108d及び8108eは、図8BWで示され、下で更に詳細に説明されている)。例えば、ビーニー帽帽子オプション8108bは、帽子オプション8108bにおける毛髪の表示された幅よりも狭い帽子ライン8118を(例えば、(帽子の下部が開いている)帽子がアバターの頭部の毛髪に接触する位置で)有する帽子を表示する。したがって、デバイス600は、アバターの毛髪が帽子ライン8118で押し込まれている再形成された(例えば、変更された)外観を有する毛髪を表示し、帽子がアバターの毛髪を圧縮してアバターの頭部に適合しているような現実的な外観を提供する。この効果は、カウボーイハット帽子オプション8108c及びヘッドバンド帽子オプション8108dにも表示される。ヘッドバンド帽子オプション8108dで、デバイス600は、アバターの毛髪を圧縮しているヘッドバンドを表示しており、この場合も、ヘッドバンドの帽子ラインに適合するようにアバターの毛髪を再形成しているが、アバターの毛髪がヘッドバンドの帽子ラインで圧縮される(例えば、ヘッドバンドの下に押し込まれる)とともに、ヘッドバンドの上部から飛び出ているような外観も提供している。ヘッドバンド帽子オプション8108dが選択された場合のアバター805が、図8BY~図8CBに示されており、下で更に詳細に説明される。 Device 600 also displays hat property 8106 with hat option 8108 . A displayed hat option 8108 represents possible changes to the avatar 805 if the individual hat option is selected. In addition to modifying the avatar 805 to include the selected hat, such possible modifications include reshaping the avatar's hair 851 and casting shadows over the avatar 805's face. including lighting effects. In FIG. 8BB, reshaping of the avatar's hair 851 is represented in hat options 8108b-8108c (other hat options 8108d and 8108e are shown in FIG. 8BW and described in more detail below). For example, the beanie hat option 8108b causes the hat line 8118 to be narrower than the displayed width of the hair in the hat option 8108b (e.g., the position where the hat (hat open at the bottom) touches the hair on the avatar's head). ) to display hats that have Accordingly, the device 600 displays the hair having a reshaped (eg, altered) appearance in which the avatar's hair is tucked in at the hat line 8118, and the hat compresses the avatar's hair to create the avatar's head. provide a realistic look that is compatible with This effect is also displayed in the cowboy hat option 8108c and the headband hat option 8108d. In headband hat option 8108d, device 600 is displaying a headband compressing the avatar's hair, again reshaping the avatar's hair to fit the headband's hat line. However, it also provides the appearance that the avatar's hair is compressed at the headband's hat line (eg, tucked under the headband) and protruding from the top of the headband. Avatar 805 when headband hat option 8108d is selected is shown in FIGS. 8BY-8CB and is described in further detail below.

帽子オプション8108cは、アバター805に対する照明効果を表示すると予想されるアバター805に対する可能性のある変更も示している。例えば、カウボーイハット帽子オプション8108cは、カウボーイハットのつばの下のアバターの額に影8120を落とす大きい帽子(例えば、カウボーイハット)を含んでいる。デバイス600は、カウボーイハット、再形成された生え際、及び影8120を有するオプション8108cを表示することによって、帽子オプション8108cの選択が、カウボーイハットをアバター805に表示すること、アバターの毛髪851の生え際を再形成すること、及びアバター805の額に影を落とすことを含む変更をアバター805にもたらす、ということを示す(例えば、野球帽、再形成された毛髪、及び額の上の影を有するアバター805を示している図8CCを参照)。 Hat option 8108c also indicates possible changes to avatar 805 that are expected to display lighting effects for avatar 805 . For example, the cowboy hat option 8108c includes a large hat (eg, cowboy hat) that casts a shadow 8120 on the avatar's forehead below the brim of the cowboy hat. Device 600 displays option 8108c with cowboy hat, reshaped hairline, and shadow 8120 such that selection of hat option 8108c causes the cowboy hat to be displayed on avatar 805, hairline of avatar's hair 851 to be changed. Indicate that the avatar 805 is to be reshaped and changes are made to the avatar 805 including casting a shadow on the forehead of the avatar 805 (e.g., the avatar 805 with a baseball cap, reshaped hair, and a shadow on the forehead). (see FIG. 8CC showing ).

図8BC及び図8BDは、イヤリングオプション8104cを選択するための入力8122(例えば、タッチ入力)を検出し、境界8114をイヤリングオプション8104aからイヤリングオプション8104cに移動することによってイヤリングオプション8104cの選択を示している、デバイス600を示している。また、図8BDは、選択されたイヤリングオプション8104cに表示されたイヤリングに対応するアバターのイヤリング8125を有するアバター805を表示しているデバイス600を示している。イヤリング8125は、アバターの耳の上に配置されたアバターの毛髪851によって部分的に遮られている。しかし、イヤリング8125は、アバターの毛髪851を越えて広がるほど十分に大きいため、アバターの毛髪851の下から飛び出して部分的に表示されている。また、デバイス600は、図8BDに示されているように、表示された帽子オプション8108に適用されたイヤリングを表示するように、帽子オプション8108を更新する。 8BC and 8BD illustrate selection of earring option 8104c by detecting input 8122 (eg, touch input) to select earring option 8104c and moving boundary 8114 from earring option 8104a to earring option 8104c. device 600 is shown. FIG. 8BD also shows device 600 displaying avatar 805 with avatar earring 8125 corresponding to the earring displayed in selected earring option 8104c. Earrings 8125 are partially obscured by avatar hair 851 positioned over the avatar's ears. However, the earring 8125 is large enough to extend beyond the avatar's hair 851 so that it is partially shown popping out from under the avatar's hair 851 . Device 600 also updates hat option 8108 to display the earrings applied to displayed hat option 8108, as shown in FIG. 8BD.

いくつかの実施形態では、デバイス600は、カメラ(例えば、カメラ602)の視野内に配置されたユーザの顔を検出し、ユーザの顔において検出された変化(例えば、ユーザの顔のポーズにおける変化、顔の特徴の相対位置における変化など)に基づいて、アバター805の外観を(例えば、継続的に)変更する。例えば、図8BEで、デバイス600は、ユーザの顔において検出された対応する変化に基づいて、アバター805の顔の特徴に対するリアルタイムの変更を表示する。図8BEで、デバイス600は(例えば、カメラ602を使用して)、ユーザが頭部を横に傾け、目をウィンクし、笑っていることを検出する。デバイス600は、検出されたユーザの動きを反映するように、アバター805をリアルタイムに変更する。 In some embodiments, device 600 detects a user's face placed within a field of view of a camera (eg, camera 602) and detects changes in the user's face (eg, changes in pose of the user's face). , changes in the relative positions of facial features, etc.), alters (eg, continuously) the appearance of the avatar 805 . For example, in FIG. 8BE, device 600 displays real-time changes to facial features of avatar 805 based on corresponding changes detected in the user's face. In FIG. 8BE, device 600 (eg, using camera 602) detects that the user is tilting his head to the side, winking his eyes, and smiling. The device 600 modifies the avatar 805 in real time to reflect the detected user movements.

図8BFで、デバイス600は(例えば、カメラ602を使用して)、ユーザが、頭部を傾けることも、笑うことも、ウィンクすることもしていない、中立位置に戻っていることを検出する。デバイスは、ユーザが中立位置に戻っていることを反映するように、アバター805をリアルタイムに変更する。 In FIG. 8BF, device 600 (eg, using camera 602) detects that the user has returned to a neutral position without tilting the head, smiling, or winking. The device changes avatar 805 in real time to reflect the user returning to a neutral position.

いくつかの実施形態では、デバイス600は、選択された個別のアバター特徴部に適用された物理モデルに基づいて、アバター805において表されたアバター特徴部などの、選択されたアバター特徴部を変更する。例えば、図8BFで、デバイス600が、中立位置に戻っているアバター805を表示するときに、ユーザの頭部を傾ける動作の物理現象を反映するように、ユーザのイヤリング8125が揺れ動いて表示される。物理モデルがイヤリング8125に限定されないということが、理解されるべきである。物理モデルは、その他の選択されたアバター特徴部に適用され得る。 In some embodiments, device 600 modifies selected avatar features, such as the avatar features represented in avatar 805, based on physical models applied to the selected individual avatar features. . For example, in FIG. 8BF, when device 600 displays avatar 805 returning to a neutral position, user's earring 8125 is displayed swinging to reflect the physics of the user's head tilting motion. . It should be appreciated that the physical model is not limited to earrings 8125 . Physical models can be applied to other selected avatar features.

いくつかの実施形態では、デバイス600は、アバター表示領域803で、又は更に具体的には、いくつかの実施形態ではアバター805で検出された入力に応じて、アバター805の表示された向き及び/又は倍率を変更する。例えば、図8BGで、デバイス600は、アバター表示領域803上の入力8128(例えば、タッチアンドドラッグジェスチャ又はスワイプジェスチャ)を検出する。デバイス600は、図8BGの初期位置から図8BHの第2の位置への入力8128の移動を検出することに応じて、入力8128の移動に対応するアバター805の回転を表示する。図8BHで、デバイス600は、アバター805の得られた横顔表示を表示している。 In some embodiments, device 600 controls the displayed orientation and/or orientation of avatar 805 in response to input detected in avatar display area 803, or more specifically, in avatar 805 in some embodiments. Or change the magnification. For example, in FIG. 8BG, device 600 detects input 8128 (eg, touch-and-drag gesture or swipe gesture) on avatar display area 803 . In response to detecting the movement of input 8128 from the initial position of FIG. 8BG to the second position of FIG. 8BH, device 600 displays the rotation of avatar 805 corresponding to the movement of input 8128. FIG. In FIG. 8BH, device 600 displays the resulting profile view of avatar 805 .

いくつかの実施形態では、デバイス600は、アバター表示領域803(又は、アバター805)上で検出された入力に応じて、適応された物理モデルに基づいて、動いている選択されたアバター特徴部を表示する。例えば、図8BIで、デバイス600は、図8BG及び図8BHのアバター805の表示された回転に応じて、アバター805の顔の前方に向かって揺れ動くイヤリング8125を表示する。 In some embodiments, device 600 responds to input detected on avatar display area 803 (or avatar 805) to display selected avatar features in motion based on the adapted physical model. indicate. For example, in FIG. 8BI, device 600 displays earring 8125 that swings toward the front of avatar 805's face in response to the displayed rotation of avatar 805 in FIGS. 8BG and 8BH.

図8BJで、デバイス600は、アバター805上で入力8130(例えば、ピンチアウトジェスチャ)を検出し、それに応じて、入力8130の移動(例えば、ピンチアウトジェスチャの長さ)に基づいて、図8BKに示されているように、アバター805を拡大する。 In FIG. 8BJ, device 600 detects input 8130 (e.g., pinch-out gesture) on avatar 805 and, in response, based on movement of input 8130 (e.g., length of pinch-out gesture) to FIG. 8BK. Zoom in on avatar 805 as shown.

図8BL及び図8BMで、デバイス600は、アバターの特性領域804上の入力8132(例えば、タッチアンドドラッグジェスチャ又はスワイプジェスチャ)を検出し、入力8132の移動方向に基づいて、表示されたアバター特徴部の特性(例えば、8102、8106、8110)及び特徴部オプション(例えば、8104、8108、8112)をスクロールする。アバター805は、拡大された外観で表示されたままである。いくつかの実施形態では、拡大された外観により、ユーザはアバター805をよく見ることができ、いくつかの実施形態では、例えば化粧、入れ墨、傷跡、そばかす、あざ、及びアバターのその他のカスタムの特徴又はアクセサリなどの、様々なアクセサリをアバター805に適用することができる。 8BL and 8BM, the device 600 detects an input 8132 (eg, a touch-and-drag gesture or a swipe gesture) on the avatar's property area 804, and based on the direction of movement of the input 8132, the displayed avatar features. Properties (eg, 8102, 8106, 8110) and feature options (eg, 8104, 8108, 8112). Avatar 805 remains displayed in an enlarged appearance. In some embodiments, the magnified appearance allows the user to see the avatar 805 better, and in some embodiments, for example, makeup, tattoos, scars, freckles, birthmarks, and other custom features of the avatar. Various accessories can be applied to the avatar 805, such as accessories or accessories.

図8BNで、デバイス600は、入力8132の終了(例えば、タッチアンドドラッグジェスチャのリフトオフ)を検出し、帽子オプション8108a~8108dを含む帽子特性8106及び眼鏡オプション8112a~8112dを含む眼鏡特性8110を有するアバターの特性領域804を表示する。アバター805は、拡大された外観で表示されたままである。デバイス600は、眼鏡オプション8112a(眼鏡なし)が現在選択されていることを示すように、眼鏡オプション8112aの周囲に境界8134を表示する。デバイス600は、照明効果(例えば、眼鏡のレンズ上の光反射8136)を有する眼鏡オプション8112b~8112dを表示する。 In FIG. 8BN, device 600 detects termination of input 8132 (eg, touch-and-drag gesture liftoff) and avatar with hat property 8106 including hat options 8108a-8108d and glasses property 8110 including glasses options 8112a-8112d. to display the properties area 804 of the . Avatar 805 remains displayed in an enlarged appearance. Device 600 displays a border 8134 around glasses option 8112a to indicate that glasses option 8112a (no glasses) is currently selected. Device 600 displays glasses options 8112b-8112d with lighting effects (eg, light reflections 8136 on lenses of glasses).

図8BOで、デバイス600は、眼鏡オプション8112b上の入力8138(例えば、タッチジェスチャ)を検出する。図8BPに示されているように、デバイス600は、眼鏡オプション8112b上の入力8138を検出することに応じて、境界8134を、眼鏡オプション8112aから除去して眼鏡オプション8112bの周囲に表示する。加えて、デバイス600は、選択された眼鏡オプション8112bに表示された眼鏡スタイルに対応するアバターの眼鏡8140を含むように、アバター805及び帽子オプション8108(図8BVに示されている)を変更する。また、デバイス600は、選択されたアバター特徴部オプション(例えば、眼鏡8140)に基づいて、アバター805の外観を変更する。 In FIG. 8BO, device 600 detects input 8138 (eg, touch gesture) on glasses option 8112b. As shown in FIG. 8BP, device 600 removes border 8134 from glasses option 8112a and displays around glasses option 8112b in response to detecting input 8138 on glasses option 8112b. Additionally, the device 600 modifies the avatar 805 and hat option 8108 (shown in FIG. 8BV) to include the avatar's glasses 8140 corresponding to the glasses style displayed in the selected glasses option 8112b. Device 600 also modifies the appearance of avatar 805 based on the selected avatar features option (eg, glasses 8140).

例えば、図8BO及び図8BPに示されているように、デバイス600は、アバターの眼鏡オプション8112bの選択を検出することに応じて、アバターの毛髪851の一部8145の位置を調整(例えば、変更)し、アバター805の顔に配置されたアバターの眼鏡8140を表示する。アバターの毛髪851の変更された一部8145は、アバターの眼鏡8140のフレーム8140-1を収容するために横に押されて表示されている。更に、デバイス600は、アバターの毛髪851の変更された一部8145の隣に影8147を表示し、アバターの目の下に影8142を表示することによって、アバター805上に照明効果を生成する。デバイス600は、アバターの眼鏡8140をアバター805に追加することによって引き起こされた照明効果を示すために、影8142及び8147を表示する。照明効果は、(光の反射8136と同様の)反射8150をアバターの眼鏡8140のレンズ上に表示することによっても、示され得る(図8BTを参照)。いくつかの実施形態では、照明効果は、光源(例えば、カメラ602の視野内で検出された光源又は疑似的な光源)に対するアバター805、眼鏡8140、及び毛髪851の位置に基づいて決定される。 For example, as shown in FIGS. 8BO and 8BP, the device 600 adjusts (eg, modifies) a portion 8145 of the avatar's hair 851 in response to detecting selection of the avatar's glasses option 8112b. ) to display the avatar's glasses 8140 placed on the face of the avatar 805 . A modified portion 8145 of the avatar's hair 851 is shown pushed to the side to accommodate the frame 8140-1 of the avatar's eyeglasses 8140. FIG. Additionally, the device 600 generates a lighting effect on the avatar 805 by displaying a shadow 8147 next to the modified portion 8145 of the avatar's hair 851 and a shadow 8142 under the avatar's eyes. Device 600 displays shadows 8142 and 8147 to show the lighting effect caused by adding avatar's glasses 8140 to avatar 805 . Lighting effects may also be shown by displaying reflections 8150 (similar to light reflections 8136) on the lenses of the avatar's glasses 8140 (see FIG. 8BT). In some embodiments, lighting effects are determined based on the position of avatar 805, glasses 8140, and hair 851 relative to a light source (eg, a detected or simulated light source within the field of view of camera 602).

また、デバイス600は、入力8138を検出することに応じて、眼鏡特性8110を展開し、選択された眼鏡8140のフレーム8140-1及びレンズ8140-2(例えば、図8BTを参照)の両方の色オプションを表示する。フレームの色オプション894は、眼鏡フレーム8140-1の色を変更するために選択され得る(展開可能なカラーピッカーオプション894-2を含む)様々な色オプションを含む。レンズの色オプション896は、眼鏡8140のレンズ8140-2の態様を変更するために選択され得る様々な色オプションを含む。いくつかの実施形態では、フレームの色オプション894は、展開可能なカラーピッカーオプション(例えば、894-2)を含む。いくつかの実施形態では、レンズの色オプション896は、展開可能なカラーピッカーオプションを含まない。 Device 600 also develops spectacles properties 8110 in response to detecting input 8138 to color both frame 8140-1 and lens 8140-2 of selected spectacles 8140 (see, eg, FIG. 8BT). Show options. Frame color options 894 include various color options (including an expandable color picker option 894-2) that can be selected to change the color of the eyeglass frame 8140-1. Lens color options 896 include various color options that may be selected to change aspects of lenses 8140 - 2 of glasses 8140 . In some embodiments, the frame color option 894 includes an expandable color picker option (eg, 894-2). In some embodiments, lens color options 896 do not include expandable color picker options.

図8BQで、デバイス600は、フレームの色オプション894-1上の入力895を検出し、図8BRのフレームの色スライダー897を表示する。フレームの色スライダー897は、本明細書において説明された他の色スライダーに類似しており、本明細書において説明された様々な色スライダーの実施形態に従って、眼鏡フレーム8140-1の色(又は、その他の態様)の調整に使用され得る。いくつかの実施形態では、フレームの色オプション894を選択すると、眼鏡8140のフレーム8140-1の色も変更される。しかし、図8BQで、色オプション894-1は、(例えば、フレームの色スライダー897を使用して)以前に選択されて変更されたフレーム8140-1の現在の色に対応している。したがって、デバイス600がフレームの色スライダー897を表示するときに、図8BQに示されているように、以前に変更された設定(例えば、セレクターアフォーダンス897-1がトラック897-2の左端に配置され、色オプション894-1がスライダー897の色設定に一致する)を有する色スライダーが表示される。 In FIG. 8BQ, device 600 detects input 895 on frame color option 894-1 and displays frame color slider 897 of FIG. 8BR. The frame color slider 897 is similar to the other color sliders described herein, and is the color of the spectacle frame 8140-1 (or other aspects). In some embodiments, selecting the frame color option 894 also changes the color of the frame 8140-1 of the glasses 8140. FIG. However, in FIG. 8BQ, color option 894-1 corresponds to the current color of frame 8140-1 that was previously selected and changed (eg, using frame color slider 897). Thus, when the device 600 displays the frame color slider 897, the previously changed setting (eg, selector affordance 897-1 is positioned at the left edge of track 897-2), as shown in FIG. 8BQ. , color option 894-1 matches the color setting of slider 897).

図8BSで、デバイス600は、レンズの色オプション896-1上の入力898を検出し、図8BTに表示されているように、(フレームの色スライダー897に加えて)レンズの色スライダー899を表示する。また、デバイス600は、眼鏡レンズ8140-2が表示されるように、アバター805の表示を縮小して回転させる。アバターの目が、レンズ8140-2を通してわずかに見えており、反射8150がレンズ8140-2上に表示されている。いくつかの実施形態では、第1のスライダー(例えば、スライダー897)が表示されて、デバイス600が第1のスライダーと異なる特徴に関連付けられた色オプション(例えば、896-1)の選択を検出した場合、デバイスは第1のスライダーを非表示にし、異なる特徴の選択された色オプションに関する第2のスライダー(例えば、スライダー899)を表示する。 In FIG. 8BS, device 600 detects input 898 on lens color option 896-1 and displays lens color slider 899 (in addition to frame color slider 897) as shown in FIG. 8BT. do. Device 600 also reduces and rotates the display of avatar 805 so that eyeglass lens 8140-2 is displayed. The avatar's eyes are slightly visible through lens 8140-2, and reflection 8150 is displayed on lens 8140-2. In some embodiments, a first slider (eg, slider 897) is displayed and device 600 has detected selection of a color option (eg, 896-1) associated with a different feature than the first slider. If so, the device hides the first slider and displays a second slider (eg, slider 899) for the selected color option of different characteristics.

レンズの色スライダー899は、本明細書において説明された他の色スライダーに類似しており、本明細書において説明された様々なスライダーの実施形態に従って、眼鏡レンズ8140-2の色(又は、その他の態様)の調整に使用され得る。図8BTに示された実施形態では、レンズの色スライダー899は、レンズ8140-2の不透明度を制御する(ただし、本明細書において説明された色又はその他の色特性の制御又は調整に使用され得る)。デバイス600は、トラック899-2に沿ったセレクターアフォーダンス899-1の移動を検出することに応じて、レンズ8140-2の不透明度を変更する。例えば、セレクターアフォーダンス899-1が端899-3に向かって動かされたときに、デバイス600はレンズ8140-2の不透明度を増やす。セレクターアフォーダンス899-1が端899-4に向かって動かされたときに、デバイス600はレンズ8140-2の不透明度を減らす。図8BTに示されているように、レンズ8140-2は、トラック899-2内のセレクターアフォーダンス899-1の中央の位置に対応する不透明度を有する。セレクターアフォーダンス899-1が端899-4に移動されたときに、図8BUに示されているように、レンズ8140-2はわずかな不透明度を有するか、又は全く不透明度を有しない。 Lens color slider 899 is similar to the other color sliders described herein and adjusts the color of spectacle lens 8140-2 (or other aspect)). In the embodiment shown in FIG. 8BT, lens color slider 899 controls the opacity of lens 8140-2 (although it is used to control or adjust color or other color characteristics described herein). obtain). Device 600 changes the opacity of lens 8140-2 in response to detecting movement of selector affordance 899-1 along track 899-2. For example, device 600 increases the opacity of lens 8140-2 when selector affordance 899-1 is moved toward edge 899-3. Device 600 reduces the opacity of lens 8140-2 when selector affordance 899-1 is moved toward edge 899-4. As shown in FIG. 8BT, lens 8140-2 has an opacity corresponding to the center position of selector affordance 899-1 in track 899-2. When selector affordance 899-1 is moved to edge 899-4, lens 8140-2 has little or no opacity, as shown in FIG. 8BU.

いくつかの実施形態では、フレームの色スライダー897及びレンズの色スライダー899は、アバター特徴部をそれぞれ同じ方法で調整する。例えば、フレームの色スライダー897は、セレクターアフォーダンス897-1が左に移動するときに、色オプション894-1をより冷たい色調からより暖かい色調に変更し、レンズの色スライダー899は、セレクターアフォーダンス899-1が左に移動するときに、色オプション896-1をより冷たい色調からより暖かい色調に変更する。別の例として、フレームの色スライダー897は、セレクターアフォーダンス897-1が左に移動するときに第1の色値(例えば、赤色)を増やし、セレクターアフォーダンス897-1が右に移動するときに第2の色値(例えば、緑色)を増やすことによって色オプション894-1を変更し、レンズの色スライダー899は、セレクターアフォーダンス899-1が左に移動するときに第1の色値を増やし、セレクターアフォーダンス899-1が右に移動するときに第2の色値を増やすことによって色オプション896-1を変更する。 In some embodiments, the frame color slider 897 and the lens color slider 899 each adjust the avatar features in the same way. For example, the frame color slider 897 changes the color option 894-1 from a cooler tone to a warmer tone as the selector affordance 897-1 moves to the left, and the lens color slider 899 changes the selector affordance 899-1 to the left. As 1 moves to the left, change color option 896-1 from cooler to warmer tones. As another example, frame color slider 897 increases a first color value (eg, red) when selector affordance 897-1 moves to the left, and increases a first color value (eg, red) when selector affordance 897-1 moves to the right. Change the color option 894-1 by increasing the color value of 2 (eg, green), the lens color slider 899 increases the first color value as the selector affordance 899-1 moves to the left, and the selector Change color option 896-1 by increasing the second color value as affordance 899-1 moves to the right.

図8BUで、デバイス600は、縦方向のスクロールジェスチャ8157を検出し、アバターの特性領域804を縦方向にスクロールして、帽子オプション8108を含んでいる帽子特性8106を表示し、これらの帽子オプション8108は、前述した選択に従って眼鏡を使用して更新されている。 In FIG. 8BU, device 600 detects vertical scroll gesture 8157 and vertically scrolls avatar properties area 804 to display hat properties 8106 that include hat options 8108 . has been updated using spectacles according to the selections previously described.

図8BVで、デバイス600は、横方向のスクロールジェスチャ8158を検出して、帽子オプション8108を横方向にスクロールし、図8BWで、ヘッドバンド帽子オプション8108d及び野球帽オプション8108eを露わにしている。 In FIG. 8BV, the device 600 detects a horizontal scroll gesture 8158 to horizontally scroll the hat option 8108, revealing the headband hat option 8108d and the baseball cap option 8108e in FIG. 8BW.

図8BXで、デバイス600は、ヘッドバンド帽子オプション8108d上の入力8159を検出し、図8BYで、選択されたヘッドバンド帽子オプション8108dに対応するヘッドバンド8160を含むように更新されたアバター805を表示する。ヘッドバンド8160は、アバターの毛髪851をアバターの頭部に圧縮し、ヘッドバンドの帽子ライン8118に適合するように毛髪を再形成する。これによって、アバターの毛髪851がヘッドバンドによって圧縮され(例えば、ヘッドバンドの下に押し込まれ)、かつヘッドバンド8160の上部(例えば、ヘッドバンドの上側の帽子ライン8118-1の上)及び下部(例えば、ヘッドバンドの下側の帽子ライン8118-2の下)から飛び出ている(例えば、膨らんでいる)ような外観が得られる。 In FIG. 8BX, device 600 detects input 8159 on headband hat option 8108d and displays updated avatar 805 in FIG. 8BY to include headband 8160 corresponding to selected headband hat option 8108d. do. The headband 8160 compresses the avatar's hair 851 onto the avatar's head and reshapes the hair to fit the headband's cap line 8118 . This causes the avatar's hair 851 to be compressed by the headband (eg, tucked under the headband) and the top of the headband 8160 (eg, above the headband's upper cap line 8118-1) and the bottom (eg, above the headband's upper cap line 8118-1). For example, the underside of the headband (below the hat line 8118-2) gives the appearance of protruding (eg, bulging).

また、アバター805は、ユーザの顔の検出された(例えば、カメラ602で検出された)ポーズに応じて、動いて表示される。ユーザが頭部を動かしたときに、デバイス600は、ユーザの動きを反映するようにアバター805をリアルタイムに変更する。アバター805が動くときに、アバターの頭部の動きに応じて、イヤリング8125及びアバターの毛髪851が揺れる。いくつかの実施形態では、デバイス600がユーザのリアルタイムの動きを反映するようにアバター805を変更するときに、デバイス600は、モデル化された光源及びアバター805(及び、アバターの眼鏡8140などの選択されたアバター特徴部)の相対位置に基づいて、表示された反射8150及び影8142の位置を移動することを含めて、アバター805上の照明効果も変更する。 Avatar 805 is also displayed in motion according to the detected pose of the user's face (eg, detected by camera 602). As the user moves his or her head, device 600 changes avatar 805 in real time to reflect the user's movements. As the avatar 805 moves, the earrings 8125 and the avatar's hair 851 sway according to the movement of the avatar's head. In some embodiments, when the device 600 modifies the avatar 805 to reflect the user's real-time movements, the device 600 may select modeled light sources and the avatar 805 (and the avatar's glasses 8140, etc.). It also changes the lighting effects on the avatar 805, including moving the positions of the displayed reflections 8150 and shadows 8142, based on the relative positions of the avatar features displayed.

例えば、図8BXで、デバイス600は、アバターの眼鏡8140を有し、アバターの眼鏡8140のレンズ上の反射8150及びアバターの眼鏡の下のアバターの顔に配置された影8142を有するアバター805を、(例えば、拡大も回転もされていない)デフォルト位置に表示する。図8BYで、デバイス600がユーザの顔の動きに応じてアバター805を変更するときに、反射8150がレンズ内の異なる位置に移動し、影(例えば、8142)が顔の上で移動するか、又は消える(いくつかの実施形態では、毛髪851の移動が、アバターの顔の上に動的に現れる新しい影をもたらす)。 For example, in FIG. 8BX, device 600 displays avatar 805 having avatar glasses 8140 with reflection 8150 on the lenses of avatar glasses 8140 and shadow 8142 placed on the avatar's face under the avatar glasses. Display in default position (eg, not scaled or rotated). In FIG. 8BY, when the device 600 changes the avatar 805 in response to the movement of the user's face, the reflection 8150 moves to different positions within the lens, the shadow (e.g., 8142) moves over the face, or or disappear (in some embodiments, movement of hair 851 results in new shadows dynamically appearing on the avatar's face).

いくつかの実施形態では、デバイス600は、アバターに適用される特徴に基づいて、アバター特徴部(例えば、アバターの毛髪851など)の物理的移動を変更する。例えば、図8BYに示されているように、ヘッドバンド8160は、毛髪851を下側の帽子ライン8118-2で圧縮して、アバター805上に配置される。アバター805が動くときに、ヘッドバンド8160が下側の帽子ラインで毛髪851を圧縮して、その動きを制限するため、下側の帽子ライン8118-2から毛髪851が揺れる。アバターがヘッドバンド8160を着用していない場合、ヘッドバンドがアバターの毛髪851をより低い位置で(例えば、下側の帽子ライン8118-2で)アバターの頭部に圧縮していないため、アバターの毛髪は、アバターの頭部のより高い位置で、アバターの頭部から揺れる。 In some embodiments, device 600 modifies the physical movement of avatar features (eg, avatar's hair 851, etc.) based on features applied to the avatar. For example, as shown in FIG. 8BY, a headband 8160 is placed over the avatar 805, compressing the hair 851 with the lower hat line 8118-2. When the avatar 805 moves, the hair 851 sways from the lower cap line 8118-2 because the headband 8160 compresses the hair 851 at the lower cap line to restrict its movement. If the avatar is not wearing the headband 8160, the avatar's hair 851 is not compressed lower (eg, at the lower hat line 8118-2) to the avatar's head because the headband does not compress the avatar's hair 851. The hair sways from the avatar's head higher on the avatar's head.

いくつかの実施形態では、閾値時間の間、ユーザの顔がカメラ(例えば、602)の視界内で検出されなかった場合、デバイス600は、アバターを変更することを止め、顔追跡が停止されたことを示している、顔追跡を再開するようユーザに指示するプロンプトを表示する。例えば、図6BZは、アバターの周囲に表示された角括弧8162及び顔追跡を再開するようユーザに指示するテキスト8164と共に、アバター表示領域803の中央の中立位置に、アバター805を表示する。いくつかの実施形態では、デバイス600は、ユーザがデバイス600を持ち上げること(例えば、ジャイロスコープ536、モーションセンサ538、加速度計534などによって検出される)、又はディスプレイ601上の入力などの、様々な入力を検出することに応じて、ユーザの顔の追跡(及び、アバター805の変更)を再開する。図8BZで、デバイス600は、アバター表示領域803上のタッチ入力8166を検出し、図8CAに示されているように、顔追跡を再開する。 In some embodiments, if the user's face has not been detected within view of the camera (e.g., 602) for a threshold amount of time, the device 600 stops changing avatars and face tracking is stopped. prompt the user to resume face tracking, indicating that For example, FIG. 6BZ displays avatar 805 in a neutral position in the center of avatar display area 803, with square brackets 8162 displayed around the avatar and text 8164 instructing the user to resume face tracking. In some embodiments, the device 600 responds to various actions such as the user picking up the device 600 (eg, detected by the gyroscope 536, motion sensor 538, accelerometer 534, etc.) or input on the display 601. In response to detecting input, it resumes tracking the user's face (and changing avatar 805). In FIG. 8BZ, device 600 detects touch input 8166 on avatar display area 803 and resumes face tracking as shown in FIG. 8CA.

いくつかの実施形態では、デバイス600は、他のアバター特徴部を変更することに応じて、一部のアバター特徴部を変更する。例えば、図8CA及び図8CBは、アバター805の異なる髪形又は毛髪のテクスチャーが選択されたときに、デバイス600が帽子オプション8108をどのように変更するかを示している。図8CAは、アバター805が短いウェーブヘア851-1を有しているときのアバター805及び帽子オプション8108を示している(例えば、本明細書において説明された実施形態に従って、短い髪形及びウェーブヘアのテクスチャーが選択される)。図8CBは、アバター805が長い縮毛851-2を有しているときのアバター805及び帽子オプション8108を示している(例えば、本明細書において説明された実施形態に従って、長い髪形及び縮毛のテクスチャーが選択される)。アバターの毛髪851-2は、アバターの毛髪851-1よりも多いボリュームを有している。デバイス600がアバター805を短いウェーブヘア851-1から長い縮毛851-2に変更するときに、デバイス600は、変化する毛髪のボリュームに基づいてヘッドバンド8160及び帽子オプション8108のサイズを更新するが、すべての帽子オプション8108で共通の帽子ライン8118を維持する。 In some embodiments, device 600 changes some avatar features in response to changing other avatar features. For example, FIGS. 8CA and 8CB show how device 600 changes hat options 8108 when different hairstyles or hair textures for avatar 805 are selected. FIG. 8CA shows avatar 805 and headwear options 8108 when avatar 805 has short wavy hair 851-1 (eg, short hairstyle and wavy hair in accordance with embodiments described herein). texture is selected). FIG. 8CB shows avatar 805 and hat options 8108 when avatar 805 has long curly hair 851-2 (eg, long and curly hair according to embodiments described herein). texture is selected). Avatar hair 851-2 has more volume than avatar hair 851-1. When device 600 changes avatar 805 from short wavy hair 851-1 to long curly hair 851-2, device 600 updates the size of headband 8160 and hat option 8108 based on the changing hair volume. , maintain a common hat line 8118 for all hat options 8108 .

例えば、図8CAで、毛髪851-1がより小さく、ボリュームの少ない毛髪の特徴であるため、デバイス600は、このアバターの頭部に適合するより小さいサイズを有するヘッドバンド8160を表示する(例えば、ヘッドバンド8160及び帽子ライン8118は、より小さい外周を有する)。アバター805がアバターの毛髪851-2を使用して更新されると、デバイス600は、毛髪851-2の増やされたボリュームを収容するために、図8CBに示されているように、ヘッドバンド8160のサイズを増やす(例えば、ヘッドバンド8160及び帽子ライン8118は、より大きい外周を有する)。更に、アバターの毛髪851-2がより長い髪形であるため、デバイス600は、帽子がアバター805上で表示されるときに、(図8CAに示された毛髪851-1と比較して)帽子ライン8118から更に長く突き出るように毛髪を変更する。 For example, in FIG. 8CA, hair 851-1 is characteristic of smaller, less voluminous hair, so device 600 displays headband 8160 having a smaller size that fits the head of this avatar (eg, The headband 8160 and hat line 8118 have smaller perimeters). When avatar 805 is updated with avatar hair 851-2, device 600 adjusts headband 8160, as shown in FIG. 8CB, to accommodate the increased volume of hair 851-2. (eg, headband 8160 and hat line 8118 have a larger perimeter). Additionally, because the avatar's hair 851-2 is a longer hairstyle, the device 600 will display a hat line Change hair to protrude longer from 8118.

加えて、デバイス600は、変更された毛髪に基づいて、表示された特徴部オプションを更新する。例えば、図8CAに示された帽子オプション8108は、図8CBに示された帽子オプション8108よりも小さいサイズを有している。したがって、デバイス600は、より大きい毛髪851-2がアバター805に適用されるときに、帽子オプションのサイズを増やす。同様に、アバターが毛髪851-2を有しているときにアバター805に適用される帽子は、アバター805が毛髪851-1を有しているときよりも大きい(例えば、図8CC及び8CDに示されている)。いくつかの実施形態では、帽子オプション8108のサイズは変化するが、すべての帽子オプション8108が共通の帽子ライン8118を有し、前述したように、アバターの頭部に配置されている個別の帽子に基づいて、すべての帽子オプション8108がアバターの毛髪851の形状に影響を与える。 Additionally, the device 600 updates the displayed feature options based on the modified hair. For example, the hat option 8108 shown in FIG. 8CA has a smaller size than the hat option 8108 shown in FIG. 8CB. Accordingly, device 600 increases the size of the hat option when larger hair 851-2 is applied to avatar 805. FIG. Similarly, the hat applied to avatar 805 when avatar 805 has hair 851-2 is larger than when avatar 805 has hair 851-1 (eg, shown in FIGS. 8CC and 8CD). is being used). In some embodiments, the size of the hat options 8108 varies, but all hat options 8108 have a common hat line 8118 and, as previously mentioned, separate hats placed on the avatar's head. Based on this, all hat options 8108 affect the shape of the avatar's hair 851 .

いくつかの実施形態では、異なるアバターオプションが選択された場合、すでにアバター上に存在するアバター特徴部に基づいて、新しい選択されたアバターオプションが変更される。例えば、図8CAで、アバターの毛髪851-1が、図8BPに関して上で説明されたように、アバターの眼鏡8140を収容するように変更される。図8CBで、新しいアバターの毛髪851-2がアバター805に適用されるときに、新しいアバターの毛髪851-2は、アバターの毛髪851-1と同様に、アバターの眼鏡8140を収容するように変更される。別の例として、アバターの帽子オプション8108が選択された場合、選択された帽子オプションのサイズは、アバターの毛髪851の現在の状態に基づいて決定される(例えば、帽子オプション8108は、アバター805がアバターの毛髪851-1を有するときにより小さく、アバター805が毛髪851-2を有するときにより大きく表示される)。 In some embodiments, when a different avatar option is selected, the new selected avatar option is changed based on avatar features already present on the avatar. For example, in FIG. 8CA, the avatar's hair 851-1 is modified to accommodate the avatar's glasses 8140, as described above with respect to FIG. 8BP. In FIG. 8CB, when new avatar hair 851-2 is applied to avatar 805, new avatar hair 851-2, like avatar hair 851-1, is modified to accommodate avatar glasses 8140. be done. As another example, if the avatar's hat option 8108 is selected, the size of the selected hat option is determined based on the current state of the avatar's hair 851 (eg, the hat option 8108 indicates that the avatar 805 avatar 805 appears smaller when it has hair 851-1 and larger when avatar 805 has hair 851-2).

図8CBで、デバイス600は、野球帽オプション8108e上の入力8168を検出する。図8CCで、デバイス600は、野球帽オプション8108eに対応する野球帽8170を含むように、アバター805を変更する。野球帽8170は、他の帽子オプション(例えば、ヘッドバンド8160の場合、一致する帽子ライン8118-2)と同じ帽子ライン8118を有しており、アバターの毛髪851-2が、野球帽8170の帽子ライン8118から突き出ている。また、デバイス600は、野球帽8170のひさしの下に大きい影8172を表示する。 In FIG. 8CB, device 600 detects input 8168 on baseball cap option 8108e. In FIG. 8CC, device 600 modifies avatar 805 to include baseball cap 8170 corresponding to baseball cap option 8108e. Baseball cap 8170 has the same hat line 8118 as the other hat options (eg, matching hat line 8118-2 for headband 8160), and avatar hair 851-2 matches baseball cap 8170's hat. It protrudes from line 8118. Device 600 also displays a large shadow 8172 under the visor of baseball cap 8170 .

図8CDで、デバイス600は、アバターの毛髪851-1に戻る。アバターの毛髪851-1のボリュームがアバターの毛髪851-2よりも少ないため、デバイス600は、野球帽8170及びその他の表示された帽子オプション8108のサイズを減らす。また、毛髪851-1がより短い髪形であるため、デバイス600は、図8CCの毛髪851-2よりも短く帽子ライン8118から突き出るように、アバターの毛髪851を変更する。 In FIG. 8CD, the device 600 returns to the avatar's hair 851-1. Device 600 reduces the size of baseball cap 8170 and other displayed hat options 8108 because avatar hair 851-1 has less volume than avatar hair 851-2. Also, since the hair 851-1 has a shorter hairstyle, the device 600 modifies the avatar's hair 851 to protrude from the hat line 8118 shorter than the hair 851-2 in FIG. 8CC.

図8CEで、デバイス600は、ユーザの頭部の動きを検出し、それに応じてアバター805を変更する(例えば、被写体の頭部のポーズに一致するように、頭部及び野球帽8170を横に回す)。アバター805が横を向くときに、モデル化された光源に対する野球帽8170のひさしの移動に応じて、大きい影8172がアバターの顔を横切って移動し、反射8150がレンズ8140-2の反対側に移動する。 In FIG. 8CE, the device 600 detects movement of the user's head and modifies the avatar 805 accordingly (eg, with the head and baseball cap 8170 turned sideways to match the pose of the subject's head). turn). When the avatar 805 turns sideways, a large shadow 8172 moves across the avatar's face and a reflection 8150 on the opposite side of the lens 8140-2 in response to movement of the brim of the baseball cap 8170 relative to the modeled light source. Moving.

また、デバイス600は、完了アフォーダンス8154上の入力8152(例えば、タッチジェスチャ)を検出する。それに応じて、デバイス600は、アバター編集ユーザインターフェースを閉じ、図8CFに示されているように、アバター805をアプリケーション(例えば、図6A~図6ANに関して前述したようなメッセージングアプリケーション)のアバター選択領域8156に表示する。アバター805を、アプリケーションで使用するために(例えば、ジョンに送信するために)選択できる。 Device 600 also detects input 8152 (eg, touch gesture) on completion affordance 8154 . In response, device 600 closes the avatar editing user interface and places avatar 805 in avatar selection area 8156 of an application (eg, a messaging application such as described above with respect to FIGS. 6A-6AN), as shown in FIG. 8CF. to display. Avatar 805 can be selected for use in the application (eg, to send to John).

図9は、いくつかの実施形態に従ってアバター編集ユーザインターフェースを表示する方法を示すフロー図である。方法900は、表示装置を備えたデバイス(例えば、100、300、500、600)にて実行される。方法900のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 FIG. 9 is a flow diagram illustrating a method of displaying an avatar editing user interface according to some embodiments. Method 900 is performed on a device (eg, 100, 300, 500, 600) with a display. Some acts of method 900 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

下で説明されているように、方法900は、アバター編集ユーザインターフェースを表示する直感的な方法を提供する。この方法は、アバターを管理する際のユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ユーザがアバター編集ユーザインターフェースを使用してより素早く効率的にアバターの特性を変更できるようにするので、電力を節約し、バッテリの充電間の時間を延ばす。 As described below, method 900 provides an intuitive way of displaying an avatar editing user interface. This method reduces the user's cognitive burden in managing avatars, thereby creating a more efficient human-machine interface. Battery-operated computing devices allow users to change avatar characteristics more quickly and efficiently using the avatar editing user interface, thus conserving power and increasing the time between battery charges.

電子デバイスは、表示装置を介して、複数のアバター特徴部(例えば、アバターの毛髪、顔の特徴(アバターの唇、目、鼻など)、アクセサリ(例えば、イヤリング、サングラス、帽子))を有するアバター(904)(例えば、805)、個別のアバター特徴部の第1のオプション選択領域(904)(例えば、808)、及び個別のアバター特徴部の第2のオプション選択領域(906)(例えば、810)を同時に表示することを含むアバター編集ユーザインターフェース(例えば、801)を表示する(902)。 The electronic device displays, through a display device, an avatar having multiple avatar features (e.g., avatar's hair, facial features (avatar's lips, eyes, nose, etc.), accessories (e.g., earrings, sunglasses, hat)). (904) (e.g., 805), a first option selection area (904) (e.g., 808) for individual avatar features, and a second option selection area (906) (e.g., 810) for individual avatar features. ) is displayed (902) (eg, 801).

個別のアバター特徴部の第1のオプション選択領域(例えば、808)(例えば、アバター特徴部を変更するために選択可能なオプションを含んでいる視覚的に区別された領域)は、(例えば、現在選択されている)個別のアバター特徴部の第1の特性(例えば、顔の形状、唇のサイズ、毛髪の色など)の候補値の集合に対応する特徴部オプションの第1の集合(例えば、対応するアバター特徴部の使用可能な変更の表示された表現)を含む(904)。いくつかの例では、オプション選択領域(例えば、808、810)は、縦方向にスクロールするように構成される。いくつかの例では、特徴部オプションは、特定のアバター特徴部の態様をカスタマイズするために選択されてよい異なる特徴部オプションのグラフィック描画を含む。いくつかの例では、特徴部オプション(例えば、809)は、横方向にスクロールするように構成される。いくつかの実施例では、オプション選択領域(例えば、808、810)は、特徴部オプション(例えば、809)がスクロールするように構成される軸とは異なる、互いに垂直である軸などの、軸に沿ってスクロールするように構成される。 A first option selection area (e.g., 808) of an individual avatar feature (e.g., a visually distinct area containing selectable options for modifying the avatar feature) is (e.g., currently A first set of feature options (e.g., Displayed representations of available changes for corresponding avatar features) (904). In some examples, the option selection areas (eg, 808, 810) are configured to scroll vertically. In some examples, feature options include graphical depictions of different feature options that may be selected to customize aspects of a particular avatar feature. In some examples, the feature options (eg, 809) are configured to scroll horizontally. In some examples, the option selection areas (e.g., 808, 810) are aligned along axes, such as axes that are perpendicular to each other, different from the axis along which the feature options (e.g., 809) are configured to scroll. configured to scroll along.

個別のアバター特徴部の第2のオプション選択領域(例えば、810)は、(例えば、現在選択されている)個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含む(906)。個別のアバター特徴部の第2の特性は、個別のアバター特徴部の第1の特性とは異なる。 An individual avatar feature second option selection area (e.g., 810) displays a selection of feature options corresponding to a set of candidate values for the (e.g., currently selected) individual avatar feature second characteristic. A second set is included (906). The second property of the individual avatar feature is different than the first property of the individual avatar feature.

電子デバイスは、特徴部オプションの第1の集合内の特徴部オプション(例えば、834b)のうちの1つの選択(例えば、850)(例えば、「毛髪」のアバター特徴部の「毛髪のテクスチャー」特性からの「ウェーブヘア」特徴部オプションのユーザ選択)を検出することに応じて(910)、特徴部オプション(例えば、810)の第2の集合のうちの少なくとも1つの外観を、第1の外観(例えば、836b)から(例えば、特徴部オプションの第2の集合の)第2の外観(例えば、836b’)に変更する(912)。いくつかの例では、アバターの髪形を示している表示された特徴部オプションが、アバターの毛髪の第1の外観(例えば、アバターの毛髪がストレートヘアのテクスチャーを有する状態)から、アバターの毛髪がウェーブヘアのテクスチャーを有する第2の外観へ移行する。 The electronic device selects (e.g., 850) one of the feature options (e.g., 834b) in the first set of feature options (e.g., the "hair texture" property of the "hair" avatar feature user selection of "wavy hair" feature options from 910), at least one appearance of the second set of feature options (e.g., 810) is selected from the first appearance (eg, 836b) to a second appearance (eg, 836b') (eg, of a second set of feature options) (912). In some examples, the displayed feature options indicating the avatar's hairstyle change from a first appearance of the avatar's hair (e.g., with the avatar's hair having the texture of straight hair) to Transition to a second look with wavy hair texture.

特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を、第1の外観から第2の外観に変更することによって、アバターの現在の状態及び使用可能なアバター特徴部オプションに関するフィードバックをユーザに提供し、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を確認する視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 At least one appearance of the second set of feature options is changed from the first appearance to the first appearance in response to detecting selection of one of the feature options in the first set of feature options. 2 provides feedback to the user regarding the current state of the avatar and available avatar feature options, and prompts the user to select one of the feature options in the first set of feature options. Provide the user with visual feedback to confirm. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプション(例えば、836)の第2の集合のうちの少なくとも1つの外観を第1の外観(例えば、836b)から第2の外観(例えば、836b’)に変更することは、特徴部オプションの第2の集合のうちの少なくとも2つの外観を(例えば、特徴部オプションの第1の集合の第1のオプションに対応する外観から、特徴部オプションの第2の集合の第2のオプションに対応する外観に)変更する(914)ことを含む。 According to some embodiments, changing the appearance of at least one of the second set of feature options (eg, 836) from the first appearance (eg, 836b) to the second appearance (eg, 836b') converting at least two appearances of the second set of feature options (e.g., from appearances corresponding to the first option of the first set of feature options to the second set of feature options (914) to an appearance corresponding to the second option of .

いくつかの実施形態に従って、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて(910)、特徴部オプションの第1の集合の外観を第1の外観(例えば、834)から第2の外観(例えば、836b’)に変更することを止める(918)。いくつかの実施形態に従って、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第1の集合の外観を第1の外観(例えば、834)から第2の外観(例えば、836b’)に変更することを止めることによって、特徴部オプションの第1の集合のうちの1つの選択を検出することに応じて、特徴部オプションの第1の集合が影響を受けず、更新もされないということ示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In response to detecting 910 selection of one of the feature options in the first set of feature options, according to some embodiments, the appearance of the first set of feature options is changed to a first (eg, 834) to the second appearance (eg, 836b') (918). According to some embodiments, in response to detecting selection of one of the feature options in the first set of feature options, the appearance of the first set of feature options is changed to the first appearance ( 834) to a second appearance (e.g., 836b') in response to detecting selection of one of the first set of feature options. Provide visual feedback to the user indicating that the first collection is unaffected and will not be updated. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプション(例えば、836b)の第2の集合のうちの少なくとも1つの第2の外観は、特徴部オプションの第1の集合内の特徴部オプション(例えば、834b)のうちの選択された1つに基づく(例えば、デバイスは、特徴部オプションの第1の集合内の特徴部オプションのうちの選択された1つに対応する第1の特性値を決定し、第1の特性値に基づいて、特徴部オプションの第2の集合のうちの少なくとも1つを更新する)。 According to some embodiments, the second appearance of at least one of the second set of feature options (eg, 836b) is determined by the feature options (eg, 834b) in the first set of feature options. (e.g., the device determines a first characteristic value corresponding to the selected one of the feature options in the first set of feature options; updating at least one of the second set of feature options based on the property value of 1).

いくつかの実施形態に従って、第1の外観から第2の外観に変化する特徴部オプション(例えば、836b)の第2の集合のうちの少なくとも1つを表示することは、特徴部オプションの第2の集合のうちの少なくとも1つが、特徴部オプションの第1の集合のうちの選択された1つに対応するアバター特徴部の少なくとも一部を含んでいるという判定を含む(例えば、毛髪のテクスチャーオプションが選択されたときに、髪形オプションが毛髪の表現を含んでいる場合、例えば図8R~図8Sに示されているように、それらの複数の髪形オプションが、選択された毛髪のテクスチャーを表示するように変化する)。いくつかの実施形態では、特徴部オプションが、選択された特徴部オプションによって変更される特徴の一部を含んでいない場合、それらの特徴部オプションは変化しない。例えば、毛髪のテクスチャーオプションが選択されたときに、「はげ頭」の髪形オプションは、アバターの毛髪の表現を含んでいないため、外観において変化しない。 According to some embodiments, displaying at least one of the second set of feature options (e.g., 836b) that change from the first appearance to the second appearance is the second set of feature options. contains at least a portion of the avatar features corresponding to the selected one of the first set of feature options (e.g., hair texture options is selected, if the hairstyle option includes a representation of hair, the plurality of hairstyle options will display the texture of the selected hair, for example, as shown in FIGS. 8R-8S. ). In some embodiments, if the feature options do not include the portion of the feature that is modified by the selected feature option, those feature options remain unchanged. For example, when the hair texture option is selected, the "bald" hairstyle option does not contain a representation of the avatar's hair and therefore does not change in appearance.

いくつかの実施形態に従って、電子デバイスは、特徴部オプションの第1の集合内の特徴部オプション(例えば、834b)のうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの第2の1つ(例えば、836a)が、特徴部オプションの第1の集合のうちの選択された1つに対応するアバター特徴部の少なくとも第2の一部を含んでいないという判定に従って、特徴部オプションの第2の集合のうちの第2の1つの外観を維持する(例えば、毛髪の色オプションが選択されたときに、髪形オプションが毛髪の表現を含んでいる場合、それらの複数の髪形オプションが変化するが、「はげ頭」の髪形が毛髪の表現を含んでいないため、図8V~図8ACに示されているように、「はげ頭」の髪形オプションは外観において変化しない)。 According to some embodiments, the electronic device selects a second set of feature options in response to detecting selection of one of the feature options (eg, 834b) in the first set of feature options. A second one of the sets (eg, 836a) does not include at least a second portion of the avatar features corresponding to the selected one of the first set of feature options According to the determination, maintain the appearance of a second one of the second set of feature options (e.g., when the hair color option is selected, if the hairstyle option includes a representation of hair, they However, since the "bald" hairstyle does not contain a representation of hair, the "bald" hairstyle option does not change in appearance, as shown in FIGS. 8V-8AC) .

特徴部オプションの第2の集合のうちの第2の1つが、特徴部オプションの第1の集合のうちの選択された1つに対応するアバター特徴部の少なくとも第2の一部を含んでいないという判定に従って、特徴部オプションの第2の集合のうちの第2の1つの外観を維持することによって、特徴部オプションの第1の集合のうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの第2の1つが影響を受けず、更新もされないということ示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 a second one of the second set of feature options does not include at least a second portion of the avatar features corresponding to the selected one of the first set of feature options In response to detecting selection of one of the first set of feature options by maintaining the appearance of a second one of the second set of feature options according to the determination Visual feedback is provided to the user indicating that a second one of the second set of section options is unaffected and will not be updated. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプション(例えば、836b)の第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することは、(例えば、図8R~図8AUに示されているように)第1の外観から第2の外観に変化する特徴部オプションの第2の集合のうちの少なくとも1つのアニメーションを表示することを含む。いくつかの実施形態では、外観を変更する特徴部オプションのアニメーションは、変化している特徴部オプションを拡大することと、特徴部オプションの変化を表示する(例えば、特徴部オプションに表示される毛髪のテクスチャー又は色を変更する)ことと、その後、変更された特徴部オプションを元のサイズに縮小することと、を含む。いくつかの実施形態では、このアニメーション効果は、アニメーション化された波及効果を特徴部オプションの変化に与えるように、変更している特徴部オプションの順序で(例えば、上から下へ、かつ左から右へ)アバター特徴部を変更する(例えば、特徴部オプションの第2の集合内の第1の特徴部オプションが第2の特徴部オプションの前に変化する)ために、順番に実行される。 According to some embodiments, changing the appearance of at least one of the second set of feature options (eg, 836b) from the first appearance to the second appearance (eg, FIG. 8R- 8AU) displaying an animation of at least one of the second set of feature options changing from the first appearance to the second appearance. In some embodiments, the animation of the feature option that changes appearance includes zooming in on the changing feature option and displaying the change in the feature option (e.g., hair displayed in the feature option). ), and then shrinking the modified feature option back to its original size. In some embodiments, this animation effect is in the order of the changing feature options (e.g., from top to bottom and from left to right) to give the feature option changes an animated ripple effect. to the right) are executed in order to change the avatar features (eg, the first feature option in the second set of feature options changes before the second feature option).

第1の外観から第2の外観へ変化する特徴部オプションの第2の集合のうちの少なくとも1つのアニメーションを表示することによって、特徴部オプションの第2の集合のうちの少なくとも1つの現在の状態に関するフィードバックをユーザに提供し、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を確認する視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 current state of at least one of the second set of feature options by displaying an animation of at least one of the second set of feature options changing from the first appearance to the second appearance; and providing visual feedback to the user confirming selection of one of the feature options in the first set of feature options. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプションの第1の集合内の特徴部オプションのうちの選択された1つは、毛髪の色オプション(例えば、832)の第1の集合内の選択された毛髪の色(例えば、832a(赤色))であり、特徴部オプションの第2の集合のうちの少なくとも1つは、毛髪の長さオプション(例えば、長い、中位、短い)、髪質オプション(例えば、834、縮毛、ストレート、ウェーブなど)、及び髪形オプション(例えば、836)のうちの1つ以上を含む。いくつかの実施形態に従って、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することは、(例えば、図8P~図8AVに示されているように)毛髪の長さオプション、髪質オプション、及び髪形オプションのうちの1つ以上を、第1の毛髪の色から選択された毛髪の色に変更することを含む。毛髪の長さオプション、髪質オプション、及び髪形オプションのうちの1つ以上を、第1の毛髪の色から選択された毛髪の色に変更することによって、アバター、並びに毛髪の長さオプション、髪質オプション、及び髪形オプションの現在の状態に関するフィードバックをユーザに提供し、毛髪の色オプションの選択を確認する視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the selected one of the feature options in the first set of feature options is the selected hair color in the first set of hair color options (eg, 832). (e.g., 832a (red)), and at least one of the second set of feature options is a hair length option (e.g., long, medium, short), a hair texture option (e.g., , 834, curly, straight, wavy, etc.), and hairstyle options (eg, 836). According to some embodiments, changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance (eg, as shown in FIGS. 8P-8AV). changing one or more of hair length options, hair texture options, and hairstyle options from the first hair color to the selected hair color. By changing one or more of the hair length option, the hair type option, and the hairstyle option from the first hair color to the selected hair color, the avatar and the hair length option, the hair Provide feedback to the user regarding the current state of the quality and hairstyle options, and provide visual feedback to the user confirming selection of the hair color option. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプション(例えば、834)の第1の集合内の特徴部オプション(例えば、834b)のうちの選択された1つは、髪質オプションの第1の集合内の選択された髪質(例えば、縮毛、ストレート、ウェーブ)であり、特徴部オプションの第2の集合のうちの少なくとも1つは、毛髪の長さオプション(例えば、長い、中位、短いなど)及び髪形オプション(例えば、836b)のうちの1つ以上を含む。いくつかの実施形態に従って、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することは、毛髪の長さオプション及び髪形オプションのうちの1つ以上を、第1の髪質から選択された髪質に変更することを含む。毛髪の長さオプション及び髪形オプションのうちの1つ以上を、第1の髪質から選択された髪質に変更することによって、アバター、並びに毛髪の長さオプション及び髪形オプションの現在の状態に関するフィードバックをユーザに提供し、髪質オプションの選択を確認する視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the selected one of the feature options (eg, 834b) in the first set of feature options (eg, 834) is the The selected hair type (e.g., curly, straight, wavy) and at least one of the second set of feature options is a hair length option (e.g., long, medium, short, etc.) and hairstyle options (eg, 836b). According to some embodiments, changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance includes one of the hair length option and the hairstyle option. changing one or more from the first hair texture to the selected hair texture. feedback on the current state of the avatar and the hair length and hairstyle options by changing one or more of the hair length and hairstyle options from a first hair texture to a selected hair texture; to the user and provide visual feedback to the user confirming the selection of the hair texture option. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプションの第2の集合は、第1の特徴部オプション(例えば、836a)が順序において第2の特徴部オプション(例えば、836b)よりも前になり、第2の特徴部オプションが順序において第3の特徴部オプション(例えば、836c)よりも前になる順序で配置された、複数の特徴部オプションを含む。いくつかの実施形態に従って、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することは、第1の外観から第2の外観への特徴部オプションの第2の集合の第1の特徴部オプションの第1のアニメーション化された移行を表示することと、第2の外観への第1の特徴部オプションの第1のアニメーション化された移行の少なくとも一部を表示した後に、第1の外観から第2の外観への特徴部オプションの第2の集合の第2の特徴部オプションの第2のアニメーション化された移行を開始することと、第2の外観への第2の特徴部オプションの第2のアニメーション化された移行の少なくとも一部を表示した後に、第1の外観から第2の外観への特徴部オプションの第2の集合の第3の特徴部オプションの第3のアニメーション化された移行を開始することと、を含む。いくつかの実施形態では、第1のアニメーション化された移行は第2のアニメーション化された移行と重複し、第2のアニメーション化された移行は第3のアニメーション化された移行と重複する。一部の実施形態では、第1の特徴部オプションは第2の特徴部オプションに隣接し、第2の特徴部オプションは、第1の特徴部オプションと第3の特徴部オプションの両方に隣接する。 According to some embodiments, the second set of feature options is such that the first feature option (eg, 836a) precedes the second feature option (eg, 836b) in order and the second feature option is arranged in an order such that the third feature option (eg, 836c) comes before the third feature option in the order. According to some embodiments, changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance includes changing the appearance from the first appearance to the second appearance. displaying a first animated transition of the first feature option of the second set of part options; and the first animated transition of the first feature option to the second appearance. initiating a second animated transition of the second feature options of the second set of feature options from the first appearance to the second appearance after displaying at least a portion of the After displaying at least a portion of the second animated transition of the second feature option to the second appearance, a second set of feature options from the first appearance to the second appearance. initiating a third animated transition of the third feature option. In some embodiments, the first animated transition overlaps with the second animated transition, and the second animated transition overlaps with the third animated transition. In some embodiments, the first feature option is adjacent to the second feature option, and the second feature option is adjacent to both the first feature option and the third feature option. .

第1のアニメーション化された移行を表示し、次に、第1のアニメーション化された移行の少なくとも一部を表示した後に第2のアニメーション化された移行を開始し、次に、第2のアニメーション化された移行の少なくとも一部を表示した後に第3のアニメーション化された移行を開始することによって、特徴部オプションの第2の集合内の第1、第2、及び第3の特徴部オプションの変更された外観の現在の状態に関するフィードバックをユーザに提供し、第1、第2、及び第3の特徴部オプションが移行される順序を示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 displaying a first animated transition, then starting a second animated transition after displaying at least a portion of the first animated transition, and then starting a second animated transition; displaying at least a portion of the animated transition and then initiating a third animated transition of the first, second, and third feature options in the second set of feature options; Feedback is provided to the user regarding the current state of the modified appearance, and visual feedback is provided to the user indicating the order in which the first, second, and third feature options are transitioned. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することは、特徴部オプションの第2の集合のうちの第1の1つのサイズを拡大し(例えば、836b’)、その後、特徴部オプションの第2の集合のうちの第1の1つのサイズを(例えば、元のサイズに)縮小することと(例えば、836b)、特徴部オプションの第2の集合のうちの第2の1つのサイズを拡大し(例えば、836c’)、その後、特徴部オプションの第2の集合のうちの第2の1つのサイズを(例えば、元のサイズに)縮小することと(例えば、836c)を含む。いくつかの実施形態では、特徴部オプションのうちの第2の1つは、特徴部オプションのうちの第1の1つが元のサイズに縮小される前に拡大される(例えば、第1及び第2の特徴部オプションの変更が重複する)。特徴部オプションの第2の集合のうちの第1及び第2の1つのサイズを拡大することによって、特徴部オプションの第2の集合のうちの第1及び第2の1つの変更された外観の現在の状態に関するフィードバックをユーザに提供し、特徴部オプションの第2の集合のうちの第1及び第2の1つが変化していることを示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance is performed by changing the appearance of the second set of feature options. 1 (e.g., 836b') and then reducing the size of the first one of the second set of feature options (e.g., to the original size) (e.g., 836b), increasing the size of a second one of the second set of feature options (e.g., 836c'), and then increasing the size of the second one of the second set of feature options to (eg, to the original size); and (eg, 836c). In some embodiments, the second one of the feature options is enlarged before the first one of the feature options is reduced to its original size (e.g., the first and first 2 feature option changes are duplicated). of the altered appearance of the first and second ones of the second set of feature options by increasing the size of the first and second ones of the second set of feature options; Feedback is provided to the user regarding the current state and visual feedback is provided to the user indicating that the first and second ones of the second set of feature options are changing. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

特徴部オプションの第2の集合のうちの第1及び第2の1つのサイズを縮小することによって、特徴部オプションの第2の集合のうちの第1及び第2の1つの変更された外観の現在の状態に関するフィードバックをユーザに提供し、変更がいつ完了したかを示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 of the modified appearance of the first and second ones of the second set of feature options by reducing the size of the first and second ones of the second set of feature options; It provides the user with feedback on the current state and provides the user with visual feedback to indicate when the changes are complete. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイスは、電子デバイスの1つ以上のカメラ(例えば、602)の視野内の顔における変化を検出する。電子デバイスは、顔において検出された変化に基づいて、(例えば、図8BD~図8BEに示されているように)アバター(例えば、805)の外観を(例えば、特徴部オプションの第2の集合の外観を変更することに加えて)変更する。顔において検出された変化に基づいてアバターの外観を変更することによって、表示されたユーザインターフェース制御(例えば、タッチ制御)要素を必要とせずに、仮想アバターの変更を制御するためのオプションをユーザに提供する。追加の制御によりユーザインターフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device detects changes in faces within the field of view of one or more cameras (eg, 602) of the electronic device. The electronic device adjusts the appearance (eg, a second set of feature options) of the avatar (eg, 805) (eg, as shown in FIGS. 8BD-8BE) based on the detected changes in the face. (in addition to changing the appearance of the ). By changing the appearance of the avatar based on changes detected in the face, giving the user the option to control changes in the virtual avatar without the need for displayed user interface control (e.g., touch control) elements. offer. By providing additional control options without cluttering the user interface with additional controls, the usability of the device is improved and the user-device interface (e.g., providing appropriate input when operating/interacting with the device) is improved. more efficient (by helping users to provide and reduce user error), as well as reducing device power usage by allowing users to use devices more quickly and efficiently reduce and improve battery life.

いくつかの実施形態に従って、電子デバイス(例えば、600)が顔(例えば、673)における変化を検出した後に、電子デバイスは、所定の時間(例えば、10秒)の間、1つ以上のカメラ(例えば、602)の視野内で顔が検出されなかったと判定する。電子デバイスは、所定の時間の間、1つ以上のカメラの視野内で顔が検出されなかったという判定に応じて、顔において検出された変化に基づいてアバター(例えば、805)の外観を変更することを止める(例えば、追跡が停止した後に1つ以上のカメラの視野内に顔が戻った場合でも、アバターを、顔において変化を検出することに応じてアバターが変化しない非対話(静的)状態に移行させる)。アバターの外観を変更することを止めた後に、電子デバイスは入力(例えば、8166)(例えば、ユーザインターフェース上のジェスチャ(例えば、「タップして顔の追跡を再開する」アフォーダンス上のタップジェスチャ)などの、ユーザインターフェースに向けられた入力、デバイスの持ち上げの検出など)を検出する。ユーザの顔が視野内で検出されなかった場合、電子デバイスは、検出された変化に基づいてアバターの外観を更新しない。検出された変化がユーザには見えないため、変更しないことによって、電子デバイスのバッテリ電力及び処理リソースが保たれる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, after the electronic device (e.g., 600) detects a change in the face (e.g., 673), the electronic device detects one or more cameras (e.g., For example, it is determined that no face has been detected in the field of view 602). The electronic device modifies the appearance of the avatar (e.g., 805) based on changes detected in the face in response to determining that no face has been detected within the field of view of one or more cameras for a predetermined amount of time. (e.g., a non-interactive (static ) state). After stopping to change the avatar's appearance, the electronic device receives an input (e.g., 8166) (e.g., a gesture on the user interface (e.g., a tap gesture on the "tap to resume face tracking" affordance), etc. , input directed at the user interface, detection of device pick-up, etc.). If the user's face is not detected within the field of view, the electronic device does not update the avatar's appearance based on the detected change. Not changing conserves battery power and processing resources of the electronic device because the detected change is invisible to the user. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

電子デバイス(例えば、600)は、入力(例えば、8166)を検出することに応じて、顔(例えば、673)において検出された変化に基づいて、アバター(例えば、805)の外観を変更することを再開する(例えば、アバターを、顔における変化を検出することに応じてアバターが変化する対話状態(例えば、図8CAの805)に移行させる)。いくつかの実施形態では、アバターを非対話状態(例えば、図8BZの805)に移行させることは、検出された顔に基づいて決定された外観(例えば、図8BYの805)から既定の外観(例えば、図8BZの805)に移行するアバターのアニメーションを表示することを含む。いくつかの実施形態では、アバターを対話状態に移行させることは、既定の外観から、検出された顔(例えば、673)に基づいて決定された外観に移行するアバターのアニメーションを表示することを含む。持ち上げられているデバイスの移動を検出することは、検出された顔における変化がアバターの外観に反映されるべきであるということを示す。アバターの外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device (e.g., 600) changes the appearance of the avatar (e.g., 805) based on changes detected in the face (e.g., 673) in response to detecting input (e.g., 8166). (eg, transition the avatar to an interactive state (eg, 805 in FIG. 8CA) in which the avatar changes in response to detecting changes in the face). In some embodiments, transitioning the avatar to a non-interacting state (e.g., 805 in FIG. 8BZ) is a transition from an appearance determined based on the detected face (e.g., 805 in FIG. 8BY) to a default appearance (e.g., 805 in FIG. 8BY). For example, displaying an animation of the avatar transitioning to 805 in FIG. 8BZ). In some embodiments, transitioning the avatar to the interactive state includes displaying an animation of the avatar transitioning from a default appearance to an appearance determined based on the detected face (e.g., 673). . Detecting movement of the device being lifted indicates that changes in the detected face should be reflected in the avatar's appearance. The avatar's appearance provides feedback to the user indicating the types of avatar characteristics that can be customized. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、所定の時間の間、1つ以上のカメラ(例えば、602)の視野内で顔(例えば、673)が検出されなかったという判定に応じて、1つ以上のカメラの視野内で顔が検出されていないことのインジケーション(例えば、8164)(例えば、メッセージ)を表示する。いくつかの実施形態では、このインジケーションは、顔追跡を再開するために取られ得るアクションをユーザに知らせるメッセージ(例えば、「顔を見せる」、「タップして再開する」など)である。いくつかの実施形態では、このインジケーションは、ユーザの顔において検出された変化に応じてアバター(例えば、805)が変更されなくなっていることを示すアニメーション(例えば、静的状態に移行するアバターのアニメーション)である。顔が視野内で検出されない場合、ユーザは、顔が検出されていないことを、表示されたインジケーションによって通知される。これによって、顔追跡を再開するためのアクションをユーザが取ることができるように、ユーザにフィードバックを提供し、顔追跡を再開するため取られ得るアクションをユーザに知らせる(このようにしなければ、ユーザは、デバイスが顔追跡を停止したことに気付くことができず、追跡を再開する方法を理解することもできない)。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。また、ユーザが検出されないときに顔追跡を停止することによって、電力を節約し、(顔追跡センサを含む)デバイスの損耗を低減する。この通知は、電力を節約し、(顔追跡センサを含む)デバイスの損耗を低減するために停止された追跡を再開する方法をユーザに知らせる。 According to some embodiments, an electronic device (eg, 600) determines that a face (eg, 673) has not been detected within the field of view of one or more cameras (eg, 602) for a predetermined amount of time. In response, display an indication (eg, 8164) (eg, a message) that no faces have been detected within the field of view of one or more cameras. In some embodiments, this indication is a message (eg, "show face", "tap to resume", etc.) that informs the user of actions that can be taken to resume face tracking. In some embodiments, this indication is an animation (e.g., an avatar transitioning to a static state) indicating that the avatar (e.g., 805) is no longer changing in response to detected changes in the user's face. animation). If no face is detected within the field of view, the user is notified by a displayed indication that no face has been detected. This provides feedback to the user so that the user can take action to resume face tracking, and informs the user of actions that can be taken to resume face tracking (otherwise, the user may cannot notice when the device has stopped tracking their face, nor can they figure out how to start tracking again). By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. It also conserves power and reduces wear and tear on the device (including the face tracking sensor) by stopping face tracking when the user is not detected. This notification informs the user how to resume stopped tracking to save power and reduce wear on the device (including the face tracking sensor).

いくつかの実施形態では、この入力は、デバイス(例えば、600)が持ち上げられた(例えば、ユーザがデバイスを拾い上げており、任意選択的に、ユーザの顔(例えば、673)が1つ以上のカメラ(例えば、602)の視野内で検出された)ことを(例えば、電子デバイスの加速度計及び/又はジャイロスコープを介して)検出することである。いくつかの実施形態では、この入力は、アバター編集ユーザインターフェース(例えば、801)に向けられたジェスチャ(例えば、8166)(例えば、タップ又はスワイプジェスチャ)である。いくつかの実施形態では、このジェスチャは、例えばオプションの選択、ユーザインターフェースの新しいセクションへのナビゲーション、アフォーダンス(例えば、「顔の動きの追跡を開始する」アフォーダンス)の選択を含む、ユーザインターフェース上のいずれかの位置での入力である。 In some embodiments, this input indicates that the device (eg, 600) has been lifted (eg, the user has picked up the device, and optionally the user's face (eg, 673) has one or more Detecting (eg, via the electronic device's accelerometer and/or gyroscope) that is detected within the field of view of the camera (eg, 602). In some embodiments, this input is a gesture (eg, 8166) directed at the avatar editing user interface (eg, 801) (eg, a tap or swipe gesture). In some embodiments, this gesture is a gesture on the user interface, including, for example, selecting an option, navigating to a new section of the user interface, selecting an affordance (e.g., "start tracking facial movement" affordance). Input at any position.

いくつかの実施形態に従って、電子デバイスは、入力(例えば、アバターを回転するか、又はアバターの倍率を調整するためのアバター上のジェスチャ、あるいはカメラの視野内の顔において検出された変化)に基づいて、(例えば、図8BG~図8BIに示されているように)アバターの外観を変更する。入力に基づいてアバターの外観を変更することは、1つ以上の物理モデル(例えば、慣性のモデル、重力のモデル、力伝達モデル、摩擦モデル)に従って複数のアバター特徴部(例えば、8125)のうちの1つ以上を動かすことを含む。いくつかの実施形態では、物理モデルは、入力(例えば、アバターを回転するか、又はアバターの倍率を調整するためのアバター上のジェスチャ、あるいは顔又は顔の一部の動き)の大きさ及び方向、並びに疑似的質量、疑似的弾性、疑似的摩擦係数、又はその他の疑似的な物理的特性などの、仮想アバター特徴部の1つ以上の予め定義された特性に基づいて、アバター特徴部の動きの大きさ及び方向を規定する。 According to some embodiments, the electronic device performs the to change the appearance of the avatar (eg, as shown in FIGS. 8BG-8BI). Changing the appearance of the avatar based on the input may be performed by selecting one of a plurality of avatar features (e.g., 8125) according to one or more physical models (e.g., inertia model, gravity model, force transfer model, friction model). includes moving one or more of In some embodiments, the physics model uses the magnitude and direction of input (e.g., gestures on the avatar to rotate the avatar or adjust avatar scale, or movements of the face or parts of the face). , and motion of the avatar features based on one or more predefined properties of the virtual avatar features, such as simulated mass, simulated elasticity, simulated coefficient of friction, or other simulated physical properties. specify the magnitude and direction of

仮想アバターの物理モデルに基づいてアバター特徴部のうちの1つ以上を動かすことによって、ユーザは、より広い範囲の非言語的情報を伝達できる現実的な対話型の仮想アバターを作成することができる。これによって、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、仮想アバターのより現実的な動きを使用して、意図されたメッセージを伝達するようにユーザを支援することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 By moving one or more of the avatar features based on the physical model of the virtual avatar, users can create realistic, interactive virtual avatars that can convey a wider range of non-verbal information. . This improves the usability of the device and makes the user-device interface more efficient (e.g., by using more realistic movements of the virtual avatar to assist the user in conveying the intended message). In addition, it reduces the power usage of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイスがアバター(例えば、805)上でジェスチャ(例えば、ピンチ/ピンチアウトジェスチャ、スワイプジェスチャ)を検出する。電子デバイスは、アバター上でジェスチャを検出することに応じて、ジェスチャが第1の種類のジェスチャ(例えば、ピンチ/ピンチアウトジェスチャ)に対応するという判定に従って、ジェスチャに基づいてアバターのズームレベルを調整し(例えば、ジェスチャがピンチアウトジェスチャである場合は表示されたアバターを拡大し、ジェスチャがピンチジェスチャである場合は表示されたアバターを縮小する)、電子デバイスは、ジェスチャが第2の種類のジェスチャ(例えば、スワイプジェスチャ)に対応するという判定に従って、ジェスチャに基づいて(例えば、図8BG~図8BKに示されているように)アバターの向きを調整する(例えば、スワイプジェスチャの方向に対応する方向にアバターを回転する)。電子デバイスは、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、選択された特徴部オプションに基づいてアバターを更新する。いくつかの実施形態では、アクセサリをアバターに追加するときに、フィーチャのズーム及び回転が使用可能である。例えば、アバター特徴部がそれぞれアバターのアクセサリの特徴に対応する場合、第1及び/又は第2のオプション選択領域は、装飾拡張物(例えば、傷跡、あざ、そばかす、入れ墨、及びペイントスキーム(例えば、スポーツチーム、化粧などに対応する))に対応する特徴部オプションを含む。ズーム及び回転操作は、ユーザが選択された特徴部オプション(例えば、装飾拡張物)を正確にアバター上に配置できるように、様々なズームレベル及び角度でアバターを表示する。 According to some embodiments, an electronic device detects a gesture (eg, pinch/pinch out gesture, swipe gesture) on an avatar (eg, 805). In response to detecting a gesture on the avatar, the electronic device adjusts the zoom level of the avatar based on the gesture in accordance with determining that the gesture corresponds to a first type of gesture (e.g., pinch/pinch out gesture). (e.g., zoom in on the displayed avatar if the gesture is a pinch-out gesture, zoom out on the displayed avatar if the gesture is a pinch-out gesture), and the electronic device detects that the gesture is a gesture of the second kind. (e.g., a swipe gesture), adjust the orientation of the avatar based on the gesture (e.g., as shown in FIGS. 8BG-8BK) (e.g., the direction corresponding to the direction of the swipe gesture) to rotate the avatar). In response to detecting selection of one of the feature options in the first set of feature options, the electronic device updates the avatar based on the selected feature option. In some embodiments, zoom and rotate features are available when adding an accessory to an avatar. For example, if the avatar features each correspond to a feature of an avatar's accessory, the first and/or second option selection areas may include decorative extensions (e.g., scars, bruises, freckles, tattoos, and paint schemes (e.g., Includes feature options corresponding to )) corresponding to sports teams, makeup, etc. The zoom and rotate operations display the avatar at various zoom levels and angles so that the user can accurately place the selected feature option (eg, decorative extension) on the avatar.

ジェスチャに基づいてアバターのズームレベルを調整することによって、表示されたユーザインターフェース制御(例えば、タッチ制御)要素を必要とせずに、アバターの表示に対する変更を制御するためのオプションをユーザに提供する。追加の制御によりユーザインターフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Adjusting the avatar's zoom level based on gestures provides the user with options for controlling changes to the avatar's display without the need for displayed user interface control (e.g., touch control) elements. By providing additional control options without cluttering the user interface with additional controls, the usability of the device is improved and the user-device interface (e.g., providing appropriate input when operating/interacting with the device) is improved. more efficient (by helping users to provide and reduce user errors), as well as reducing device power usage by allowing users to use devices more quickly and efficiently reduce and improve battery life.

ジェスチャに基づいてアバターの向きを調整することによって、表示されたユーザインターフェース制御(例えば、タッチ制御)要素を必要とせずに、アバターの表示に対する変更を制御するためのオプションをユーザに提供する。追加の制御によりユーザインターフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Adjusting the orientation of the avatar based on gestures provides the user with options for controlling changes to the avatar's display without the need for displayed user interface control (e.g., touch control) elements. By providing additional control options without cluttering the user interface with additional controls, the usability of the device is improved and the user-device interface (e.g., providing appropriate input when operating/interacting with the device) is improved. more efficient (by helping users to provide and reduce user error), as well as reducing device power usage by allowing users to use devices more quickly and efficiently reduce and improve battery life.

いくつかの実施形態に従って、個別の特徴部オプション(例えば、特徴部オプションの第1又は第2の集合の特徴部オプション)は、(例えば、現在選択されている)個別のアバター特徴部の表現を含む。個別のアバター特徴部の表現は、表示されたアバターの個別のアバター特徴部と比較して拡大された(例えば、ズームイン)表示を有して表示される。いくつかの実施形態では、特徴部オプションは、アバターの鼻に対応し、表示されたアバターの鼻及び周囲の顔の領域と比較した場合に、拡大されたアバターの鼻及び周囲の顔の領域の表示を含む。いくつかの実施形態では、特徴部オプションの第2の集合は、アバター特徴部のうちの1つ以上の拡大された表示を含む。 According to some embodiments, an individual feature option (e.g., a feature option of the first or second set of feature options) renders the representation of the individual avatar feature (e.g., currently selected) include. A representation of the individual avatar feature is displayed with an enlarged (eg, zoomed-in) view relative to the individual avatar feature of the displayed avatar. In some embodiments, the feature option corresponds to the avatar's nose and is the size of the enlarged avatar's nose and surrounding facial area when compared to the displayed avatar's nose and surrounding facial area. Including display. In some embodiments, the second set of feature options includes enlarged representations of one or more of the avatar features.

いくつかの実施形態に従って、第2の個別の特徴部オプション(例えば、8116)は、個別のアバター特徴部の表現を含み、(例えば、図8BBに示されているように)異なるアバター特徴部(例えば、表示された場合に、個別の特徴部オプションを使用して変更されている個別のアバター特徴部の少なくとも一部を不明瞭化するアバター特徴部)の少なくとも一部を除外する(例えば、表示しない)。いくつかの実施形態では、特徴部オプションは、アバターの耳に対応し、特徴部オプションに表示されたアバターの耳の表現は、アバターの耳を含むが、その他のアバター特徴部(表示された場合に、特徴部オプションに表示されたアバターの耳の少なくとも一部を不明瞭化するアバターの毛髪など)を省略する。 According to some embodiments, a second individual feature option (e.g., 8116) includes a representation of an individual avatar feature and a different avatar feature (e.g., as shown in FIG. 8BB) ( avatar features that, if displayed, obscure at least some of the individual avatar features that have been modified using the individual features option) do not). In some embodiments, the feature option corresponds to the avatar's ears, and the representation of the avatar's ears displayed in the feature option includes the avatar's ears, but other avatar features (if displayed). and omitting avatar hair that obscures at least a portion of the avatar's ears displayed in the features option.

いくつかの実施形態に従って、アバター編集ユーザインターフェースを表示することは、アバター特徴部(例えば、顔、毛髪、目、アクセサリなど)に対応する複数のアフォーダンス(例えば、809)を含んでいるアバター特徴部部分領域(例えば、アバター特徴部オプションのスクロール可能なテキストのリスト)(例えば、807)を表示することを更に含む。複数のアフォーダンスは、(例えば、現在選択されている)個別のアバター特徴部に対応する第1の選択されたアフォーダンス(例えば、809a、809b、809c、809d)を含む(例えば、「毛髪」アフォーダンス809bは、毛髪のアバター特徴部が現在選択されていることを示すために、強調表示される)。 According to some embodiments, displaying an avatar editing user interface includes avatar features including a plurality of affordances (eg, 809) corresponding to avatar features (eg, face, hair, eyes, accessories, etc.). It further includes displaying a subregion (eg, a scrollable textual list of avatar feature options) (eg, 807). The plurality of affordances includes a first selected affordance (eg, 809a, 809b, 809c, 809d) corresponding to an individual avatar feature (eg, currently selected) (eg, "hair" affordance 809b). is highlighted to indicate that the hair avatar feature is currently selected).

いくつかの実施形態に従って、電子デバイスは、特徴部オプション(例えば、814)の第1の集合内の特徴部オプション(例えば、814b)のうちの1つの選択を検出することに応じて、アバター特徴部に対応する複数のアフォーダンスのうちの第2の1つに関連付けられた視覚効果のアニメーションを表示する(例えば、図8Fで毛髪アフォーダンス809bを強調表示する)。いくつかの実施形態では、特徴部オプションの第1の選択の後に、現在選択されているアバター特徴部と異なるアバター特徴部に対応するアフォーダンス上でアニメーションが表示され、そのアフォーダンスを選択して異なるアバター特徴部に関するアバター編集ユーザインターフェースを表示するようにユーザに対して促す。 According to some embodiments, the electronic device, in response to detecting selection of one of the feature options (eg, 814b) in the first set of feature options (eg, 814), sets the avatar feature Display an animation of a visual effect associated with a second one of the plurality of affordances corresponding to the part (eg, highlight hair affordance 809b in FIG. 8F). In some embodiments, after a first selection of a feature option, an animation is displayed over the affordance corresponding to an avatar feature that is different from the currently selected avatar feature, and the affordance is selected to select that affordance for a different avatar. Prompt the user to display an avatar editing user interface for the feature.

いくつかの実施形態に従って、電子デバイスは、第2のアバター特徴部(例えば、アバターのアクセサリ)に対応する第2のアフォーダンス(例えば、「アクセサリ」アフォーダンス809D)の選択を検出することに応じて、(例えば、図8BA~図8BBに示されているように)第2のアバター特徴部の第1の特性(例えば、イヤリング特性)の候補値(例えば、フープイヤリング、スタッドイヤリング、又はイヤリングなしなどの異なるイヤリングオプション)の集合に対応する特徴部オプション(例えば、表示されたイヤリングオプション)の更新された第1の集合を表示するように、第1のオプション選択領域を更新し、第2のアバター特徴部の第2の特性(例えば、帽子特性)の候補値(例えば、帽子なし、カウボーイハット、ヘッドバンドなど)の集合に対応する特徴部オプション(例えば、表示された帽子オプション)の更新された第2の集合を表示するように、第2のオプション選択領域を更新する。 According to some embodiments, in response to detecting selection of a second affordance (e.g., "accessory" affordance 809D) corresponding to a second avatar feature (e.g., an avatar accessory), the electronic device: Candidate values (eg, hoop earrings, stud earrings, or no earrings, etc.) for the first characteristic (eg, earring characteristic) of the second avatar feature (eg, as shown in FIGS. 8BA-8BB) updating the first option selection area to display an updated first set of feature options (e.g., displayed earring options) corresponding to the set of different earring options; Updated second feature option (e.g., displayed hat option) corresponding to a set of candidate values (e.g., no hat, cowboy hat, headband, etc.) for the second characteristic (e.g., hat characteristic) of the part. Update the second option selection area to display a set of two.

第2のアバター特徴部に対応する第2のアフォーダンスの選択を検出することに応じて第1及び第2のオプション選択領域を更新することは、第2のアバター特徴部の選択を確認するフィードバックをユーザに提供し、第2のアバター特徴部に使用可能なアバター特徴部オプションを示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Updating the first and second option selection regions in response to detecting selection of the second affordance corresponding to the second avatar feature provides feedback confirming selection of the second avatar feature. Visual feedback is provided to the user indicating available avatar feature options for the second avatar feature. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、アバター特徴部部分領域(例えば、807)が、アバター編集ユーザインターフェースの第1の領域(例えば、803)に表示される。第1のオプション選択領域(例えば、808)及び第2のオプション選択領域(例えば、810)が、アバター編集ユーザインターフェースの第2の領域(例えば、804)に表示され、この第2の領域は第1の領域の下に配置されて表示される。 According to some embodiments, an avatar features portion area (eg, 807) is displayed in a first area (eg, 803) of the avatar editing user interface. A first option selection area (eg, 808) and a second option selection area (eg, 810) are displayed in a second area (eg, 804) of the avatar editing user interface, the second area being the second It is arranged and displayed under the area of 1.

いくつかの実施形態に従って、特徴部オプションの第1の集合は、(例えば、図8Wに示されているように)色に対応する複数の色アフォーダンスを含み、これらの複数の色アフォーダンスは、(例えば、現在選択されている)個別のアバター特徴部の色に対応する第1の選択された色アフォーダンスを含む。 According to some embodiments, the first set of feature options includes multiple color affordances corresponding to colors (eg, as shown in FIG. 8W), and these multiple color affordances are ( For example, including a first selected color affordance corresponding to the color of the individual avatar feature that is currently selected.

いくつかの実施形態に従って、電子デバイスは、複数の色アフォーダンス(例えば、832)のうちの1つの選択を検出することに応じて、選択された色アフォーダンスに対応する選択された色、及び複数の色アフォーダンスに含まれていない複数のその他の色オプションを有するカラーピッカーユーザインターフェース(例えば、888、892、856、822)(例えば、選択された色アフォーダンスの色を変更するために選択され得る色を表示するユーザインターフェース)を表示する。いくつかの実施形態では、選択された色アフォーダンスに対応する選択された色を有するカラーピッカーUIが表示される。その後、ユーザは、カラーピッカーUIを調整して、選択された色を改良するか、又は全く異なる色を選択することができる。いくつかの実施形態では、カラーピッカーユーザインターフェースを表示することは、第1のオプション選択領域又は第2のオプション選択領域のうちの少なくとも1つをカラーピッカーユーザインターフェースに置き換えることを含む。いくつかの実施形態では、カラーピッカーUIは、第1及び第2のオプション選択領域を、特定の方向(例えば、スクリーンの下部、スクリーンの左側、スクリーンの右側など)からスクリーン上(及び、第1及び第2のオプション選択領域上)にスライドするカラーピッカーUIを表示するアニメーションに置き換える。いくつかの実施形態では、カラーピッカーUIは、第1及び第2のオプション選択領域上に表示されるポップアップスクリーンである。 According to some embodiments, in response to detecting selection of one of a plurality of color affordances (eg, 832), the electronic device selects a selected color corresponding to the selected color affordance and a plurality of A color picker user interface (e.g., 888, 892, 856, 822) that has multiple other color options not included in the color affordance (e.g., a color that can be selected to change the color of the selected color affordance). to display the user interface). In some embodiments, a color picker UI is displayed with the selected color corresponding to the selected color affordance. The user can then adjust the color picker UI to refine the selected color or select an entirely different color. In some embodiments, displaying the color picker user interface includes replacing at least one of the first option selection area or the second option selection area with the color picker user interface. In some embodiments, the color picker UI moves the first and second option selection areas on the screen (and the first and second option selection area) with an animation that displays a sliding color picker UI. In some embodiments, the color picker UI is a popup screen displayed over the first and second option selection areas.

いくつかの実施形態では、複数の色アフォーダンス(例えば、812)がアバターの肌の色特徴部の色に対応するという判定に従って、複数の色アフォーダンスは、アバターの肌の色特徴部の色に対応する色アフォーダンス(例えば、図8Aに示されている)の拡張された集合(例えば、選択されたアバターの肌の色の拡張されたカラーパレット)を含む。いくつかの実施形態では、拡張されたカラーパレットは、色がアバターの肌の色特徴部に対応する場合、カラーパレットのサイズを拡張又は縮小するためのオプション(例えば、832に類似する)を除外する。いくつかの実施形態では、複数の色アフォーダンスは、拡張された状態で表示された場合、横方向にスクロール不可能である。 In some embodiments, following the determination that the plurality of color affordances (eg, 812) correspond to the color of the avatar's skin color feature, the plurality of color affordances correspond to the color of the avatar's skin color feature. includes an extended set of color affordances (eg, shown in FIG. 8A) to support (eg, an extended color palette of selected avatar skin colors). In some embodiments, the expanded color palette excludes options (e.g., similar to 832) to expand or reduce the size of the color palette if the colors correspond to skin color features of the avatar. do. In some embodiments, multiple color affordances are not horizontally scrollable when displayed in an expanded state.

いくつかの実施形態に従って、複数の色アフォーダンスは、第1の種類のアバター特徴部(例えば、828)(例えば、アバターの肌の色特徴部以外のアバター特徴部)の色に対応する。いくつかの実施形態では、電子デバイス(例えば、600)は、複数の色アフォーダンスの第1の部分(例えば、882)を表示する。いくつかの実施形態では、電子デバイスは、複数の色アフォーダンス上のジェスチャ(例えば、スワイプジェスチャ)を検出する(例えば、色アフォーダンス上のスワイプジェスチャ)。電子デバイスは、ジェスチャを検出することに応じて、色アフォーダンスの第1の部分を表示することを止め、(例えば、複数の色アフォーダンスをスクロールして追加の色アフォーダンスを露わにして)色アフォーダンスの第2の部分を表示する。いくつかの実施形態では、色アフォーダンスの第2の部分は、色アフォーダンスの第1の部分とは異なる色アフォーダンスの拡張された集合(例えば、888)に対応するアフォーダンス(例えば、886)、及び色アフォーダンスの第2の部分を含んでいる。対話状態から非対話状態へ移行するアバターのアニメーションを表示することによって、アバターの非対話的外観の視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the plurality of color affordances corresponds to colors of a first type of avatar feature (eg, 828) (eg, avatar features other than the avatar's skin color features). In some embodiments, an electronic device (eg, 600) displays a first portion (eg, 882) of multiple color affordances. In some embodiments, the electronic device detects gestures (eg, swipe gestures) over multiple color affordances (eg, swipe gestures over color affordances). In response to detecting the gesture, the electronic device ceases to display the first portion of the color affordances and displays the color affordances (eg, scrolling through multiple color affordances to reveal additional color affordances). to display the second part of . In some embodiments, the second portion of color affordances is an affordance (eg, 886) corresponding to an expanded set of color affordances (eg, 888) different from the first portion of color affordances, and the color It contains the second part of the affordance. Providing visual feedback of the avatar's non-interactive appearance by displaying an animation of the avatar transitioning from an interactive state to a non-interactive state. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1の特性又は第2の特性のうちの少なくとも1つは、アバター特徴部(例えば、アバターの顔)それぞれの特徴部形状(例えば、顔の形状、鼻の形状、耳の形状など)に対応する。 According to some embodiments, at least one of the first property or the second property is a feature shape (e.g., face shape, nose shape, ear shape, etc.).

いくつかの実施形態に従って、個別のアバター特徴部は、アバターの顔(例えば、図8B)である。第1の特性及び第2の特性は、頭部の形状、肌の色、鼻のサイズ、鼻の形状、唇の形状、唇の色、耳のサイズ、顔の毛のスタイル、及び年齢から成る群から選択される。 According to some embodiments, the individual avatar feature is the avatar's face (eg, FIG. 8B). The first characteristic and the second characteristic consist of head shape, skin color, nose size, nose shape, lip shape, lip color, ear size, facial hair style, and age. Selected from the group.

いくつかの実施形態に従って、個別のアバター特徴部は、アバターの毛髪(例えば、図8O)である。第1の特性及び第2の特性は、毛髪の色、髪形、長さ、髪質(例えば、縮毛、ストレート、ウェーブなど)、毛髪の部分(例えば、アバターの毛髪内の部分の位置)、上げた髪、下げた髪(例えば、アバターの頭部での毛髪の縦方向の位置)、及び生え際(例えば、後退している、はげている、富士額、成熟している、低いなど)から成る群から選択される。 According to some embodiments, the individual avatar feature is the avatar's hair (eg, FIG. 8O). The first property and the second property are hair color, hairstyle, length, hair texture (e.g., curly, straight, wavy, etc.), hair part (e.g., position of the part within the avatar's hair), From raised hair, lowered hair (e.g. the vertical position of the hair on the avatar's head), and hairline (e.g. receding, bald, forehead, mature, short, etc.) selected from the group consisting of

いくつかの実施形態に従って、個別のアバター特徴部は、アバターの目である。第1の特性及び第2の特性は、目の形状、目の色、まつげ、及び眉の形状から成る群から選択される。 According to some embodiments, the individual avatar feature is the avatar's eyes. The first characteristic and the second characteristic are selected from the group consisting of eye shape, eye color, eyelash and brow shape.

いくつかの実施形態に従って、個別のアバター特徴部は、アクセサリ(例えば、図8BB)である。第1の特性及び第2の特性は、帽子、眼鏡、イヤリング、及び装飾拡張物(例えば、ペイントスキーム(例えば、スポーツチーム、化粧などに対応する)、入れ墨、そばかす、あざ、傷跡)から成る群から選択される。 According to some embodiments, individual avatar features are accessories (eg, FIG. 8BB). The first characteristic and the second characteristic are a group consisting of hats, glasses, earrings, and decorative extensions (e.g., paint schemes (e.g., corresponding to sports teams, makeup, etc.), tattoos, freckles, birthmarks, scars). is selected from

いくつかの実施形態に従って、電子デバイスは、アバター編集ユーザインターフェース上の縦方向のジェスチャ(例えば、タッチスクリーンディスプレイ上のアバター編集ユーザインターフェースに対応する位置での縦方向のスワイプジェスチャ)を検出することに応じて、アバター編集ユーザインターフェースを縦方向のジェスチャに対応する縦方向にスクロールする。アバター編集ユーザインターフェースをスクロールすることは、(例えば、図8AG~図8AHに示されているように)表示されたアバターを含んでいる領域の縦方向の位置を維持しながら、第1のオプション選択領域及び第2のオプション選択領域を縦方向のジェスチャの方向にスクロールすることを含む。 According to some embodiments, the electronic device is configured to detect a vertical gesture on the avatar editing user interface (e.g., a vertical swipe gesture at a position corresponding to the avatar editing user interface on the touch screen display). In response, the avatar editing user interface is scrolled vertically corresponding to the vertical gesture. Scrolling the avatar editing user interface maintains the vertical position of the region containing the displayed avatar (eg, as shown in FIGS. 8AG-8AH) while selecting the first option. Including scrolling the area and the second option selection area in the direction of the vertical gesture.

いくつかの実施形態に従って、電子デバイスは、アバター編集ユーザインターフェースのアバター特徴部部分領域(例えば、807)上のジェスチャ(例えば、830)(例えば、タッチスクリーンディスプレイ上のアバターに対応する位置での横方向のスワイプジェスチャ、又はアバター特徴部のうちの1つに対応するアフォーダンス上のタッチジェスチャ)を検出することに応じて、第1のアバター特徴部(例えば、809a)が選択されている第1の外観から第2のアバター特徴部(例えば、809b)が選択されている第2の外観に変化するアバター特徴部部分領域を表示し、第1及び第2のオプション選択領域(例えば、808、810)を表示することを止め、第1の特徴部オプションが順序において第2の特徴部オプションよりも前になり、第2の特徴部オプションが順序において第3の特徴部オプションよりも前になる順序で配置された複数の特徴部オプション(例えば、832)を有する第3のオプション選択領域(例えば、838)を表示し、第1の特徴部オプションが順序において第2の特徴部オプションよりも前になり、第2の特徴部オプションが順序において第3の特徴部オプションよりも前になる順序で配置された複数の特徴部オプション(例えば、834)を有する第4のオプション選択領域(例えば、840)を表示する。第3のオプション選択領域を表示することは、第3のオプション選択領域の複数の特徴部オプションを順番に表示することを含む、第1のアニメーションを表示することを含む。第4のオプション選択領域を表示することは、第1のアニメーションの少なくとも一部を表示した後に、第4のオプション選択領域の複数の特徴部オプションを順番に表示することを含む、第2のアニメーションを開始することを含む。 According to some embodiments, the electronic device displays a gesture (e.g., 830) on the avatar features portion area (e.g., 807) of the avatar editing user interface (e.g., sideways motion at a position corresponding to the avatar on the touch screen display). In response to detecting a directional swipe gesture, or a touch gesture on an affordance corresponding to one of the avatar features, a first avatar feature (e.g., 809a) is selected. Displaying an avatar feature portion area that changes from appearance to a second appearance with a second avatar feature (e.g., 809b) selected and displaying first and second option selection areas (e.g., 808, 810) , in order that the first feature option comes before the second feature option in order, and the second feature option comes before the third feature option in order. Displaying a third option selection area (e.g., 838) having multiple feature options (e.g., 832) arranged such that the first feature option precedes the second feature option in order; , a fourth option selection area (eg, 840) having a plurality of feature options (eg, 834) arranged in an order in which the second feature option precedes the third feature option in order. indicate. Displaying the third option selection area includes displaying a first animation that includes sequentially displaying a plurality of feature options of the third option selection area. Displaying the fourth option selection area comprises displaying at least a portion of the first animation followed by sequentially displaying the plurality of feature options of the fourth option selection area. including starting the

いくつかの実施形態に従って、アバターは、第1のサイズ(例えば、拡大されたサイズ)又は第2のサイズ(例えば、縮小されたサイズ)になる。電子デバイスは、アバター編集ユーザインターフェース上のジェスチャ(例えば、特徴部オプション上のタップジェスチャ又は縦方向のスワイプジェスチャ)を(例えば、第1のオプション選択領域又は第2のオプション選択領域に対応する位置で)検出する。電子デバイスは、ジェスチャが特徴部オプションの第1又は第2の集合内の特徴部オプション(例えば、836f)の選択(例えば、869)に対応し、かつアバターが第2のサイズ(例えば、図8AN)であるという判定に従って、第2のサイズから第1のサイズに移行するアバターを表示する(例えば、図8AO)(例えば、アバターが縮小されたサイズであり、特徴部オプションが選択された場合、アバターは、図8AN~図8AOに示されているように、縮小されたサイズから拡大されたサイズに拡大する)。電子デバイスは、ジェスチャがスクロールジェスチャ(例えば、第1及び第2のオプション選択領域上の縦方向のスワイプジェスチャ)であり、かつアバターが第1のサイズであるという判定に従って、スクロールジェスチャが第1のスクロール方向(例えば、下向きのスクロール方向)に対応する場合、第2のサイズに移行するアバターを表示する。いくつかの実施形態では、アバターが拡大されたサイズ又は中間のサイズである場合、下向きのスクロール方向においてスクロールジェスチャを検出することに応じて、アバターが縮小される。いくつかの実施形態では、アバターが縮小されたサイズである場合、デバイスは、下向きのスクロール方向におけるスクロールジェスチャに応じてアバターのサイズを更に縮小しない。いくつかの実施形態では、デバイスは、スクロールジェスチャに応じて、第1及び第2のオプション選択領域もスクロールする。電子デバイスは、ジェスチャがスクロールジェスチャであり、かつアバターが第2のサイズであるという判定に従って、スクロールジェスチャが第1の方向と反対の第2のスクロール方向(例えば、上向きのスクロール方向)に対応する場合、第1のサイズに移行するアバターを表示する。いくつかの実施形態では、アバターが縮小されたサイズ又は中間のサイズである場合、上向きのスクロール方向においてスクロールジェスチャを検出することに応じて、アバターが拡大される。いくつかの実施形態では、アバターが拡大されたサイズである場合、デバイスは、上向きのスクロール方向におけるスクロールジェスチャに応じてアバターのサイズを更に拡大しない。いくつかの実施形態では、デバイスは、スクロールジェスチャに応じて、第1及び第2のオプション選択領域もスクロールする。 According to some embodiments, the avatar can be a first size (eg, enlarged size) or a second size (eg, reduced size). The electronic device performs a gesture (e.g., a tap gesture on a feature option or a vertical swipe gesture) on the avatar editing user interface (e.g., at a position corresponding to the first option selection area or the second option selection area). )To detect. The electronic device determines that the gesture corresponds to selecting (e.g., 869) a feature option (e.g., 836f) within a first or second set of feature options and that the avatar is a second size (e.g., FIG. 8AN). ), display the avatar transitioning from the second size to the first size (e.g., FIG. 8AO) (e.g., if the avatar is a reduced size and the features option is selected, The avatar expands from a reduced size to an enlarged size, as shown in FIGS. 8AN-8AO). The electronic device determines that the gesture is a scroll gesture (e.g., a vertical swipe gesture over the first and second option selection areas) and that the scroll gesture is the first size according to the determination that the avatar is the first size. If corresponding to the scrolling direction (eg, downward scrolling direction), display the avatar transitioning to the second size. In some embodiments, if the avatar is an enlarged size or an intermediate size, the avatar is reduced in response to detecting a scroll gesture in the downward scrolling direction. In some embodiments, if the avatar is in a reduced size, the device does not further reduce the size of the avatar in response to scroll gestures in the downward scroll direction. In some embodiments, the device also scrolls the first and second option selection areas in response to the scroll gesture. The electronic device responds to the scrolling gesture in a second scrolling direction opposite the first direction (e.g., an upward scrolling direction) according to determining that the gesture is a scrolling gesture and the avatar is of a second size. If so, display the avatar transitioning to the first size. In some embodiments, if the avatar is a reduced size or medium size, the avatar is enlarged in response to detecting a scroll gesture in the upward scrolling direction. In some embodiments, if the avatar is in an enlarged size, the device does not further increase the size of the avatar in response to the scroll gesture in the upward scrolling direction. In some embodiments, the device also scrolls the first and second option selection areas in response to the scroll gesture.

いくつかの実施形態に従って、電子デバイスは、ジェスチャがスクロールジェスチャであり、かつアバターが第1のサイズであるという判定に従い、スクロールジェスチャが第2のスクロール方向に対応する場合、第2のサイズに移行するアバターを表示することを止める。いくつかの実施形態では、スクロールジェスチャが下向きのスクロール方向である場合にのみ、アバター(例えば、805)が縮小される。 According to some embodiments, the electronic device follows a determination that the gesture is a scrolling gesture and the avatar is in a first size, transitioning to a second size if the scrolling gesture corresponds to a second scrolling direction. stop displaying avatars that In some embodiments, the avatar (eg, 805) shrinks only if the scroll gesture is in the downward scrolling direction.

いくつかの実施形態に従って、特徴部オプション(例えば、812)のうちの1つの選択(例えば、820)を検出する前に、複数の異なる色値を通って時間と共に変化する肌の色を有するアバター(例えば、805)が表示される(例えば、アバターは、時間と共に2つ以上の色の間を前後に変動して表示される)。いくつかの実施形態では、特徴部オプションのうちの1つの選択を検出する前に、アバターが非対話状態で表示される(例えば、図8Aの805)(例えば、アバターが、ユーザの顔(例えば、673)において検出された変化に応じて変化しない既定の外観を有する、静的状態)。いくつかの実施形態では、電子デバイス(例えば、600)は、アバター編集ユーザインターフェース(例えば、801)上の入力(例えば、820)(例えば、複数のユーザ選択可能な肌の色オプション(例えば、812)からのアバターの肌の色オプション(例えば、812a)の選択)を検出することに応じて、色の効果が変動しないアバターを表示し(例えば、静的配色/単一色を有するアバターを表示し)、非対話状態から対話状態(例えば、ユーザの顔において検出された(例えば、電子デバイスの1つ以上のカメラを介して検出された)変化に応じてアバターが変化する、動的状態)に移行するアバターを表示する。 According to some embodiments, an avatar having a skin color that changes over time through a plurality of different color values before detecting selection (eg, 820) of one of the feature options (eg, 812). (eg, 805) is displayed (eg, an avatar is displayed that oscillates back and forth between two or more colors over time). In some embodiments, the avatar is displayed in a non-interactive state (e.g., 805 in FIG. 8A) prior to detecting selection of one of the feature options (e.g., the avatar is displayed on the user's face (e.g., , 673), which has a default appearance that does not change in response to changes detected in ). In some embodiments, the electronic device (eg, 600) provides an input (eg, 820) (eg, a plurality of user-selectable skin color options (eg, 812) on an avatar editing user interface (eg, 801). ) in response to detecting an avatar's skin color option (e.g., selection of 812a) from the ), from a non-interactive state to an interactive state (e.g., a dynamic state in which the avatar changes in response to changes detected in the user's face (e.g., detected via one or more cameras of the electronic device)). Show transitioning avatars.

なお、方法900に関して上述された処理(例えば、図9)の詳細はまた、以下及び上で説明されている方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法900に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。アバターを編集する方法700は、アバターユーザインターフェースをナビゲートする方法に組み込まれ得る。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図9に関して前述した方法900に従って実現されてよい。追加の例として、方法1000、1100、1200、及び1400は、方法900に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10~図12に関して後述される方法に従って実現されてよい。別の例として、いくつかの実施形態では、ナビゲーションユーザインターフェースが、仮想アバターを変更する処理を呼び出し、この処理は、図14A及び図14Bに関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は繰り返されていない。 It should be noted that the details of the processing (eg, FIG. 9) described above with respect to method 900 are also applicable in an analogous manner to the methods described below and above. For example, method 700 optionally includes one or more of the various method features described above with respect to method 900 . The method 700 of editing an avatar may be incorporated into a method of navigating an avatar user interface. For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which may be implemented according to method 900 described above with respect to FIG. As additional examples, methods 1000 , 1100 , 1200 , and 1400 optionally include one or more of the various method features described above with respect to method 900 . For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which process may be implemented according to the methods described below with respect to FIGS. 10-12. As another example, in some embodiments the navigational user interface invokes a process to modify the virtual avatar, which may be implemented according to the method described below with respect to Figures 14A and 14B. For the sake of brevity, these details have not been repeated.

図10A~10Bは、いくつかの実施形態に従って電子デバイスを使用して視覚効果をアバター編集アプリケーションに表示する方法を示すフロー図である。方法1000は、表示装置を備えたデバイス(例えば、100、300、500、600)にて実行される。方法1000のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 10A-10B are flow diagrams illustrating methods of displaying visual effects in an avatar editing application using an electronic device according to some embodiments. Method 1000 is performed on a device (eg, 100, 300, 500, 600) with a display. Some acts of method 1000 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

下で説明されているように、方法1000は、視覚効果をアバター編集アプリケーションに表示する直感的な方法を提供する。この方法は、視覚効果をアバター編集アプリケーションに表示される画像に適用するユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザが視覚効果をより高速かつより効率的に画像に表示することを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。 As described below, method 1000 provides an intuitive way to display visual effects in avatar editing applications. This method reduces the user's cognitive burden of applying visual effects to images displayed in an avatar editing application, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to display visual effects in images faster and more efficiently saves power and increases intervals between battery charges.

いくつかの実施形態では、電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、1つ以上の色の第1の集合(例えば、いくつかの実施形態では、ハイライト、中間調、及び/又は影を含む、1つ以上の色のデフォルトの集合)を有する個別の特徴(例えば、851、8140)及び個別の特徴(例えば、第1のアバター特徴部(例えば、アバターの肌の色、アバターの目の色、アバターの毛髪の色など))の複数の色オプション(例えば、832、894)(例えば、それぞれ色に対応している複数のアフォーダンス)を含んでいるユーザインターフェースオブジェクト(例えば、仮想アバター805)を表示する(1002)。一部の実施形態では、個別の特徴はアバターの肌の色である。一部の実施形態では、個別の特徴はアバターの目の色(例えば、829)である。一部の実施形態では、個別の特徴はアバターの毛髪の色である。ユーザが色オプションを使用して変更できる個別の特徴を有するアバターを表示することによって、アバターの個別の特徴が色を変更できる状態にあるということを確認する視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, an electronic device (eg, 600) outputs a first set of one or more colors (eg, highlights, in some embodiments) via a display (eg, 601). (e.g., 851, 8140) and individual features (e.g., first avatar feature (e.g., avatar's default set of colors, including halftones and/or shadows)). A user interface that includes multiple color options (e.g., 832, 894) (e.g., multiple affordances, each corresponding to a color) (skin color, avatar eye color, avatar hair color, etc.). An object (eg, virtual avatar 805) is displayed (1002). In some embodiments, the distinct characteristic is the avatar's skin color. In some embodiments, the distinct feature is the avatar's eye color (eg, 829). In some embodiments, the distinct characteristic is the avatar's hair color. By displaying an avatar with individual characteristics that the user can change using the color option, visual feedback is provided to the user confirming that the individual characteristics of the avatar are ready for color change. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイス(例えば、600)は、第2の色に対応する複数の色オプション(例えば、894、832)のうちの色オプション(例えば、894-1、832a)の選択(例えば、895、852)を検出する(1004)。電子デバイスは、選択(1006)を検出することに応じて、個別の特徴(例えば、フレーム8140-1、アバターの毛髪851)の色をその色オプションに変更し(1008)(例えば、個別のアバター特徴部を表示するアバター特徴部オプションの外観に変更し(例えば、個別のアバター特徴部を有する仮想アバター(例えば、805)の外観を変更し))、1つ以上の色の第2の集合(例えば、スライダー857、897に対する変更から生じる色の変化の集合)に対応する色オプションのための第1の色調整制御(例えば、857、897)(例えば、スライダーユーザインターフェース)を表示する(1010)。第1の色調整制御を有するアバターを表示することによって、アバターの個別の特徴が色を変更しており、更なる色の変更のために選択されているということを確認する視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。触覚フィードバックは、変更が受信されたことを確認する。触覚フィードバックを提供することによって、入力が受信されたこと、及び変更が行われたことをユーザに知らせる。 In some embodiments, the electronic device (eg, 600) selects a color option (eg, 894-1, 832a) from a plurality of color options (eg, 894, 832) corresponding to the second color. (eg, 895, 852) are detected (1004). In response to detecting the selection (1006), the electronic device changes the color of the individual feature (eg, frame 8140-1, avatar hair 851) to that color option (1008) (eg, individual avatar Change the appearance of the avatar features option to display features (e.g., change the appearance of a virtual avatar (e.g., 805) with individual avatar features) and a second set of one or more colors ( display 1010 a first color adjustment control (e.g., 857, 897) (e.g., slider user interface) for color options corresponding to (e.g., set of color changes resulting from changes to sliders 857, 897); . Displaying the avatar with the first color adjustment control provides visual feedback to the user confirming that individual features of the avatar are changing colors and are selected for further color changes. offer. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently. Haptic feedback confirms that changes have been received. By providing haptic feedback, the user is informed that input has been received and that changes have been made.

いくつかの実施形態では、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御は、トラック(例えば、897-2)及びトラック内を移動するサム(例えば、897-1)を有するスライダー(例えば、897)を含む。いくつかの実施形態では、入力(例えば、860)はトラック内のサムの移動を引き起こす。いくつかの実施形態では、デバイスは、入力を検出することに応じて、サムが既定の位置(例えば、860’)(例えば、第2の色のデフォルト値に対応する位置である、トラックの中央)に移動されることに従って、触覚フィードバックを生成する。いくつかの実施形態では、既定の位置以外への位置へのサムの移動は、触知出力を含む触覚フィードバックを生成しない。 In some embodiments, a first color adjustment control for a color option corresponding to a second set of one or more colors is a track (eg, 897-2) and a thumb (eg, , 897-1). In some embodiments, the input (eg, 860) causes movement of the thumb within the track. In some embodiments, the device, in response to detecting input, places the thumb at a predetermined position (eg, 860′) (eg, the position corresponding to the default value of the second color, the center of the track). ) to generate haptic feedback. In some embodiments, movement of the thumb to positions other than the default position does not generate haptic feedback, including tactile output.

ユーザインターフェースオブジェクト(例えば、805)の個別の特徴(例えば、851)が1つ以上の色(例えば、832a)の第2の集合を有する間、電子デバイスは、第1の色調整制御に対応する入力(例えば、860)(例えば、ドラッグジェスチャ又はタップジェスチャ)を検出する(1012)。電子デバイスは、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を、1つ以上の色の第2の集合から、1つ以上の色の第2の集合の変更されたバージョン(例えば、個別のアバター特徴部の変更された色)に変更する(1014)。いくつかの実施形態では、スライダーユーザインターフェースは、基になる選択された色オプションの特性(例えば、色相、彩度、値/明度)を変更する。いくつかの実施形態では、選択された色オプションの表示された色も、スライダーユーザインターフェース上の入力に応じて変更される。いくつかの実施形態では、方法900及び図8AX~図8AYに関して説明されているように、複数の色オプションがカラーパレットを含む。アバターの変更された外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device responds to the first color adjustment control while the individual feature (eg, 851) of the user interface object (eg, 805) has a second set of one or more colors (eg, 832a) An input (eg, 860) (eg, a drag or tap gesture) is detected (1012). The electronic device, in response to detecting input corresponding to the first color adjustment control, converts the individual feature color from the second set of one or more colors to one color based on the second color. Change 1014 to a modified version of the second set of one or more colors (eg, modified colors of individual avatar features). In some embodiments, the slider user interface changes properties (eg, hue, saturation, value/lightness) of the underlying selected color option. In some embodiments, the displayed color of the selected color option also changes in response to input on the slider user interface. In some embodiments, multiple color options include a color palette, as described with respect to method 900 and FIGS. 8AX-8AY. The avatar's altered appearance provides feedback to the user indicating the types of avatar characteristics that can be customized. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第1の色調整制御(例えば、857)に対応する入力(例えば、860)を検出することに応じて、色オプション(例えば、832a)の色を、第2の色から1つ以上の色の第2の集合の変更されたバージョンに変更する。いくつかの実施形態では、個別の特徴(例えば、851、8140)の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更することは、1つ以上の色の第2の集合の複数の値(例えば、ハイライト、中間調、影)を変更することを含む。いくつかの実施形態では、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更することは、第1の色調整制御に対応する入力(例えば、860)の大きさ及び方向に更に基づく(例えば、入力が右に大きく移動するほど、色の赤色の値が増加し、入力が左に大きく移動するほど、色の緑色の値が増加する)。 According to some embodiments, an electronic device (eg, 600) responds to detecting an input (eg, 860) corresponding to a first color adjustment control (eg, 857) to select a color option (eg, 832a). ) from a second color to a modified version of a second set of one or more colors. In some embodiments, changing the color of individual features (e.g., 851, 8140) from the second set of one or more colors to a modified version of the second set of one or more colors includes changing multiple values (eg, highlights, midtones, shadows) of a second set of one or more colors. In some embodiments, changing the color of the individual feature from the second set of one or more colors to a modified version of the second set of one or more colors is a first color adjustment. Further based on the magnitude and direction of the input (e.g., 860) corresponding to the control (e.g., the farther the input moves to the right, the greater the red value of the color; green values increase).

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第2の特徴(例えば、8140-2)(例えば、個別の(第1の)アバター特徴部の部分又は個別のアバター特徴部と異なる第2のアバター特徴部)の第2の複数の色オプション(例えば、896)を表示する(1016)。第2の特徴の第2の複数の色オプションと共にアバターを表示することによって、ユーザが第2の複数の色オプションを使用して第2の特徴の色を変更したときに、ユーザに視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) includes a second feature (eg, 8140-2) (eg, part of the individual (first) avatar feature or different from the individual avatar feature). Display 1016 a second plurality of color options (eg, 896) for a second avatar feature). Displaying the avatar with the second plurality of color options for the second feature provides visual feedback to the user when the user changes the color of the second feature using the second plurality of color options. offer. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイス(例えば、600)は、第2の複数の色オプションのうちの第2の色オプション(例えば、896-1)の選択(例えば、898)を検出する(1018)。いくつかの実施形態では、電子デバイスは、第2の色オプションの選択を検出することに応じて(1020)、第2の特徴の色を第2の色オプションに変更し(1022)、1つ以上の色の第3の集合に対応する第2の色オプションのための第2の色調整制御(例えば、899)を表示する(1024)。第2の色調整制御を表示することによって、第2の特徴が色の異なる集合によって変更されてよいということの視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) detects selection (eg, 898) of a second color option (eg, 896-1) of the second plurality of color options (1018 ). In some embodiments, in response to detecting selection of the second color option (1020), the electronic device changes the color of the second feature to the second color option (1022), Display 1024 a second color adjustment control (eg, 899) for a second color option corresponding to the third set of colors above. Displaying the second color adjustment control provides visual feedback to the user that the second characteristic may be modified by a different set of colors. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、個別の特徴及び第2の特徴はそれぞれ、アバターの眼鏡の特徴(例えば、8140)の部分に対応し、複数の色オプション(例えば、884)は、アバターの眼鏡のフレーム(例えば、8140-1)の色に対応し、第2の複数の色オプション(例えば、896)は、アバターの眼鏡のレンズ(例えば、8140-2)の色に対応する。いくつかの実施形態では、電子デバイス(例えば、600)は、第2の色調整制御に対応する入力を検出する。電子デバイスは、第2の色調整制御に対応する入力を検出することに応じて、アバターの眼鏡のレンズの不透明度を変更する(例えば、完全に反射する最大値から、わずかに反射するほとんど透明な最小値までの範囲内で、レンズの不透明度を変更する)。アバターの眼鏡の外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the individual feature and the second feature each correspond to a portion of the avatar's eyeglasses feature (eg, 8140) and the multiple color options (eg, 884) correspond to the avatar's eyeglass frames. (eg, 8140-1) and a second plurality of color options (eg, 896) correspond to the color of the avatar's eyeglass lenses (eg, 8140-2). In some embodiments, the electronic device (eg, 600) detects input corresponding to the second color adjustment control. The electronic device changes the opacity of the lenses of the avatar's eyeglasses in response to detecting input corresponding to the second color adjustment control (e.g., from fully reflective to almost transparent to slightly reflective). change the opacity of the lens up to a reasonable minimum value). The appearance of the avatar's glasses provides feedback to the user indicating the types of avatar characteristics that can be customized. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、デバイス(例えば、600)は、第2の色オプション(例えば、832b)の選択を検出することに応じて(例えば、第2の色オプションの選択を検出することに応じて)、1つ以上の色の第2の集合に対応する色オプション(例えば、832a)のための第1の色調整制御(例えば、857)を表示することを止める(例えば、第1の色スライダーを非表示にする)。いくつかの実施形態に従って、電子デバイス(例えば、600)は、(例えば、第2の色オプションの選択を検出することに応じて)1つ以上の色の第2の集合に対応する色オプション(例えば、832a)のための第1の色調整制御(例えば、857)を表示することを止めた後に、第2の色に対応する複数の色オプションのうちの色オプション(例えば、832a)のその後の選択(例えば、871)を検出する。電子デバイスは、その後の選択を検出することに応じて、色オプションのための第1の色調整制御の表示を再開する(例えば、図8ATを参照)。いくつかの実施形態では、第1の色調整制御は、1つ以上の色の第2の集合の変更されたバージョンに対応する(例えば、色スライダーの変更(スライダーに対する変更及び1つ以上の色の第2の集合の変更されたバージョンを含む)は、色スライダーを変更するその後入力によって変更されるまで、持続する)。いくつかの実施形態では、(例えば、異なるアバター特徴部を選択すること、異なる色アフォーダンスを選択すること、アバターオプションをスクロールすることなどによって)デバイスが表示された色スライダーから離れてナビゲートしたときに、その色スライダーの設定が持続する。いくつかの実施形態では、(例えば、図8ATに示されているように)デバイスがナビゲートして変更されたスライダーに戻ったときに、変更された設定(例えば、セレクターアフォーダンスの位置及び変更された色)が変化しない。第1の色調整制御を表示することを止めた後に、第1の色調整制御を再び表示することによって、ユーザインターフェースの状態が色が変更されてよいモードに戻っていることの視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the device (eg, 600) responds to detecting selection of the second color option (eg, 832b) (eg, in response to detecting selection of the second color option ) to stop displaying the first color adjustment control (eg, 857) for the color option (eg, 832a) corresponding to the second set of one or more colors (eg, the first color hide the slider). According to some embodiments, an electronic device (eg, 600) selects (eg, in response to detecting selection of a second color option) a color option (eg, 600) corresponding to a second set of one or more colors ( For example, after stopping displaying the first color adjustment control (eg, 857) for 832a), after the color option (eg, 832a) of the plurality of color options corresponding to the second color. is detected (eg, 871). The electronic device resumes displaying the first color adjustment control for the color option in response to detecting a subsequent selection (see, eg, FIG. 8AT). In some embodiments, the first color adjustment control corresponds to a modified version of the second set of one or more colors (e.g., changes to a color slider (changes to the slider and one or more colors ) persists until changed by subsequent inputs that change the color slider). In some embodiments, when the device navigates away from the displayed color slider (e.g., by selecting a different avatar feature, selecting a different color affordance, scrolling through avatar options, etc.) , the color slider setting persists. In some embodiments, the changed settings (e.g., selector affordance position and changed color) does not change. After ceasing to display the first color adjustment control, displaying the first color adjustment control again provides visual feedback that the state of the user interface is returning to a mode in which colors may be changed; Provide to users. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイスは、1つ以上の色の第2の集合に対応する第1の色調整制御(例えば、857)を表示することを止めた後に、(例えば、図8ACに示されているように)1つ以上の色の第2の集合の変更されたバージョンを有する複数の色オプションのうちの色オプション(例えば、832a)の表示を維持する。 According to some embodiments, the electronic device stops displaying the first color adjustment control (eg, 857) corresponding to the second set of one or more colors (eg, in FIG. 8AC). Maintaining the display of a color option (eg, 832a) of the plurality of color options having a modified version of the second set of one or more colors (as shown).

いくつかの実施形態では、第2の色に基づいて個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更することは、次のステップのうちの1つ以上を含む。デバイス(例えば、600)は、第1の色調整制御(例えば、822)に対応する入力(例えば、860)が第2の方向の移動を含んでいるという判定に従って、1つ以上の色の第2の集合の赤色の値を増やす。第1の色調整制御に対応する入力が第3の方向の移動を含んでいるという判定に従って、1つ以上の色の第2の集合の緑色の値を増やす。 In some embodiments, changing the color of the individual feature from the second set of one or more colors to a modified version of the second set of one or more colors based on the second color. includes one or more of the following steps. A device (e.g., 600) outputs one or more colors in a first color according to a determination that an input (e.g., 860) corresponding to a first color adjustment control (e.g., 822) includes movement in a second direction. Increment the red value of the set of 2. The green value of the second set of one or more colors is increased in accordance with a determination that the input corresponding to the first color adjustment control includes movement in a third direction.

いくつかの実施形態では、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第3の集合を有する間、電子デバイス(例えば、600)は、第2の色調整制御(例えば、899)に対応する入力(例えば、ドラッグジェスチャ又はタップジェスチャ)を検出する。電子デバイスは、第2の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を、1つ以上の色の第3の集合から、1つ以上の色の第3の集合の変更されたバージョン(例えば、個別のアバター特徴部の変更された色)に変更する。いくつかの実施形態では、これは、次のステップのうちの1つ以上を含む。第2の色調整制御に対応する第2の入力が第2の方向の移動を含んでいるという判定に従って、1つ以上の色の第3の集合の赤色の値を増やす。第2の色調整制御に対応する第2の入力が第3の方向の移動を含んでいるという判定に従って、1つ以上の色の第3の集合の緑色の値を増やす。色の集合の変更は、ユーザ入力の移動に結びつけられる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) adjusts the second color adjustment control (eg, 899) while the individual feature of the user interface object has the third set of one or more colors. Detect corresponding input (eg, drag gesture or tap gesture). The electronic device, in response to detecting input corresponding to the second color adjustment control, converts the individual feature color from the third set of one or more colors to one color based on the second color. Change to a modified version of a third set of one or more colors (eg, modified colors of individual avatar features). In some embodiments this includes one or more of the following steps. A red value of a third set of one or more colors is increased in accordance with a determination that a second input corresponding to a second color adjustment control includes movement in a second direction. A green value of a third set of one or more colors is increased in accordance with a determination that a second input corresponding to a second color adjustment control includes movement in a third direction. Changing the set of colors is tied to moving user input. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第1の色調整制御(例えば、897)に対応する入力が第1の方向を含んでいるという判定に応じて、1つ以上の色の第2の集合を第1の方法で変更する(例えば、第1の色スライダー上の第1の方向の入力の移動に基づいて、第1の方向で(例えば、冷たい色調からより暖かい色調へ)、1つ以上の色の第2の集合の色のグラデーションを調整する)。いくつかの実施形態では、第2の色調整制御(例えば、899)に対応する第2の入力が第1の方向を含んでいるという判定に応じて、1つ以上の色の第3の集合を第1の方法で変更する(例えば、第2の色スライダー上の第1の方向(例えば、第1の色スライダーの移動と同じ第1の方向)の入力の移動に基づいて、1つ以上の色の第2の集合のグラデーションが調整されたのと同じ方法で(例えば、やはり冷たい色調からより暖かい色調へ)、1つ以上の色の第3の集合のグラデーションを調整する)。色の集合の変更は、ユーザ入力の移動に結びつけられる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600), in response to determining that the input corresponding to the first color adjustment control (eg, 897) includes the first direction, one or more Modify the second set of colors in a first way (e.g., based on movement of the input in the first direction on the first color slider in the first direction (e.g., from cool tones to warmer tones) d), adjusting the color gradation of the second set of one or more colors). In some embodiments, a third set of one or more colors in response to determining that a second input corresponding to a second color adjustment control (eg, 899) includes the first direction in a first way (e.g., one or more adjust the gradation of the third set of one or more colors in the same way that the gradation of the second set of colors was adjusted (eg, also from cool tones to warmer tones). Changing the set of colors is tied to moving user input. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

なお、方法1000に関して上述された処理(例えば、図10)の詳細はまた、以下及び上で説明されている方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1000に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。アバターを編集する方法700は、アバターユーザインターフェースをナビゲートする方法に組み込まれ得る。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10に関して前述した方法1000に従って実現されてよい。追加の例として、方法900、1100、1200、及び1400は、方法1000に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図11~図12に関して後述される方法に従って実現されてよい。別の例として、いくつかの実施形態では、ナビゲーションユーザインターフェースが、仮想アバターを変更する処理を呼び出し、この処理は、図14A及び図14Bに関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は繰り返されていない。 It should be noted that the processing details described above with respect to method 1000 (eg, FIG. 10) are also applicable in a similar manner to the methods described below and above. For example, method 700 optionally includes one or more of the various method features described above with respect to method 1000 . The method 700 of editing an avatar may be incorporated into a method of navigating an avatar user interface. For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which may be implemented according to method 1000 described above with respect to FIG. As additional examples, methods 900 , 1100 , 1200 , and 1400 optionally include one or more of the various method features described above with respect to method 1000 . For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which process may be implemented according to the methods described below with respect to FIGS. 11-12. As another example, in some embodiments the navigational user interface invokes a process to modify the virtual avatar, which may be implemented according to the method described below with respect to Figures 14A and 14B. For the sake of brevity, these details have not been repeated.

図11A及び11Bは、いくつかの実施形態に従ってアバター編集ユーザインターフェースを表示する方法を示すフロー図である。方法1100は、表示装置を備えたデバイス(例えば、100、300、500、600)にて実行される。方法1100のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 11A and 11B are flow diagrams illustrating methods of displaying an avatar editing user interface according to some embodiments. Method 1100 is performed on a device (eg, 100, 300, 500, 600) with a display. Some acts of method 1100 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

下で説明されているように、方法1100は、アバター編集ユーザインターフェースを表示する直感的な方法を提供する。この方法は、アバターを管理する際のユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ユーザがアバター編集ユーザインターフェースを使用してより素早く効率的にアバターの特性を変更できるようにするので、電力を節約し、バッテリの充電間の時間を延ばす。 As described below, method 1100 provides an intuitive way of displaying an avatar editing user interface. This method reduces the user's cognitive burden in managing avatars, thereby creating a more efficient human-machine interface. Battery-operated computing devices allow users to change avatar characteristics more quickly and efficiently using the avatar editing user interface, thus conserving power and increasing the time between battery charges.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部(例えば、肌の色)、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部(例えば、827、829)(例えば、顔の毛、眉、唇)を含む、複数のアバター特徴部(例えば、アバターの毛髪、顔の特徴(アバターの唇、目、鼻など)、アクセサリ(例えば、イヤリング、サングラス、帽子))を有するアバター(例えば、805)を表示する(1104)ことを含んでいるアバター編集ユーザインターフェース(例えば、801)を表示する(1102)。アバター編集ユーザインターフェースを表示することは、第1のアバター特徴部に対応する複数の色オプション(例えば、812)(例えば、それぞれ色に対応する複数のアフォーダンス)を表示する(1106)ことも含む。電子デバイスは、複数の色オプションのうちの個別の色オプション(例えば、812a)の選択(例えば、820)を検出する(1108)。アバターの外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 An electronic device (e.g., 600) communicates, via a display (e.g., 601), a first avatar feature (e.g., skin color) having a first set of one or more colors, and one or more second avatar features (e.g., 827, 829) having one or more sets of colors that are different from the first set of one or more colors (e.g., facial avatars with multiple avatar features (e.g., avatar hair, facial features (avatar lips, eyes, nose, etc.), accessories (e.g., earrings, sunglasses, hats), including avatar features (e.g., avatar hair, eyebrows, lips) Display 1102 an avatar editing user interface (eg, 801), including displaying 1104, for example, 805). Displaying the avatar editing user interface also includes displaying 1106 a plurality of color options (eg, 812) corresponding to the first avatar feature (eg, a plurality of affordances each corresponding to a color). The electronic device detects selection (eg, 820) of an individual color option (eg, 812a) of the plurality of color options (1108). Avatar appearance provides feedback to the user indicating the types of avatar characteristics that can be customized. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイス(例えば、600)は、第1のアバター特徴部(例えば、肌の色)の複数の色オプションのうちの個別の色オプション(例えば、812a)の選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、アバター(例えば、805)の外観を更新する(1110)。いくつかの実施形態では、アバターの外観を更新することは、次のステップのうちの1つ以上を含む。1つのステップは、第1のアバター特徴部(例えば、アバター805の顔)を1つ以上の色の第2の集合に変更する(1112)ことを含む。別のステップは、第2のアバター特徴部(例えば、827)を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更する(1114)ことを含む(例えば、第1のアバター特徴部の選択された色は、第2のアバター特徴部の変更された色に関する色の特性(例えば、淡色、色相、陰影、彩度、中間調、ハイライト、暖かさなど)を提供する)。第1のアバター特徴部の個別の色オプションの選択、及びこの選択に従って第1のアバター特徴部を変更することによって、変更された第1のアバター特徴部のフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) detects selection of an individual color option (eg, 812a) of multiple color options for the first avatar feature (eg, skin color). In response, the appearance of the avatar (eg, 805) is updated (1110) in accordance with the determination that the individual color option corresponds to the second set of one or more colors. In some embodiments, updating the avatar's appearance includes one or more of the following steps. One step includes changing 1112 a first avatar feature (eg, the face of avatar 805) to a second set of one or more colors. Another step is to generate a second avatar feature (e.g., 827) in one or more colors based on the second set of one or more colors and different from the second set of one or more colors. changing 1114 to a set (e.g., the selected color of the first avatar feature is the color characteristics (e.g., tint, hue, shading, saturation, midtones, highlights, warmth, etc.). By selecting individual color options for the first avatar feature and modifying the first avatar feature according to the selection, feedback of the modified first avatar feature is provided to the user. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第1のアバター特徴部の複数の色オプションのうちの個別の色オプション(例えば、812a)の選択(例えば、820)を検出することに応じて、個別の色オプションが1つ以上の色の第3の集合に対応するという判定に従って、第1のアバター特徴部及び第2のアバター特徴部(例えば、827)を、個別の色オプションが1つ以上の色の第2の集合に対応する場合とは異なる方法で変更する(1118)(例えば、1つ以上の色の第2の集合ではなく1つ以上の色の第3の集合に対応する選択された色オプションに基づいて、第1及び第2のアバター特徴部を変更する)(例えば、選択された色オプションが1つ以上の色の第3の集合に対応する場合、選択された色オプションに基づいて、第1及び第2のアバター特徴部のハイライトを調整する)(例えば、選択された色オプションが1つ以上の色の第2の集合に対応する場合、第1及び第2のアバター特徴部の中間調を調整する)。いくつかの実施形態では、色の第3の集合の場合の選択された色オプションと第1及び第2のアバター特徴部との間の関係は、1つ以上の色の第2の集合の場合のそれらの関係とは異なる。例えば、1つ以上の色の第2の集合に対応する選択された色オプションは、第1及び/又は第2のアバター特徴部のハイライトの調整に使用されるが、一方、1つ以上の色の第3の集合に対応する選択された色オプションは、第1及び/又は第2のアバター特徴部の中間調の調整に使用される。第1のアバター特徴部の個別の色オプションの選択、及びこの選択に従って第1のアバター特徴部を変更することによって、変更された第1のアバター特徴部のフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, an electronic device (eg, 600) detects selection (eg, 820) of an individual color option (eg, 812a) of the plurality of color options of the first avatar feature. , the first avatar feature and the second avatar feature (e.g., 827) according to a determination that the discrete color option corresponds to a third set of one or more colors, to the discrete color option corresponding to the second set of one or more colors (1118) (e.g., the third set of one or more colors rather than the second set of one or more colors). (e.g., if the selected color option corresponds to a third set of one or more colors, select adjust the highlights of the first and second avatar features based on the selected color option (e.g., if the selected color option corresponds to a second set of one or more colors, the first and adjust the midtones of the second avatar feature). In some embodiments, the relationship between the selected color option and the first and second avatar features for the third set of colors is one or more for the second set of colors. different from those relationships of For example, a selected color option corresponding to a second set of one or more colors is used to adjust the highlights of the first and/or second avatar features, while one or more A selected color option corresponding to the third set of colors is used to adjust the halftones of the first and/or second avatar features. By selecting individual color options for the first avatar feature and modifying the first avatar feature according to the selection, feedback of the modified first avatar feature is provided to the user. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、第3のアバター特徴部(例えば、851)(例えば、毛髪の色)に対応する第2の複数の色オプション(例えば、832)を表示する。デバイスは、第2の複数の色オプションのうちの第1の色オプション(例えば、832a)の選択(例えば、852)を検出する。電子デバイスは、第3のアバター特徴部の第2の複数の色オプションのうちの第1の色オプションの選択を検出することに応じて、第1の色オプションが1つ以上の色の第4の集合に対応するという判定に従って、アバター(例えば、805)の外観を更新する。アバターを更新することは、第3のアバター特徴部(例えば、851)を1つ以上の色の第4の集合に変更することと、第2のアバター特徴部(例えば、眉の色827)を、1つ以上の色の第4の集合に基づく、1つ以上の色の第4の集合と異なる、1つ以上の色の集合に変更することと、を含む。いくつかの実施形態では、アバターの顔の毛の色(例えば、眉の色)は、毛髪の色と肌の色の両方による影響を受ける。アバターの外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。第3のアバター特徴部の第1の色オプションの選択、及びこの選択に従って第3のアバター特徴部を変更することによって、変更された第1のアバター特徴部のフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, an electronic device (eg, 600) displays a second avatar feature (eg, 851) corresponding to a third avatar feature (eg, hair color) via a display device (eg, 601). display multiple color options (e.g., 832). The device detects selection (eg, 852) of a first color option (eg, 832a) of the second plurality of color options. In response to detecting selection of a first color option of the second plurality of color options of the third avatar feature, the electronic device selects the one or more fourth colors of the first color option. The appearance of the avatar (eg, 805) is updated according to the determination that it corresponds to the set of . Updating the avatar includes changing a third avatar feature (eg, 851) to a fourth set of one or more colors and changing a second avatar feature (eg, eyebrow color 827) to , changing to one or more sets of colors different from the fourth set of one or more colors based on the fourth set of one or more colors. In some embodiments, the avatar's facial hair color (eg, eyebrow color) is influenced by both hair color and skin color. The avatar's appearance provides feedback to the user indicating the types of avatar characteristics that can be customized. Selecting a first color option for the third avatar feature and modifying the third avatar feature according to the selection provides feedback to the user of the modified first avatar feature. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第2の複数の色オプション(例えば、832)のうちの第2の色オプション(例えば、832b)の選択(例えば、861)を検出する。電子デバイスは、第3のアバター特徴部の第2の複数の色オプションのうちの第2の色オプションの選択を検出することに応じて、第1の色オプションが1つ以上の色の第5の集合に対応するという判定に従って、第3のアバター特徴部(例えば、肌の色)及び第2のアバター特徴部(例えば、827)を、第1の色オプションが選択された場合とは異なる方法で変更する(例えば、1つ以上の色の第4の集合ではなく1つ以上の色の第5の集合に対応する第2の色オプションに基づいて、第3及び第2のアバター特徴部を変更する)。いくつかの実施形態では、色の第5の集合の場合の選択された色オプション(例えば、第2の色オプション)と第3及び第2のアバター特徴部との間の関係は、1つ以上の色の第4の集合の場合のそれらの関係とは異なる。例えば、1つ以上の色の第4の集合に対応する選択された色オプションは、第3及び/又は第2のアバター特徴部のハイライトの調整に使用されるが、1つ以上の色の第5の集合に対応する選択された色オプションは、第3及び/又は第2のアバター特徴部の中間調の調整に使用される。一部の実施形態では、第1のアバター特徴部はアバターの毛髪の色に対応する。一部の実施形態では、第2のアバター特徴部はアバターの眉に対応する。一部の実施形態では、第3のアバター特徴部はアバターの肌の色に対応する。第2のアバター特徴部の第2の色オプションの選択、及びこの選択に従って第2のアバター特徴部を変更することによって、変更された第2のアバター特徴部のフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, an electronic device (eg, 600) detects selection (eg, 861) of a second color option (eg, 832b) of a second plurality of color options (eg, 832). do. In response to detecting selection of a second color option of the second plurality of color options of the third avatar feature, the electronic device determines that the first color option is one or more fifth colors of the one or more colors. a third avatar feature (e.g., skin color) and a second avatar feature (e.g., 827) in a different manner than if the first color option were selected. (e.g., change the third and second avatar features based on the second color option corresponding to the fifth set of one or more colors rather than the fourth set of one or more colors) change). In some embodiments, the relationship between the selected color option (eg, the second color option) for the fifth set of colors and the third and second avatar features is one or more different from those relationships for the fourth set of colors in . For example, the selected color option corresponding to the fourth set of one or more colors is used to adjust the highlighting of the third and/or second avatar features, but not the one or more colors. Selected color options corresponding to the fifth set are used to adjust the midtones of the third and/or second avatar features. In some embodiments, the first avatar feature corresponds to the avatar's hair color. In some embodiments, the second avatar feature corresponds to the avatar's eyebrows. In some embodiments, the third avatar feature corresponds to the avatar's skin color. Selecting a second color option for the second avatar feature and modifying the second avatar feature according to the selection provides feedback to the user of the modified second avatar feature. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第3のアバター特徴部(例えば、アバターの肌の色)及び第2のアバター特徴部(例えば、827)(例えば、アバターの眉)は、第1のアバター特徴部(例えば、アバターの毛髪の色)に対応する1つ以上の色の第2の集合に基づいて第1の色特性(例えば、色相)を調整することを含む第1の方法で変更される。いくつかの実施形態では、第3のアバター特徴部及び第2のアバター特徴部は、第3のアバター特徴部に対応する1つ以上の色の第4の集合に基づいて、第1の色特性とは異なる第2の色特性(例えば、色の輝度)を調整する(例えば、アバターの眉はアバターの肌の色よりも暗い)ことを含む、第2の方法で変更される。第3のアバター特徴部及び第2のアバター特徴部は、第1のアバター特徴部に対応する第1の色特性に従って調整される。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, a third avatar feature (e.g., avatar skin color) and a second avatar feature (e.g., 827) (e.g., avatar eyebrows) are integrated with the first avatar feature (e.g., avatar's eyebrows). For example, the avatar's hair color) is modified in a first manner that includes adjusting a first color characteristic (eg, hue) based on a second set of one or more colors corresponding to the avatar's hair color. In some embodiments, the third avatar feature and the second avatar feature have the first color characteristic based on a fourth set of one or more colors corresponding to the third avatar feature. is modified in a second way, including adjusting a second color characteristic (eg, color brightness) that is different from the avatar (eg, the avatar's eyebrows are darker than the avatar's skin tone). The third avatar feature and the second avatar feature are adjusted according to a first color characteristic corresponding to the first avatar feature. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、複数の色オプション(例えば、812)のうちの個別の色オプション(例えば、812a)の選択(例えば、820)を検出することに応じて、1つ以上の色の第2の集合に対応する個別の色オプションのための色調整制御(例えば、822)(例えば、スライダーユーザインターフェース)を表示する(1116)。いくつかの実施形態では、色調整制御は、方法1000及び図10A~図10Bに関して説明されているような色調整制御である。色調整制御は、選択されてよい色オプションの視覚的表現を提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, an electronic device (eg, 600) responds to detecting selection (eg, 820) of an individual color option (eg, 812a) of a plurality of color options (eg, 812). to display (1116) a color adjustment control (eg, 822) (eg, a slider user interface) for individual color options corresponding to a second set of one or more colors. In some embodiments, the color adjustment control is a color adjustment control as described with respect to method 1000 and FIGS. 10A-10B. Color adjustment controls provide a visual representation of the color options that may be selected. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第2のアバター特徴部は、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に対応するアバターの唇の色を有するアバターの唇(例えば、828)に対応する。いくつかの実施形態では、デバイスは、色調整制御(例えば、892、893)に対応する入力(例えば、ドラッグジェスチャ又はタップジェスチャ)を検出する。電子デバイス(例えば、600)は、この入力を検出することに応じて、アバターの唇の第1の部分(例えば、外側部分(例えば、828a))のアバターの唇の色を変更し、アバターの唇の第2の部分(例えば、内側部分(例えば、828b))のアバターの唇の色を維持する。第2のアバター特徴部の外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。色調整制御からのアバター特徴部の色オプションの選択によって、変更された第1のアバター特徴部のフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the second avatar feature corresponds to a set of one or more colors different from the second set of one or more colors based on the second set of one or more colors. corresponds to an avatar lip (eg, 828) that has the desired avatar lip color. In some embodiments, the device detects input (eg, drag or tap gestures) corresponding to color adjustment controls (eg, 892, 893). In response to detecting this input, the electronic device (eg, 600) changes the avatar's lip color of the first portion (eg, the outer portion (eg, 828a)) of the avatar's lips, and the avatar's Maintain the avatar's lip color for the second portion of the lips (eg, the inner portion (eg, 828b)). The appearance of the second avatar feature provides feedback to the user indicating the types of avatar characteristics that can be customized. Selection of the avatar feature color option from the color adjustment control provides feedback to the user of the changed first avatar feature. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1のアバター特徴部はアバターの肌に対応する。いくつかの実施形態では、第2のアバター特徴部はアバターの唇(例えば、828)に対応する。いくつかの実施形態では、1つ以上の色の第2の集合に基づく1つ以上の色の集合は、1つ以上の色の第2の集合及び赤色の値を含む(例えば、アバターの唇は、肌の色及び赤色の陰影(例えば、ピンク色などの自然な陰影又は口紅の色を表す陰影)に基づく)。アバターの肌の色の外観は、アバターの肌の色をカスタマイズできることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the first avatar feature corresponds to the avatar's skin. In some embodiments, the second avatar feature corresponds to the avatar's lips (eg, 828). In some embodiments, the set of one or more colors based on the second set of one or more colors includes the second set of one or more colors and a red color value (e.g., the avatar's lips is based on skin color and shades of red (eg, natural shades such as pink or shades representing lipstick color). The appearance of the avatar's skin color provides feedback to the user indicating that the avatar's skin color can be customized. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

なお、方法1100に関して上述された処理(例えば、図11)の詳細はまた、以下及び上で説明されている方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1100に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。アバターを編集する方法700は、アバターユーザインターフェースをナビゲートする方法に組み込まれ得る。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図9に関して前述した方法900に従って実現されてよい。追加の例として、方法1000、1200、及び1400は、方法1100に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10~図12に関して後述される方法に従って実現されてよい。別の例として、いくつかの実施形態では、ナビゲーションユーザインターフェースが、仮想アバターを変更する処理を呼び出し、この処理は、図14A及び図14Bに関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は繰り返されていない。 It should be noted that the details of the processing described above with respect to method 1100 (eg, FIG. 11) are also applicable in a similar manner to the methods described below and above. For example, method 700 optionally includes one or more of the various method features described above with respect to method 1100 . The method 700 of editing an avatar may be incorporated into a method of navigating an avatar user interface. For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which may be implemented according to method 900 described above with respect to FIG. As an additional example, methods 1000 , 1200 , and 1400 optionally include one or more of the various method features described above with respect to method 1100 . For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which process may be implemented according to the methods described below with respect to FIGS. 10-12. As another example, in some embodiments the navigational user interface invokes a process to modify the virtual avatar, which may be implemented according to the method described below with respect to Figures 14A and 14B. For the sake of brevity, these details have not been repeated.

図12A及び12Bは、いくつかの実施形態に従ってアバター編集ユーザインターフェースを表示する方法を示すフロー図である。方法1200は、表示装置を備えたデバイス(例えば、100、300、500、600)にて実行される。方法1200のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 12A and 12B are flow diagrams illustrating methods of displaying an avatar editing user interface according to some embodiments. Method 1200 is performed on a device (eg, 100, 300, 500, 600) with a display. Some acts of method 1200 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

下で説明されているように、方法1200は、アバター編集ユーザインターフェースを表示する直感的な方法を提供する。この方法は、アバターを管理する際のユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ユーザがアバター編集ユーザインターフェースを使用してより素早く効率的にアバターの特性を変更できるようにするので、電力を節約し、バッテリの充電間の時間を延ばす。 As described below, method 1200 provides an intuitive way of displaying an avatar editing user interface. This method reduces the user's cognitive burden in managing avatars, thereby creating a more efficient human-machine interface. Battery-operated computing devices allow users to change avatar characteristics more quickly and efficiently using the avatar editing user interface, thus conserving power and increasing the time between battery charges.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、選択されたアバターの髪形(例えば、836b)(例えば、アバターに対して(例えば、ユーザによって)選択されたアバターの毛髪の特定のスタイル)を有するアバターの毛髪(例えば、851)を含む複数のアバター特徴部を有するアバター(例えば、805)を表示する(1204)ことを含む、アバター編集ユーザインターフェース(例えば、801)を表示する(1202)。アバター編集ユーザインターフェースは、複数のアバターのアクセサリオプション(例えば、8112)(例えば、様々なアバターのアクセサリ(例えば、眼鏡、帽子、イヤリング、スカーフなど)に対応するアフォーダンス)も含む(1206)。アバターの毛髪及びアバターのアクセサリオプションの外観は、髪形及びアバターのアクセサリをカスタマイズできることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device (eg, 600) displays the selected avatar's hairstyle (eg, 836b) (eg, the avatar's hair selected (eg, by the user) for the avatar) via the display device (eg, 601). an avatar editing user interface (e.g., 801), including displaying 1204 an avatar (e.g., 805) having multiple avatar features including avatar hair (e.g., 851) having a particular style of Display (1202). The avatar editing user interface also includes a plurality of avatar accessory options (eg, 8112) (eg, affordances corresponding to various avatar accessories (eg, glasses, hats, earrings, scarves, etc.)) (1206). The appearance of the avatar hair and avatar accessory options provides feedback to the user indicating that the hairstyle and avatar accessories can be customized. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

電子デバイス(例えば、600)は、個別のアクセサリオプション(例えば、8112b)の選択を検出する(1208)。電子デバイスは、複数のアバターのアクセサリオプション(例えば、8112)のうちの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプション(例えば、8140)の表現を含むようにアバター(例えば、805)の外観を変更し(1210)、この変更することは、個別のアクセサリオプションが第1のアクセサリオプション(例えば、8112b)(例えば、眼鏡アクセサリオプション)であるという判定に従って、アバター上に配置された第1のアクセサリオプション(例えば、8140)の表現を表示する(1212)こと含む(例えば、選択された眼鏡を、アバターの頭部の側面に沿ってテンプルを配置し、イヤピースをアバターの耳の後ろに配置して、アバターの顔に表示する)。電子デバイスは、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分(例えば、8145)の形状を変更する(1214)(例えば、眼鏡に隣接して配置されたアバターの毛髪の部分が、テンプル及びアバターの耳の後ろのイヤピースの配置を含む、アバターの顔の上の眼鏡の存在を収容するために横に押されて表示され、一方、アバターの毛髪の残りの部分は変化せずに、選択されたアバターの髪形を表す)。アバターのアクセサリオプションの外観は、アバターのアクセサリをカスタマイズできることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device (eg, 600) detects (1208) selection of an individual accessory option (eg, 8112b). The electronic device, in response to detecting selection of an individual accessory option of a plurality of avatar accessory options (e.g., 8112), directs the avatar (e.g., , 805), which is placed on the avatar according to a determination that the individual accessory option is the first accessory option (eg, 8112b) (eg, the glasses accessory option). displaying 1212 a representation of the selected first accessory option (e.g., 8140) (e.g., placing the selected eyeglasses, the temples along the sides of the avatar's head, and the earpieces on the avatar's ears); to display on the avatar's face). The electronic device reshapes a first portion (e.g., 8145) of the avatar's hair based on the position of the representation of the first accessory option on the avatar while maintaining the selected avatar hairstyle ( 1214) (e.g., the portion of the avatar's hair placed adjacent to the eyeglasses is laterally aligned to accommodate the presence of the eyeglasses on the avatar's face, including the placement of the temples and earpieces behind the avatar's ears). pressed and displayed, while the rest of the avatar's hair remains unchanged, representing the selected avatar's hairstyle). The appearance of the avatar's accessory options provides feedback to the user indicating that the avatar's accessories can be customized. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、個別のアクセサリオプション(例えば、8108d)の表現の外観は、アバターの毛髪(例えば、851)の1つ以上の特性(例えば、髪質、髪形、髪の長さなど)に基づく。いくつかの実施形態では、アクセサリオプション(例えば、帽子(例えば、8170))のサイズは、アバターの毛髪に基づいて決定される。例えば、アバターの毛髪が小さい髪形(例えば、851-1)(例えば、836c)(流行の髪形又ははげ頭の髪形)を有している場合、帽子は小さい帽子ラインの外周(例えば、図8CDの帽子ライン8118)を有する。反対に、アバターの毛髪が大きい髪形(例えば、851-2)(例えば、大きい縮毛)を有している場合、帽子は大きい帽子ラインの外周(例えば、図CCの帽子ライン8118)を有する。いくつかの実施形態では、アクセサリオプション(例えば、髪の蝶結び)の位置は、アバターの毛髪に基づいて決定される。例えば、アバターの毛髪が短い髪形を有している場合、アバターの蝶結びは、アバターの頭部に近接して配置される。反対に、アバターの毛髪が長い髪形を有している場合、蝶結びは、毛髪の長さに応じて頭部から更に離れて配置され得る。アバターの毛髪の外観は、アバターの髪形をカスタマイズできることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the appearance of the representation of the individual accessory option (eg, 8108d) is based on one or more characteristics of the avatar's hair (eg, 851) (eg, hair texture, hairstyle, hair length, etc.). based on. In some embodiments, the size of accessory options (eg, hat (eg, 8170)) is determined based on the avatar's hair. For example, if the avatar's hair has a small hairstyle (eg, 851-1) (eg, 836c) (a trendy hairstyle or a bald hairstyle), the hat is the circumference of the small hat line (eg, the hat in FIG. 8CD). line 8118). Conversely, if the avatar's hair has a large hairstyle (eg, 851-2) (eg, large curly hair), the hat has a large hat line perimeter (eg, hat line 8118 in Figure CC). In some embodiments, the location of accessory options (eg, hair bows) is determined based on the avatar's hair. For example, if the avatar's hair has a short hairstyle, the avatar's bow is placed close to the avatar's head. Conversely, if the avatar's hair has a long hairstyle, the bow may be placed further away from the head depending on the length of the hair. The appearance of the avatar's hair provides feedback to the user indicating that the avatar's hairstyle can be customized. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、個別のアクセサリオプションが第2のアクセサリオプション(例えば、第1のアクセサリオプションと異なるアクセサリオプション)(例えば、帽子(8170))であるという判定に従い、アバター上に配置された第2のアクセサリオプション(例えば、8170)の表現を表示する(例えば、選択された帽子の種類に基づいて、帽子の帽子ライン(例えば、8118)をアバターの頭部に配置して、選択された帽子をアバターの頭部に表示する)。電子デバイスは、アバター上の第2のアクセサリオプションの表現の位置に基づいて、選択されたアバターの髪形を維持しながら、アバターの毛髪の第1の部分(例えば、8145)の変更された形状とは異なるアバターの毛髪の第2の部分(例えば、8118、8118-1、又は8118-2での毛髪)の形状を変更する(例えば、アバターの毛髪が帽子ラインで圧縮され、帽子ラインでの毛髪の圧縮に応じて、(選択された帽子及び髪形に応じて)帽子ラインの下及び/又は上に配置された毛髪が外に広がるように、アバターの毛髪が帽子の帽子ラインで変更される)。アクセサリオプションを伴って表示されたアバターの外観は、選択されたアクセサリによるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) indicates that the individual accessory option is a second accessory option (eg, an accessory option different from the first accessory option) (eg, hat (8170)). Following the determination, display a representation of a second accessory option (eg, 8170) placed on the avatar (eg, based on the type of hat selected, display a hat line (eg, 8118) on the avatar's head). to display the selected hat on the avatar's head). Based on the position of the representation of the second accessory option on the avatar, the electronic device changes the shape of the first portion (e.g., 8145) of the avatar's hair while maintaining the selected avatar's hairstyle. modifies the shape of a second portion of a different avatar's hair (e.g., the hair at 8118, 8118-1, or 8118-2) (e.g., the avatar's hair is compressed at the hat line, the hair at the hat line is depending on the compression of the hat, the avatar's hair is modified at the hat line of the hat such that hair positioned below and/or above the hat line (depending on the hat and hairstyle selected) spreads out) . Avatar appearances displayed with accessory options provide feedback to the user indicating customization of the avatar with the selected accessories. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、アバター上の第1のアクセサリオプションの位置の表現(例えば、8140)を表示した後に、第2の個別のアクセサリオプション(例えば、8108d)(例えば、アバターの帽子)の選択(例えば、8159)を検出する(1216)。電子デバイスは、複数のアバターのアクセサリオプションのうちの第2の個別のアクセサリオプションの選択を検出することに応じて、アバター(例えば、805)の外観を、第2の個別のアクセサリオプションの表現(例えば、8160)及び個別のアクセサリオプションの表現を含むように変更する(1218)(例えば、アバターは、選択されたアバターの髪形を維持しながら、アバターの帽子及びアバターの眼鏡の両方を含むように更新される)。選択されたアクセサリを伴うアバターの外観は、アバターのアクセサリをカスタマイズできることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) displays a representation of the position of the first accessory option on the avatar (eg, 8140) before displaying the second individual accessory option (eg, 8108d). (eg, avatar hat) selection (eg, 8159) is detected (1216). In response to detecting selection of a second individual accessory option of the plurality of avatar accessory options, the electronic device changes the appearance of the avatar (e.g., 805) to a representation of the second individual accessory option ( 8160) and change 1218 to include representations of individual accessory options (e.g., avatars to include both avatar hats and avatar glasses while maintaining the selected avatar hairstyle). updated). The appearance of the avatar with the selected accessory provides feedback to the user indicating that the avatar's accessory can be customized. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、(例えば、選択されたアバターの髪形に対応する髪形オプションを含む)複数のアバターの髪形オプション(例えば、836)を表示する。電子デバイスは、第2の髪形オプション(例えば、図8AUの836c)(例えば、現在選択されている髪形オプションと異なる髪形オプション)の選択(例えば、872)を検出する。電子デバイスは、第2の髪形オプションの選択を検出することに応じて、アバター(例えば、805)の外観を、選択されたアバターの髪形(例えば、836f)を有することから、第2の髪形オプションを有することに変更する。いくつかの実施形態では、これは、次のステップのうちの1つ以上を含む。個別のアクセサリオプションがアクセサリオプションの第1の種類(例えば、アバターの毛髪の少なくとも一部に隣接してアバター上に表示されるアバターの眼鏡(例えば、8140))であるという判定に従って、個別のアクセサリオプションの表現に基づいて、第1の方法(例えば、8145)で変更された第2の髪形オプションを有するアバターの毛髪を表示する(例えば、第2のアバターの髪形を維持しながら、アバターの毛髪の第1の部分の形状が、アバターの眼鏡の位置に基づいて変更される)。髪形オプションを伴って表示されたアバターの外観は、選択された髪形によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, an electronic device (eg, 600) displays a plurality of avatar hairstyle options (eg, including hairstyle options corresponding to a selected avatar hairstyle) via a display device (eg, 601). (eg, 836). The electronic device detects selection (eg, 872) of a second hairstyle option (eg, 836c in FIG. 8AU) (eg, a hairstyle option that is different from the currently selected hairstyle option). In response to detecting selection of the second hairstyle option, the electronic device changes the appearance of the avatar (eg, 805) from having the selected avatar's hairstyle (eg, 836f) to the second hairstyle option. to have In some embodiments this includes one or more of the following steps. The individual accessory according to the determination that the individual accessory option is a first type of accessory option (eg, the avatar's glasses (eg, 8140) displayed on the avatar adjacent to at least a portion of the avatar's hair). Based on the representation of the options, display the avatar's hair having the second hairstyle option modified in the first method (e.g., 8145) (e.g., the avatar's hair while maintaining the second avatar's hairstyle). is changed based on the position of the avatar's glasses). Avatar appearances displayed with hairstyle options provide feedback to the user indicating customization of the avatar with the selected hairstyle. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

電子デバイス(例えば、600)は、個別のアクセサリオプション(例えば、8108d)がアクセサリオプションの第2の種類(例えば、8108)(例えば、アバターの毛髪の少なくとも一部に隣接してアバター上に表示される帽子)であるという判定に従って、個別のアクセサリオプションの表現に基づいて、第2の方法で(例えば、8118-1又は8118-2で膨らんで)変更された第2の髪形オプション(例えば、836c)を有するアバターの毛髪(例えば、851)を表示する(例えば、第2のアバターの髪形をなお維持しながら、アバターの毛髪の第2の部分の形状が、帽子の位置に基づいて変更される)。アクセサリオプションを伴って表示されたアバターの外観は、選択されたアクセサリによるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device (e.g., 600) displays a separate accessory option (e.g., 8108d) on the avatar adjacent to a second type of accessory option (e.g., 8108) (e.g., at least a portion of the avatar's hair). A second hairstyle option (eg, 836c ) (e.g., the shape of a second portion of the avatar's hair is changed based on the position of the hat, while still maintaining the second avatar's hairstyle ). Avatar appearances displayed with accessory options provide feedback to the user indicating customization of the avatar with the selected accessories. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、個別のアクセサリオプションが第3の種類(例えば、表示されたアバターの髪形に影響を与えないアクセサリオプション)(例えば、鼻のリング)であるという判定に従い、第2の髪形オプション(例えば、836c)を有するアバターの毛髪(例えば、851)を、変更せずに(例えば、個別のアクセサリオプションに基づいて変更せずに)表示する。髪形オプション及びアクセサリオプションを伴って表示されたアバターの外観は、選択された髪形によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (e.g., 600) is configured so that the individual accessory options are of a third type (e.g., accessory options that do not affect the displayed avatar's hairstyle) (e.g., nose rings). Following the determination, the avatar's hair (eg, 851) with the second hairstyle option (eg, 836c) is displayed unchanged (eg, unchanged based on individual accessory options). The avatar appearance displayed with hairstyle and accessory options provides feedback to the user indicating customization of the avatar with the selected hairstyle. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば600)は、第3の髪形オプション(例えば、図8CBの851-2)(例えば、現在選択されている髪形オプションと異なる髪形オプション)の選択を検出することに応じて、アバターの外観を、選択されたアバターの髪形(例えば、851-1)を有することから、第3の髪形オプションを有することに変更し、第3の髪形オプションに基づいて、個別のアクセサリオプション(例えば、8160)の表現の外観(例えば、位置、サイズ、形状など)を変更する。髪形オプションを伴って表示されたアバターの外観は、選択された髪形によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) detects selection of a third hairstyle option (eg, 851-2 in FIG. 8CB) (eg, a hairstyle option different from the currently selected hairstyle option). Optionally, change the appearance of the avatar from having the selected avatar hairstyle (e.g., 851-1) to having a third hairstyle option, and based on the third hairstyle option, change the appearance (eg, position, size, shape, etc.) of the representation of accessory options (eg, 8160). Avatar appearances displayed with hairstyle options provide feedback to the user indicating customization of the avatar with the selected hairstyle. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、個別のアクセサリオプションはアバターの帽子(例えば、8160)であり、個別のアクセサリオプションの表現の外観を変更することは、第3の髪形オプション(例えば、851-2)のサイズ(例えば、疑似的な毛髪のボリューム)に基づいてアバターの帽子の表現のサイズを変更することを含む(例えば、大きい髪形を選択すると、その大きい髪形を収容するために、帽子のサイズが増える)(例えば、小さい髪形を選択すると、その小さい髪形を収容するために、帽子のサイズが減る)。いくつかの実施形態では、個別のアクセサリオプションの表現の外観を変更することは、第3の髪形オプションのサイズに基づいて、アバターの帽子の表現の帽子ライン(例えば、頭部に適合して帽子を頭部に貼りけている帽子の一部)のサイズを変更する(例えば、髪形オプションのサイズに基づいて、帽子ラインの外周が変化する(増加又は減少する))ことを更に含む。いくつかの実施形態では、帽子ラインは、引き続き同じ位置で頭部を横切るように、頭部に対して同じ位置に留まるが、異なる外周を有する。帽子オプションを伴って表示されたアバターの外観は、選択された帽子によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the individual accessory option is the avatar's hat (eg, 8160), and changing the appearance of the representation of the individual accessory option is the third hairstyle option (eg, 851-2). Including resizing the avatar's hat representation based on size (e.g., simulated hair volume) (e.g., selecting a larger hairstyle increases the size of the hat to accommodate the larger hairstyle). ) (e.g. selecting a smaller hairstyle reduces the hat size to accommodate the smaller hairstyle). In some embodiments, changing the appearance of the representation of the individual accessory option is based on the size of the third hairstyle option, the hat line of the representation of the avatar's hat (e.g., fitting the head to fit the hat (eg, the perimeter of the hat line changes (increases or decreases) based on the size of the hairstyle option). In some embodiments, the hat line remains in the same position relative to the head so that it continues to cross the head at the same position, but has a different perimeter. Avatar appearances displayed with hat options provide feedback to the user indicating customization of the avatar with the selected hat. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1のアクセサリオプションはアバターの帽子(例えば、8160)であり、アバター(例えば、805)上に配置された第1のアクセサリオプションの表現を表示することは、アバターの毛髪(例えば、851)の一部の上に配置されたアバターの帽子を表示する(例えば、アバターの帽子が、アバターの頭部の上部に、毛髪と隣接して重ね合わせられて表示される)ことを含む。いくつかの実施形態では、アバターの毛髪の一部の形状を変更することは、アバターの帽子の帽子ライン(例えば、頭部に適合して帽子を頭部に貼りけている帽子の一部)に隣接する位置(例えば、8118-1又は8118-2)で圧縮された外観を有し、アバターの毛髪がアバターの帽子の帽子ラインに隣接する位置から広がるように拡大しているアバターの毛髪を表示することを含む(例えば、アバターの毛髪が帽子ラインで圧縮され、帽子ラインでの毛髪の圧縮に応じて、(選択された帽子及び髪形に応じて)帽子ラインの下及び/又は上に配置された毛髪が外に広がるように、アバターの毛髪が帽子の帽子ラインで変更される)。帽子オプションを伴って表示されたアバターの外観は、選択された帽子によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the first accessory option is the avatar's hat (eg, 8160), and displaying a representation of the first accessory option placed on the avatar (eg, 805) is the avatar's hat (eg, 8160). Display the avatar's hat positioned over a portion of the hair (e.g., 851) (e.g., the avatar's hat appears overlaid on top of the avatar's head, adjacent to the hair) Including. In some embodiments, changing the shape of a portion of the avatar's hair may be the hat line of the avatar's hat (e.g., the portion of the hat that fits and attaches the hat to the head). (e.g., 8118-1 or 8118-2) and expands such that the avatar's hair spreads out from a position adjacent to the hat line of the avatar's hat. displaying (e.g., the avatar's hair is compressed at the hat line, and depending on the compression of the hair at the hat line, placed below and/or above the hat line (depending on the hat and hairstyle selected) The avatar's hair is changed at the hat line of the hat, so that the clipped hair spreads out). Avatar appearances displayed with hat options provide feedback to the user indicating customization of the avatar with the selected hat. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、複数のアバターのアクセサリオプション(例えば、8108)のうちの第2のアバターの帽子オプション(例えば、8108e)の選択(例えば、8168)を検出することに応じて、アバターの帽子(例えば、8160)の表現を、第2のアバターの帽子(例えば、8170)の表現に置き換え、一方で、帽子ライン(例えば、8118)を維持し、かつ帽子ラインに隣接する位置で圧縮された外観を有し、アバターの毛髪が帽子ラインに隣接する位置から広がるように拡大している、アバターの毛髪の一部の形状を維持する(例えば、異なるアバターの帽子が同じ帽子ラインを有する)(例えば、異なるアバターを選択することによって、帽子ライン及び帽子ラインに対するアバターの毛髪の形状を維持しながら、現在選択されているアバターの帽子を異なるアバターの帽子に置き換える)。帽子オプションを伴って表示されたアバターの外観は、選択された帽子によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) selects (eg, 8168) a second avatar's hat option (eg, 8108e) among a plurality of avatar accessory options (eg, 8108). In response to detecting, replace a representation of the avatar's hat (eg, 8160) with a representation of the second avatar's hat (eg, 8170) while maintaining the hat line (eg, 8118); and Maintaining the shape of a portion of the avatar's hair that has a compressed appearance adjacent to the hat line and expands as the avatar's hair spreads out from the location adjacent to the hat line (e.g., a different avatar hats have the same hat line) (e.g. by selecting a different avatar, the currently selected avatar's hat can be changed to a different avatar's hat while maintaining the hat line and the avatar's hair shape for the hat line). replace). Avatar appearances displayed with hat options provide feedback to the user indicating customization of the avatar with the selected hat. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、(例えば、図8BYに示されている)物理モデル(例えば、慣性のモデル、重力のモデル、力伝達モデル、摩擦モデル)に基づいて、アバターの動きに対するアバターの毛髪の疑似的な物理的反応に従い、アバターの毛髪(例えば、851)が動く。物理モデルに基づくアバターの動きに対するアバターの毛髪の疑似的な物理的反応は、第1のアクセサリオプションがアバターの帽子である場合、変化する(例えば、アバターの毛髪の動きは、アバターが帽子を着用している場合、変化する)。いくつかの実施形態では、アバターが帽子を着用していない場合、アバターの毛髪は、物理モデルに基づいて、アバターの頭部の動きと共に動く。いくつかの実施形態では、アバターが帽子を着用している場合、アバターの頭部上の帽子の位置に基づいて、アバターの頭部に対するアバターの毛髪の動きが変化する。いくつかの実施形態では、物理モデルは、入力(例えば、8XX)(例えば、アバターを回転するか、又はアバターの倍率を調整するためのアバター上のジェスチャ、あるいは顔又は顔の一部の動き)の大きさ及び方向、並びに疑似的質量、疑似的弾性、疑似的摩擦係数、又はその他の疑似的な物理的特性などの、仮想アバター特徴部の1つ以上の予め定義された特性に基づいて、アバター特徴部の動きの大きさ及び方向を規定する。いくつかの実施形態では、毛髪の取り付けポイントが、毛髪が頭部に取り付けられている位置から帽子ラインにずれるため、アバターの毛髪の疑似的な物理的反応が変化する。 According to some embodiments, based on a physical model (e.g., inertia model, gravity model, force transfer model, friction model) (e.g., shown in FIG. 8BY), the avatar's hair The avatar's hair (eg, 851) moves according to simulated physical reactions. The pseudo-physical reaction of the avatar's hair to the avatar's movements based on the physics model will change if the first accessory option is the avatar's hat (e.g., the avatar's hair movement will change if the avatar wears a hat change if they are). In some embodiments, when the avatar is not wearing a hat, the avatar's hair moves with the movement of the avatar's head based on the physical model. In some embodiments, if the avatar is wearing a hat, the movement of the avatar's hair relative to the avatar's head changes based on the position of the hat on the avatar's head. In some embodiments, the physics model accepts input (e.g., 8XX) (e.g., gestures on the avatar to rotate the avatar or adjust avatar scale, or movements of the face or parts of the face). Based on one or more predefined properties of the virtual avatar features, such as size and orientation, and simulated mass, simulated elasticity, simulated coefficient of friction, or other simulated physical properties, Defines the magnitude and direction of movement of avatar features. In some embodiments, the simulated physical response of the avatar's hair changes as the point of attachment of the hair shifts from where the hair is attached to the head to the hat line.

いくつかの実施形態に従って、第1のアクセサリオプションはアバターの眼鏡(例えば、8140)であり、アバターの毛髪(例えば、851)の一部の形状を変更することは、アバターの眼鏡の少なくとも一部を遮るのを防ぐように配置されたアバターの毛髪の一部(例えば、8145)を表示することを含む(例えば、アバターの頭部の側面の、アバターの耳の上の毛髪が、後方又は横に移動されるか、あるいは眼鏡のテンプルの背後に配置される)。いくつかの実施形態では、第1のアクセサリオプションはアバターの眼鏡であり、アバター上に配置された第1のアクセサリオプションの表現を表示することは、アバターの眼鏡のレンズ部分(例えば、8140-2)での反射(例えば、8150)の表現を表示すること(例えば、反射の表現は、眼鏡の表現に重ね合わせられる)(例えば、眼鏡上の反射の位置は、表示された眼鏡及び疑似的な光源の相対位置に基づいて決定され、この光源は、任意選択的に、カメラの視野内で検出された光源に基づいて決定される)と、アバターの少なくとも一部に表示されたアバターの眼鏡の表現によって落とされた影の表現を表示すること(例えば、眼鏡によって落とされた影の表現が、100%未満の不透明度で、アバターの表現に重ね合わせられる)(例えば、表示されたアバター及び疑似的な光源の相対位置に基づいて決定されるアバターの一部であり、この光源は、任意選択的に、カメラの視野内で検出された光源に基づいて決定される)とを含む。眼鏡オプションを伴って表示されたアバターの外観は、選択された帽子によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the first accessory option is the avatar's eyeglasses (eg, 8140), and changing the shape of a portion of the avatar's hair (eg, 851) is at least part of the avatar's eyeglasses. (e.g., the hair on the sides of the avatar's head, above the avatar's ears, is positioned to prevent it from blocking the back or side of the avatar's hair). or placed behind the temples of the spectacles). In some embodiments, the first accessory option is the avatar's glasses, and displaying a representation of the first accessory option placed on the avatar is the lens portion of the avatar's glasses (eg, 8140-2 ) (e.g., the representation of the reflection is superimposed on the representation of the glasses) (e.g., the position of the reflection on the glasses is displayed on the displayed glasses and the pseudo the relative position of a light source, which is optionally determined based on a detected light source within the field of view of the camera); Displaying a representation of the shadows cast by the representation (e.g., a representation of the shadows cast by the glasses is superimposed on the representation of the avatar with less than 100% opacity) (e.g., the displayed avatar and the pseudo the part of the avatar that is determined based on the relative position of a light source, which is optionally determined based on the light source detected within the field of view of the camera. The avatar appearance displayed with the glasses option provides feedback to the user indicating customization of the avatar with the selected hat. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、アバター上に配置された第1のアクセサリオプションの表現を表示することは、第1のアクセサリオプション(例えば、アバターの帽子(例えば、8170)又はアバターの眼鏡(例えば、8140))又はアバターの毛髪(例えば、851)によって落とされた(例えば、アバター上に落とされた)1つ以上の影(例えば、8142、8147、8172)の表現を表示することを含む(例えば、毛髪、眼鏡、及び/又は帽子によって落とされた影の表現が、100%未満の不透明度で、アバターの表現に重ね合わせられる)(例えば、表示されたアバター及び疑似的な光源の相対位置に基づいて決定されるアバターの一部であり、この光源は、任意選択的に、カメラの視野内で検出された光源に基づいて決定される)。影を伴って表示されたアバターの外観は、アバターのより現実的な表現を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, displaying a representation of the first accessory option placed on the avatar may be the first accessory option (e.g., the avatar's hat (e.g., 8170) or the avatar's glasses (e.g., 8140). )) or displaying a representation of one or more shadows (eg, 8142, 8147, 8172) cast by (eg, cast on the avatar) by the avatar's hair (eg, 851) (eg, A representation of shadows cast by hair, glasses, and/or hats is superimposed on the representation of the avatar with an opacity of less than 100% (e.g., based on the relative positions of the displayed avatar and the simulated light source). The light source is optionally determined based on light sources detected within the field of view of the camera). The appearance of the avatar displayed with shadows provides feedback to the user indicating a more realistic representation of the avatar. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1のアクセサリオプションは、アバターのイヤリング(例えば、8125)である。アバターのイヤリングは、物理モデル(例えば、慣性のモデル、重力のモデル、力伝達モデル、摩擦モデル)に従って動く(いくつかの実施形態では、アバターは、電子デバイスの1つ以上のカメラの視野内の顔において検出された変化に基づいて動く)。イヤリングを伴って表示されたアバターの外観は、選択されたイヤリングによるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the first accessory option is the avatar's earrings (eg, 8125). The avatar's earring moves according to a physical model (e.g., an inertia model, a gravity model, a force transfer model, a friction model) (in some embodiments, the avatar is within the field of view of one or more cameras of the electronic device). based on changes detected in the face). The appearance of the avatar displayed with the earrings provides feedback to the user indicating customization of the avatar with the selected earrings. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

なお、方法1200に関して上述された処理(例えば、図12)の詳細はまた、以下及び上で説明されている方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1200に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。アバターを編集する方法700は、アバターユーザインターフェースをナビゲートする方法に組み込まれ得る。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図9に関して前述した方法900に従って実現されてよい。追加の例として、方法1000、1100、及び1400は、方法1200に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10~図11に関して後述される方法に従って実現されてよい。別の例として、いくつかの実施形態では、ナビゲーションユーザインターフェースが、仮想アバターを変更する処理を呼び出し、この処理は、図14A及び図14Bに関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は繰り返されていない。 It should be noted that the processing details described above with respect to method 1200 (eg, FIG. 12) are also applicable in a similar manner to the methods described below and above. For example, method 700 optionally includes one or more of the various method features described above with respect to method 1200 . The method 700 of editing an avatar may be incorporated into a method of navigating an avatar user interface. For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which may be implemented according to method 900 described above with respect to FIG. As an additional example, methods 1000 , 1100 , and 1400 optionally include one or more of the various method features described above with respect to method 1200 . For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which process may be implemented according to the methods described below with respect to FIGS. 10-11. As another example, in some embodiments the navigational user interface invokes a process to modify the virtual avatar, which may be implemented according to the method described below with respect to Figures 14A and 14B. For the sake of brevity, these details have not been repeated.

図13A~図13Oは、アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示している。これらの図のユーザインターフェースは、図14の処理を含む、以下で説明される処理を示すために使用される。 13A-13O illustrate exemplary user interfaces for changing avatars within the avatar navigation user interface. The user interfaces of these figures are used to illustrate the processes described below, including the process of FIG.

図13Aで、デバイス600は、図6Aのメッセージングユーザインターフェース603に類似するメッセージングユーザインターフェース1303を表示する。デバイス600は、アプリケーションドックアフォーダンス1310上の入力1302を検出し、図13Bで、縮小されたアバター選択インターフェース1315(図6Lの縮小されたアバター選択インターフェース668に類似する)を表示する。縮小されたアバター選択インターフェースは、カスタマイズ可能な女性アバター1321、サルアバター1322、及びロボットアバター1323を含んでいる、アバターのスクロール可能なリスト1320(図6Lのアバターのスクロール可能なリスト675に類似する)を含む。 In FIG. 13A, device 600 displays messaging user interface 1303 similar to messaging user interface 603 of FIG. 6A. Device 600 detects input 1302 on application dock affordance 1310 and in FIG. 13B displays reduced avatar selection interface 1315 (similar to reduced avatar selection interface 668 in FIG. 6L). The reduced avatar selection interface is a scrollable list of avatars 1320 (similar to the scrollable list of avatars 675 of FIG. 6L) that includes a customizable female avatar 1321, a monkey avatar 1322, and a robot avatar 1323. including.

図13B~図13Oに示されているように、デバイス600は、顔において検出された変化に応じて、縮小されたアバター選択インターフェース1315に表示されたアバター(例えば、サルアバター1322)を変更する。参考のために、図13B~図13Oは、カメラ(例えば、602)の視野内で検出された顔1325(例えば、ユーザの顔)の表現を含んでいる。図13B~図13Oは、顔1325において検出された変化に応じて表示される、様々なアバターに対する変更を示している。いくつかの実施形態では、図13B~図13Oでの顔1325の表示は、顔1325を向いて配置されたデバイスの視点から表示されている。したがって、表示されたアバターに対する対応する変化が、顔1325の動きに関して反映されて、図13B~図13Oに示されている。 As shown in FIGS. 13B-13O, device 600 changes the avatar (eg, monkey avatar 1322) displayed in reduced avatar selection interface 1315 in response to detected changes in the face. For reference, FIGS. 13B-13O include representations of faces 1325 (eg, the user's face) detected within the field of view of the camera (eg, 602). 13B-13O illustrate changes to various avatars displayed in response to detected changes in face 1325. FIG. In some embodiments, the representations of face 1325 in FIGS. 13B-13O are shown from the perspective of a device positioned facing face 1325 . Accordingly, corresponding changes to the displayed avatar, reflected in the movement of face 1325, are shown in FIGS. 13B-13O.

図13Bで、デバイス600は、顎1325-2及び口1325-1を閉じて前方を向いている顔1325を検出する。それに応じて、デバイス600は、口1325-1の顔面表情に一致する、顎1322-2及び口1321-1を閉じた同じ顔面表情を有するように、表示されたアバター(サルアバター1322)を変更する。 In FIG. 13B, device 600 detects face 1325 facing forward with jaw 1325-2 and mouth 1325-1 closed. In response, device 600 modifies the displayed avatar (monkey avatar 1322) to have the same facial expression with jaw 1322-2 and closed mouth 1321-1 matching the facial expression of mouth 1325-1. do.

図13Cで、デバイス600は、開いた位置に向かって動いている顎1325-2及び口1325-1を検出し、サルアバター1322の顎1322-2及び口1322-1を、顎1325-2及び口1325-1の動きに一致するように、わずかに開いた位置に変更する。舌1325-3は伸ばされていない。したがって、デバイス600は、口1323-1から伸ばされたサルアバターの舌1323-3を表示しないが、代わりに口1323-1内に配置された舌1323-3を表示する。 In FIG. 13C, device 600 detects jaws 1325-2 and mouth 1325-1 moving toward the open position and moves jaws 1322-2 and mouth 1322-1 of monkey avatar 1322 to jaws 1325-2 and 1325-1. Change to slightly open position to match movement of mouth 1325-1. Tongue 1325-3 is not extended. Thus, device 600 does not display monkey avatar tongue 1323-3 extended from mouth 1323-1, but instead displays tongue 1323-3 positioned within mouth 1323-1.

いくつかの実施形態では、デバイス600は、ユーザの口から伸びているユーザの舌を検出することに応じて、アバターの口から突き出ているアバターの舌を表示する。例えば、図13Dで、顎1325-2はわずかに開かれ、舌1325-3は口1325-1から伸びている。その結果、デバイス600は、舌1322-3を口1322-1から伸ばすように、サルアバター1322を変更するが、一方、顎1322-2はわずかに開いた位置に留まっている。 In some embodiments, device 600 displays the avatar's tongue sticking out of the avatar's mouth in response to detecting the user's tongue extending out of the user's mouth. For example, in FIG. 13D, jaw 1325-2 is slightly open and tongue 1325-3 extends from mouth 1325-1. As a result, device 600 modifies monkey avatar 1322 to extend tongue 1322-3 from mouth 1322-1, while jaws 1322-2 remain in a slightly open position.

いくつかの実施形態では、デバイス600は、伸ばされていない舌(例えば、図13Cの舌1322-3を参照)から伸ばされた舌(例えば、図13Dの舌1322-3を参照)への移行を、アバターの口(例えば、口1322-1)の内部から伸ばされたポーズまで動く舌のアニメーションとして表示する。いくつかの実施形態では、このアニメーションは、舌が口の内部から伸ばされた位置まで動くときに、アバターの歯の上で曲がるアバターの舌を表示することを含む。例えば、図13Dで、アバターの舌1322-3は、アバターの口の下の歯の上でわずかに曲げられている。いくつかの実施形態では、デバイス600は、舌が伸びるアニメーションを反転することによって、(任意選択的に、アバターの舌の曲がる動きの反転を表示することを含めて)アバターの口の中に戻る舌を表示する。 In some embodiments, the device 600 transitions from an unextended tongue (see, eg, tongue 1322-3 in FIG. 13C) to an extended tongue (see, eg, tongue 1322-3 in FIG. 13D). is displayed as an animation of the tongue moving from inside the avatar's mouth (eg, mouth 1322-1) to an extended pose. In some embodiments, this animation includes displaying the avatar's tongue bending over the avatar's teeth as the tongue moves from inside the mouth to the extended position. For example, in FIG. 13D, the avatar's tongue 1322-3 is slightly bent over the lower teeth of the avatar's mouth. In some embodiments, the device 600 moves back into the avatar's mouth (optionally including displaying a reversal of the avatar's tongue bending motion) by reversing the tongue extension animation. Show tongue.

いくつかの実施形態では、デバイス600は、ユーザの舌以外のユーザの顔の特徴の検出された動き(例えば、ユーザの頭部の傾斜又は回転、あるいは顎1325-2の上向き/下向き及び/又は左右の動き)に基づいて、アバターの舌の動きを表示する。例えば、図13Eは、ユーザの顎1325-2の位置において検出された変化に応答したサルの舌1322-3の動きを示している。デバイス600が下に動くユーザの顎1325-2及び広く開いているユーザの口1325-1を検出したときに、デバイス600は、サルの口1322-1を広げ、サルの顎1322-2を下げる。サルの顎1322-2が下げられるときに、デバイス600は、顎1322-2と共に下に動き、口1322-1から更に垂れ下がるサルの舌1322-3を表示する。デバイス600は、ユーザの顎1325-2のその他の動きに基づいて、舌1322-3の位置を変更することもできる。例えば、ユーザが顎を左右に動かしたときに、ユーザの顎1325-2の左右の動きに従って、アバターの顎1322-2及び舌1322-3が動く。同様に、ユーザが顎を上に動かした(例えば、図13Dの位置に戻すか、又は図13Hに示されているように上に傾けた)場合、デバイス600は、それに応じて動くアバターの顎1322-2及び舌1322-3を表示する(例えば、図13Dに示されている位置に戻すか、又は図13Hに示されているように、上に傾ける)。 In some embodiments, device 600 detects detected movement of a user's facial features other than the user's tongue (eg, tilt or rotation of the user's head, or jaw 1325-2 up/down and/or display the avatar's tongue movement based on left-right movement). For example, FIG. 13E shows movement of the monkey's tongue 1322-3 in response to a detected change in the position of the user's jaw 1325-2. When device 600 detects user's jaw 1325-2 moving downward and wide-open user's mouth 1325-1, device 600 opens monkey's mouth 1322-1 and lowers monkey's jaw 1322-2. . As the monkey's jaw 1322-2 is lowered, the device 600 moves down with the jaw 1322-2 to reveal the monkey's tongue 1322-3 hanging further out of the mouth 1322-1. Device 600 can also change the position of tongue 1322-3 based on other movements of the user's jaw 1325-2. For example, when the user moves his jaw left and right, the avatar's jaw 1322-2 and tongue 1322-3 move according to the left and right movement of the user's jaw 1325-2. Similarly, if the user moves the jaw up (eg, returns it to the position in FIG. 13D or tilts it up as shown in FIG. 13H), the device 600 moves the avatar's jaw accordingly. Display 1322-2 and tongue 1322-3 (eg, return to position shown in FIG. 13D or tilt up as shown in FIG. 13H).

図13Fは、ユーザの舌以外のユーザの顔の特徴の動きに基づいて舌1322-3の動きを変更しているデバイス600の別の例を示している。図13Fで、ユーザは頭部を横に傾けている。デバイス600は、ユーザの頭部の傾斜を検出することに応じて、サルの頭部を傾けることによって、サルアバター1322を変更する。サルの頭部が傾くときに、サルの頭部の傾斜(例えば、大きさ及び方向の両方)及び舌1322-2のモデル化された重力に基づいて、舌1322-3の位置が変化し、それによって舌1322-3が垂れ下がるが、アバターの頭部及び顎1322-2の動きと共に、わずかに傾く。 FIG. 13F shows another example of device 600 modifying the movement of tongue 1322-3 based on movement of a user's facial feature other than the user's tongue. In FIG. 13F, the user is tilting his head to the side. Device 600 changes monkey avatar 1322 by tilting the monkey's head in response to detecting the tilt of the user's head. As the monkey's head tilts, the tongue 1322-3 changes position based on the monkey's head tilt (eg, both magnitude and direction) and the modeled gravity of the tongue 1322-2; This causes tongue 1322-3 to droop but tilt slightly with the movement of the avatar's head and jaw 1322-2.

いくつかの実施形態では、デバイス600は、アバターに適用された物理モデル(例えば、モデル化された重力、慣性など)に基づいて、アバターの舌の動きを変更する。アバターの舌がアバターの口から更に長く伸びるときに、物理モデルに対する舌の応答は、アバターの口から伸ばされた舌の量に基づいて悪化する。例えば、図13Eで、サルの舌1322-3は、図13Dに示されている舌よりも大きく湾曲している。これは、デバイス600が(図13Dに示されている舌と比較して)図13Eの口1322-1から更に長く伸びている舌1322-3を表示しているためであり、舌1322-3に適用されたモデル化された重力の影響によって、舌が口から更に低く垂れ下がっている(サルの歯の上で、舌が大きく湾曲している)。 In some embodiments, the device 600 modifies the avatar's tongue movements based on a physical model applied to the avatar (eg, modeled gravity, inertia, etc.). As the avatar's tongue extends longer from the avatar's mouth, the tongue's response to the physical model deteriorates based on the amount of tongue extended from the avatar's mouth. For example, in FIG. 13E, the monkey's tongue 1322-3 is more curved than the tongue shown in FIG. 13D. This is because device 600 displays tongue 1322-3 extending further out from mouth 1322-1 in FIG. 13E (compared to the tongue shown in FIG. 13D). The effect of the modeled gravity applied to the tongue causes the tongue to hang even lower from the mouth (over the monkey's teeth, the tongue is highly curved).

いくつかの実施形態では、デバイス600は、アバターの舌が伸ばされるときに、特定の顔面表情を表示するようにアバターを変更しない(又は、特定の顔面表情を形成するアバター特徴部(例えば、唇、口など)の動きを縮小する)。これは、表示されたアバターの舌を妨げる(例えば、影響を与えるか、又は衝突する)方法でアバターを変更することを防ぐためである。例えば、デバイス600は、唇のしわを形成するようにアバターの唇を変更すること、アバターの口を閉じること、下唇を伸ばすこと(例えば、口をとがらせるポーズ)、又は唇を延ばして口を閉じた位置に動かす(例えば、口をじょうご状にする)ことを止めることができる。 In some embodiments, the device 600 does not modify the avatar to display a particular facial expression (or avatar features that form a particular facial expression (e.g., lips) when the avatar's tongue is extended. , mouth, etc.). This is to prevent altering the avatar in a way that interferes with (eg affects or collides with) the displayed avatar's tongue. For example, the device 600 can modify the avatar's lips to form lip wrinkles, close the avatar's mouth, extend the lower lip (eg, a pout pose), or extend the lips to create a mouthful. can be stopped moving to a closed position (eg funneling the mouth).

図13Fで、デバイス600は、入力1327(例えば、ロボットアバター1323上の横方向のジェスチャ(例えば、スワイプ又はドラッグ)又はタップジェスチャ)を検出し、アバターのリスト1320をスクロールして、図13Gに示されているように、ロボットアバター1323を縮小されたアバター選択インターフェース1315の中央に表示する。 In FIG. 13F, the device 600 detects an input 1327 (eg, a lateral gesture (eg, swipe or drag) or a tap gesture on the robot avatar 1323) and scrolls the list of avatars 1320, as shown in FIG. 13G. As shown, robot avatar 1323 is displayed in the center of reduced avatar selection interface 1315 .

ロボットアバター1323が縮小されたアバター選択インターフェース1315の中央に配置されたときに、デバイス600は、検出された顔1325に基づいてロボットアバターの変更を開始する。図13Gに示されているように、ユーザの頭部は傾けられていないが、ユーザの顎1325-2及び口1325-1が開かれ、舌1325-3が伸ばされている。デバイス600は、ロボットの口1323-1を開き、ロボットの舌1323-3を伸ばすことによって、顔1325のポーズに一致するようにロボットアバター1323を変更する。いくつかの実施形態では、ロボットアバターは、ロボットの頭部の他の部分と区別できる顎を含んでいないが、ロボットの顎の動きは、ロボットの口1323-1の開口部を縦方向に広げることによって表され得る。 When the robot avatar 1323 is centered in the scaled-down avatar selection interface 1315 , the device 600 begins changing the robot avatar based on the detected face 1325 . As shown in FIG. 13G, the user's head is not tilted, but the user's jaw 1325-2 and mouth 1325-1 are open and tongue 1325-3 is extended. The device 600 modifies the robot avatar 1323 to match the pose of the face 1325 by opening the robot's mouth 1323-1 and extending the robot's tongue 1323-3. In some embodiments, the robot avatar does not include jaws that are distinguishable from the rest of the robot's head, but movement of the robot's jaws vertically widens the opening of the robot's mouth 1323-1. can be represented by

図13Gに示されているように、ロボットの舌1323-3は、ロボットの舌1323-3を、ロボットの口1323-1に接続されたベース部1323-3a(例えば、舌1323-3の近位端)と、垂れ下がってヒンジ接続1323-4から自由に揺れる先端部1323-3b(例えば、舌1323-3の遠位端)とに分割するヒンジ接続1323-4を含む。いくつかの実施形態では、先端部1323-3bは、ロボットの口1323-1及びロボットの頭部の動きと共に揺れる。 As shown in FIG. 13G, the robot's tongue 1323-3 attaches the robot's tongue 1323-3 to a base portion 1323-3a (eg, near tongue 1323-3) connected to the robot's mouth 1323-1. posterior end) and a tip 1323-3b (eg, distal end of tongue 1323-3) that hangs down and swings freely from hinge connection 1323-4. In some embodiments, the tip 1323-3b swings with the movement of the robot's mouth 1323-1 and the robot's head.

例えば、図13Hで、デバイス600は、舌1325-3が延ばされて、後ろに傾けられたユーザの頭部を検出する。デバイス600は、口1323-1が開かれ、舌1323-3が延ばされたロボットの頭部を後ろに傾けることによって、ロボットアバター1323を変更する。ロボットの頭部が後ろに傾くときに、ベース部1323-3aがロボットの口1323-1と共に動くため、先端部1323-3bがロボットの頭部の下部に向かって(例えば、ロボットの顎先領域に向かって)揺れる。図13Iでユーザが頭部を再び中立位置に傾けたときに、デバイス600は、ロボットアバター1323を再び中立位置に傾け、ロボットの頭部、口1323-1、及びベース部1323-3aの動きに応じて、アバターの舌1323-3の先端部1323-3bがヒンジ接続1323-4から前後に揺れる。 For example, in FIG. 13H, device 600 detects the user's head tilted back with tongue 1325-3 extended. Device 600 modifies robot avatar 1323 by tilting back the robot's head with mouth 1323-1 open and tongue 1323-3 extended. As the robot's head tilts back, the base portion 1323-3a moves with the robot's mouth 1323-1 so that the tip portion 1323-3b moves toward the bottom of the robot's head (e.g., the robot's chin area). toward). When the user tilts the head back to the neutral position in FIG. 13I, the device 600 tilts the robot avatar 1323 back to the neutral position, allowing the movement of the robot's head, mouth 1323-1, and base 1323-3a. In response, tip 1323-3b of avatar's tongue 1323-3 swings back and forth from hinge connection 1323-4.

図13Iで、デバイス600は、入力1329(例えば、宇宙人アバター1324上の横方向のジェスチャ(例えば、スワイプ又はドラッグ)又はタップジェスチャ)を検出し、アバターのリスト1320をスクロールして、図13Jに示されているように、ロボットアバター1324を縮小されたアバター選択インターフェース1315の中央に表示する。 In FIG. 13I, device 600 detects input 1329 (eg, a lateral gesture (eg, swipe or drag) or a tap gesture on alien avatar 1324) and scrolls list of avatars 1320 to FIG. Robot avatar 1324 is displayed in the center of reduced avatar selection interface 1315 as shown.

いくつかの実施形態では、デバイス600は、特定のアバターに基づいて決定される視覚効果を有するアバターの舌を表示する。例えば、ロボットアバターの舌はヒンジ接続を有し、一角獣アバターはキラキラ光る舌を有し、宇宙人アバターは虹色の効果を有する。いくつかの実施形態では、アバターの舌の表示された位置に基づいて、視覚効果が変化する。例えば、図13J~図13Lは、宇宙人の舌1324-3の変化する虹色の効果1324-4を示している。宇宙人の舌1324-3が動くときに、舌の虹色の効果1324-4が変化する(舌1324-3の上の虹色の効果1324-4の変化する位置によって表される)。図13Jは、舌1325-3が伸ばされて、ユーザの顔1325が前を向いているときに、虹色1324-4を有する宇宙人の舌1324-3を示している。宇宙人の顎1324-2及び口1324-1が開かれ、虹色の効果1324-4が舌根に配置されて、舌1324-3が伸ばされている。図13Kで、舌1325-3が伸ばされた顔1325が回転し、デバイス600が宇宙人アバター1324を回転させ、舌1324-3の虹色を変更する(舌1324-3上の虹色の効果1324-4の変更された位置によって表される)。図13Lで、ユーザは顎1325-2をわずかに閉じ、それによってユーザの舌1325-3が持ち上げられている。デバイス600は、顎1324-2をわずかに閉じ、舌1324-3を持ち上げ、舌1324-3の虹色を変更することによって、宇宙人アバター1324を変更する(舌1324-3の上の虹色の効果1324-4の変更された位置によって表される)。 In some embodiments, device 600 displays the avatar's tongue with visual effects determined based on the particular avatar. For example, a robot avatar's tongue has a hinged connection, a unicorn avatar has a glittery tongue, and an alien avatar has a rainbow effect. In some embodiments, the visual effect changes based on the displayed position of the avatar's tongue. For example, FIGS. 13J-13L show the changing rainbow effect 1324-4 of the alien tongue 1324-3. As the alien tongue 1324-3 moves, the tongue iridescent effect 1324-4 changes (represented by the changing position of the iridescent effect 1324-4 on the tongue 1324-3). FIG. 13J shows alien tongue 1324-3 with iridescence 1324-4 when tongue 1325-3 is extended and user's face 1325 is facing forward. The alien's jaw 1324-2 and mouth 1324-1 are open, iridescent effect 1324-4 is placed on the base of the tongue, and tongue 1324-3 is extended. In FIG. 13K, face 1325 with tongue 1325-3 is rotated and device 600 rotates alien avatar 1324 to change the rainbow color of tongue 1324-3 (rainbow color effect on tongue 1324-3). 1324-4). In FIG. 13L, the user has slightly closed jaws 1325-2, thereby lifting the user's tongue 1325-3. Device 600 modifies alien avatar 1324 by slightly closing jaw 1324-2, lifting tongue 1324-3, and modifying the rainbow color of tongue 1324-3 (rainbow color above tongue 1324-3). effect 1324-4).

いくつかの実施形態では、デバイス600は、アバターの口の位置(ユーザの口の検出された位置に基づいて決定される)に応じて、異なる形状を有するアバターの舌を表示する。例えば、ユーザの口1325-1が開かれたときに、デバイス600は、図13E内のサルの舌1322-3及び図13Jの宇宙人の舌1324-3によって示されているように、平らな形状を有するアバターの舌を表示する。ユーザの口1325-1が舌1325-3を囲んで閉じられたときに、デバイス600は、円錐形又は「イチゴ」の形状を有するアバターの舌を表示する。例えば、図13M及び図13Nで、デバイス600は、ユーザが舌を口1325-1の中に引っ込めるときに、舌1325-3を囲んで閉じられたユーザの口1325-1を検出する。それに応じて、デバイス600は、図13M及び図13Nで、舌1324-3を囲んで閉じられた宇宙人の口1324-1、及び宇宙人の口1324-1の中に引っ込むときに円錐形を有する舌1324-3を表示する。図13Oで、デバイス600は、ユーザの舌1325-3が伸ばされておらず、口1325-1及び顎1325-2が閉じられていることを検出する。デバイス600は、舌のない、口1324-1及び顎1324-2が閉じられた宇宙人アバター1324を表示する。 In some embodiments, the device 600 displays the avatar's tongue with different shapes depending on the position of the avatar's mouth (determined based on the detected position of the user's mouth). For example, when the user's mouth 1325-1 is opened, the device 600 flattens, as shown by monkey tongue 1322-3 in FIG. 13E and alien tongue 1324-3 in FIG. 13J. Display the avatar's tongue with a shape. When the user's mouth 1325-1 is closed around the tongue 1325-3, the device 600 displays the avatar's tongue having a cone or "strawberry" shape. For example, in FIGS. 13M and 13N, device 600 detects user's mouth 1325-1 closed around tongue 1325-3 as the user retracts the tongue into mouth 1325-1. 13M and 13N, the alien mouth 1324-1 is closed around the tongue 1324-3, and the cone shape when retracting into the alien mouth 1324-1. Tongue 1324-3 with tongue is displayed. In FIG. 13O, device 600 detects that user's tongue 1325-3 is not extended and mouth 1325-1 and jaw 1325-2 are closed. Device 600 displays alien avatar 1324 with mouth 1324-1 and jaw 1324-2 closed, without a tongue.

図14A及び図14Bは、いくつかの実施形態に従って、アバターナビゲーションユーザインターフェース内のアバターを変更する方法を示すフロー図である。方法1400は、表示装置を備えたデバイス(例えば、100、300、500、600)にて実行される。方法1400のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 14A and 14B are flow diagrams illustrating methods of changing avatars within an avatar navigation user interface, according to some embodiments. Method 1400 is performed on a device (eg, 100, 300, 500, 600) with a display. Some acts of method 1400 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

下で説明されているように、方法1400は、アバターナビゲーションユーザインターフェースでアバターを変更する直感的な方法を提供する。この方法は、アバターを変更する際のユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ユーザがアバターナビゲーションユーザインターフェースを使用してより素早く効率的にアバターの特性を変更できるようにするので、電力を節約し、バッテリの充電間の時間を延ばす。 As described below, method 1400 provides an intuitive way of changing avatars in the avatar navigation user interface. This method reduces the user's cognitive burden in changing avatars, thereby creating a more efficient human-machine interface. Battery-operated computing devices allow users to change avatar characteristics more quickly and efficiently using an avatar navigation user interface, thereby conserving power and extending the time between battery charges.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、複数のアバター特徴部(例えば、1322-1、1322-2、1322-3)(例えば、顔の特徴(例えば、目、口、口の一部)又は大きい特徴(例えば、頭部、首))を有する仮想アバター(例えば、1322、1323、1324)を表示し(1402)、この仮想アバターは、1つ以上のカメラ(例えば、602)の視野内の顔(例えば、1325)のポーズ(例えば、向き、並進移動)において検出された変化(例えば、顔面表情における変化)に応じて、外観を変更する。1つ以上のカメラの視野内で顔が検出されている間に、この顔が、ユーザの舌以外の第1の顔の特徴(例えば、1325-2)(例えば、顎)を含む複数の検出された顔の特徴を含んでおり、電子デバイスは、第1の顔の特徴の動きを検出する(1404)。アバターの外観を表示することは、アバターの特定の特徴のカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 An electronic device (eg, 600) displays a plurality of avatar features (eg, 1322-1, 1322-2, 1322-3) (eg, facial features (eg, eyes)) via a display device (eg, 601). 1322, 1323, 1324) having large features (e.g., head, neck)), the virtual avatar viewing 1402 one or more cameras. Appearance is modified in response to detected changes in pose (eg, orientation, translation) of faces (eg, 1325) in the field of view (eg, 602) (eg, changes in facial expression). Multiple detections, while a face is detected within the field of view of one or more cameras, where this face includes a first facial feature (eg, 1325-2) other than the user's tongue (eg, chin) and the electronic device detects movement of the first facial feature (1404). Displaying the appearance of the avatar provides feedback to the user indicating customization of certain characteristics of the avatar. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

デバイス(例えば、600)は、第1の顔の特徴(例えば、1325-2)の動きを検出することに応じて(1406)、次のステップのうちの1つ以上を実行する。電子デバイス(例えば、600)は、ユーザの舌(例えば、1325-3)が、個別の基準が満たされるためにはユーザの舌が(例えば、図13Dに示されているように)可視であるという要件を含む、個別の基準(例えば、舌表示基準)を満たしている(例えば、ユーザの舌が可視であり、ユーザの口から突き出ていると識別されるポーズにある)という判定に従って(1408)、アバターの舌(例えば、1322-3)を表示する(例えば、アバターの舌は、表示された仮想アバターの一部として持続的に表示されない(例えば、可変的に表示される))。いくつかの実施形態では、アバターの舌は、アバターの舌表示基準の集合(例えば、カメラの視野内で検出された顔が可視の舌を含んでいることを検出することと、顔が閾値距離だけ開かれた口(例えば、十分に下方の位置にある低い顎を有する口)を含んでいることを検出することとのうちの1つ以上を含む基準の集合)が満たされているという判定に従って表示される。アバターの舌の動きを伴ってアバターの外観を表示することは、ユーザの動きに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The device (eg, 600) performs one or more of the following steps in response to detecting (1406) movement of the first facial feature (eg, 1325-2). The electronic device (eg, 600) determines that the user's tongue (eg, 1325-3) is visible (eg, as shown in FIG. 13D) for the individual criteria to be met. (e.g., the user's tongue is visible and in a pose identified as protruding from the user's mouth) is met (1408), including the requirement that ), display the avatar's tongue (eg, 1322-3) (eg, the avatar's tongue is not persistently displayed (eg, variably displayed) as part of the displayed virtual avatar). In some embodiments, the avatar's tongue is defined by a set of avatar tongue display criteria (e.g., detecting that a face detected within the field of view of the camera contains a visible tongue, and detecting that the face is within a threshold distance determining that a set of criteria including one or more of: detecting the presence of a mouth that is only open (e.g., a mouth with a low chin in a fully lowered position) is met; displayed according to Displaying the appearance of the avatar with the movement of the avatar's tongue provides the user with feedback indicating the movement of the avatar's tongue following the user's movements. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

電子デバイス(例えば、600)は、第1の顔の特徴(例えば、1325-2)の動き(例えば、動きの方向及び大きさ)に基づいて、アバターの舌(例えば、1322-3)の位置を変更する(1408)(例えば、アバターの舌の位置は、ユーザの顎の検出された位置(例えば、完全に開かれた状態から完全に閉じられた状態までの範囲内の位置)に基づいて決定される)。いくつかの実施形態では、第1の顔の特徴の動きを検出することに応じて、第1の顔の特徴の検出された動きに基づいて、第1の顔の特徴に対応するアバター特徴部(例えば、1322-2)(例えば、アバターの舌以外のアバター特徴部))も変更/動かされる。電子デバイスは、ユーザの舌が個別の基準を満たさないという判定に従って、アバターの舌の表示を止める(1414)。 The electronic device (eg, 600) determines the position of the avatar's tongue (eg, 1322-3) based on the movement (eg, direction and magnitude of movement) of the first facial feature (eg, 1325-2). 1408 (e.g., the avatar's tongue position is based on the detected position of the user's jaw (e.g., in the range from fully open to fully closed) It is determined). In some embodiments, in response to detecting movement of the first facial feature, an avatar feature corresponding to the first facial feature based on the detected movement of the first facial feature (eg, 1322-2) (eg, avatar features other than the avatar's tongue)) are also changed/moved. The electronic device ceases display of the avatar's tongue upon determination that the user's tongue does not meet the individual criteria (1414).

いくつかの実施形態に従って、アバターの舌(例えば、1323-3)は、第1の部分(例えば、1323-3a)及び第2の部分(例えば、1323-3b)を含み、第2の部分は、第1の部分又は第2の部分よりも柔軟であるコネクタ(例えば、1323-4)(例えば、ヒンジ)によって、第1の部分に接続される(例えば、アバターの舌は、1つ以上のヒンジで結合された2つ以上のセグメントを有する)。いくつかの実施形態では、仮想アバターがロボットアバター(例えば、1323)である場合、アバターの舌は、ヒンジで連結されたセグメントで形成される。いくつかの実施形態では、第1の部分及び第2の部分は固定されている。いくつかの実施形態では、(例えば、図13G~図13Iに示されているように)アバターの舌が伸ばされ、ユーザの頭部の動きに従って動くときに、第1の部分は自由にぶら下がる。 According to some embodiments, the avatar's tongue (eg, 1323-3) includes a first portion (eg, 1323-3a) and a second portion (eg, 1323-3b), the second portion being , is connected to the first portion by a connector (eg, 1323-4) (eg, a hinge) that is more flexible than either the first portion or the second portion (eg, the avatar's tongue is connected to one or more having two or more hinged segments). In some embodiments, if the virtual avatar is a robot avatar (eg, 1323), the avatar's tongue is formed of hinged segments. In some embodiments, the first portion and the second portion are stationary. In some embodiments, the first portion hangs freely when the avatar's tongue is extended (eg, as shown in FIGS. 13G-13I) and moves according to the movement of the user's head.

いくつかの実施形態に従って、アバターの舌(例えば、1323-3)は、アバターの舌の位置を変更することに応じて変化する視覚効果(例えば、1324-4(例えば、キラキラ光る、虹色))を有する。いくつかの実施形態では、仮想アバターは一角獣であり、アバターの舌は、アバターの舌が動くときにきらめく、キラキラ光る効果を含む。いくつかの実施形態では、仮想アバターは宇宙人(例えば、1324)であり、アバターの舌は、アバターの舌が動くときに変化する虹色の効果を含む。アバターの舌の動きの視覚効果の表示は、ユーザの動きに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the avatar's tongue (eg, 1323-3) displays a visual effect that changes in response to changing the position of the avatar's tongue (eg, 1324-4 (eg, glitter, iridescent). ). In some embodiments, the virtual avatar is a unicorn and the avatar's tongue includes a shimmering, shimmering effect when the avatar's tongue moves. In some embodiments, the virtual avatar is an alien (eg, 1324) and the avatar's tongue includes a rainbow effect that changes when the avatar's tongue moves. The display of the avatar's tongue movement visual effect provides the user with feedback indicating the avatar's tongue movement following the user's movement. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、第1の顔の特徴(例えば、1325-2)の動きに基づいてアバターの舌(例えば、1322-3)の位置を変更することは、次のステップのうちの1つ以上を含む。電子デバイス(例えば、600)は、第1の顔の特徴が第1の方向に動く(例えば、ユーザの顎が左及び/又は上に動く)という判定に従って、アバターの舌の位置を第1の方向に変更する(1410)(例えば、アバターの舌を左及び/又は上に動かす)。電子デバイスは、第1の顔の特徴が第1の方向と異なる第2の方向に動く(例えば、ユーザの顎が右及び/又は下に動く)という判定に従って、アバターの舌の位置を第2の方向に変更する(1412)(例えば、アバターの舌を右及び/又は下に動かす)。アバターの舌の表示は、第1の顔の特徴の動きに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, changing the position of the avatar's tongue (eg, 1322-3) based on the movement of the first facial feature (eg, 1325-2) is one of the following steps: including one or more. The electronic device (eg, 600) positions the avatar's tongue in a first direction according to a determination that the first facial feature moves in a first direction (eg, the user's jaw moves left and/or up). Change direction 1410 (eg, move the avatar's tongue left and/or up). The electronic device positions the avatar's tongue in a second direction according to a determination that the first facial feature moves in a second direction different from the first direction (eg, the user's jaw moves rightward and/or downward). 1412 (eg, move the avatar's tongue to the right and/or down). The display of the avatar's tongue provides feedback to the user indicating the movement of the avatar's tongue following the movement of the first facial feature. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1の顔の特徴(例えば、1325-2)の動きに基づいてアバターの舌(例えば、1322-3)の位置を変更することは、次のステップのうちの1つ以上を含む。第1の顔の特徴が第1の大きさだけ動く(例えば、ユーザの顎が前を向いている位置から右に30度動く)という判定に従って、第1の大きさに比例する量だけアバターの舌の位置を変更する(例えば、アバターの舌が前を向いている位置から右に30度動く)。電子デバイス(例えば、600)は、第1の顔の特徴が第1の大きさと異なる第2の大きさだけ動く(例えば、ユーザの顎が前を向いている位置から右に45度動く)という判定に従って、第2の大きさに比例する量だけアバターの舌の位置を変更する(例えば、アバターの舌が前を向いている位置から右に45度動く)。アバターの舌の表示は、第1の顔の特徴の動きに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, changing the position of the avatar's tongue (eg, 1322-3) based on movement of the first facial feature (eg, 1325-2) is one of the following steps: including one or more. According to a determination that the first facial feature moves a first amount (e.g., the user's jaw moves 30 degrees to the right from a forward-facing position), the avatar moves an amount proportional to the first amount. Change the position of the tongue (eg move the avatar's tongue 30 degrees to the right from its forward-facing position). The electronic device (e.g., 600) is said to move the first facial feature by a second amount that is different than the first amount (e.g., the user's jaw moves 45 degrees to the right from a forward-facing position). According to the determination, change the position of the avatar's tongue by an amount proportional to the second magnitude (eg, move the avatar's tongue 45 degrees to the right from its forward-facing position). The display of the avatar's tongue provides feedback to the user indicating movement of the avatar's tongue following movement of the first facial feature. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、物理モデル(例えば、慣性のモデル、重力のモデル、力伝達モデル、摩擦モデル)に従い、アバターの舌(例えば、1322-3)が動く。いくつかの実施形態では、アバターの舌の動きの程度(例えば、頭部及び/又は顔の特徴の動きに基づく、物理モデルに従う動きの程度)は、仮想アバター(例えば、1322)の口から伸ばされた舌の増加(又は、例えば減少)量に基づいて増える(又は、例えば減る)。物理モデルによって、被写体の動きに従ってアバターの舌を現実的に表示することが可能になる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the avatar's tongue (eg, 1322-3) moves according to a physical model (eg, inertia model, gravity model, force transfer model, friction model). In some embodiments, the degree of movement of the avatar's tongue (eg, the degree of movement according to a physical model based on movement of head and/or facial features) is extended from the mouth of the virtual avatar (eg, 1322). increased (or decreased, for example) based on the amount of tongue increased (or decreased, for example). The physical model allows realistic display of the avatar's tongue as the subject moves. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、アバターの舌(例えば、1324-3)が表示されている間に、電子デバイス(例えば、600)は、ユーザの舌(例えば、1325-3)が個別の基準(例えば、舌表示基準)を満たさなくなっていることを検出する(1416)。電子デバイスは、ユーザの舌が個別の基準を満たさなくなっているということを検出することに応じて、アバターの舌(例えば、図13O)を表示することを止める(1418)。いくつかの実施形態では、(例えば、以前に表示されていない)アバターの舌を表示することは、仮想アバター(例えば、1322)の口(例えば、1322-1)から伸びるアバターの舌のアニメーションを表示することを含む。いくつかの実施形態では、アバターの舌を表示するのを止めることは、仮想アバターの口の中に引っ込むアバターの舌のアニメーションを表示することを含む。いくつかの実施形態では、仮想アバターの口から伸びる舌のアニメーション又は仮想アバターの口の中に引っ込む舌のアニメーションのうちの少なくとも1つは、仮想アバターの1つ以上の歯(例えば、仮想アバターの顎の中の歯の下側の集合)の上で曲がるアバターの舌の動きを表示することを含む(例えば、アバターの舌は、直線状の動きで伸びる/引っ込むのではなく、アバターの歯の上で曲がるか、又は弧を描くように動いて表示される)。舌をアバターの口の中に引っ込めることによってアバターの舌の表示を止めることで、アバターの舌の特徴が表示されなくなっていることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, while the avatar's tongue (eg, 1324-3) is displayed, the electronic device (eg, 600) displays the user's tongue (eg, 1325-3) against a separate reference (eg, , tongue display criteria) is no longer met (1416). The electronic device stops displaying the avatar's tongue (eg, FIG. 13O) in response to detecting that the user's tongue no longer meets the individual criteria (1418). In some embodiments, displaying the avatar's tongue (eg, not previously displayed) animates the avatar's tongue extending from the mouth (eg, 1322-1) of the virtual avatar (eg, 1322). Including displaying. In some embodiments, stopping displaying the avatar's tongue includes displaying an animation of the avatar's tongue retracting into the mouth of the virtual avatar. In some embodiments, at least one of the animation of the tongue extending out of the mouth of the virtual avatar or the animation of the tongue retracting into the mouth of the virtual avatar includes one or more teeth of the virtual avatar (e.g., teeth of the virtual avatar). showing movement of the avatar's tongue bending over the lower set of teeth in the jaw) (e.g., the avatar's tongue would bend over the avatar's teeth instead of extending/retracting in a linear motion). shown bending or arcing above). Stopping the display of the avatar's tongue by retracting the tongue into the avatar's mouth provides feedback to the user indicating that the avatar's tongue feature is no longer displayed. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第1の位置(例えば、図13O)(例えば、ユーザの口の閉じられた位置)への第2の顔の特徴(例えば、ユーザの口(1325-1))の移動を検出する。デバイスは、第1の位置への第2の顔の特徴の動きを検出することに応じて、次のステップのうちの1つ以上を実行する。電子デバイスは、アバターの舌(例えば、1324-2)が表示されないという判定に従って、第2の顔の特徴の動きに基づいて、第1のアバター特徴部(例えば、アバターの口1324-1)(例えば、アバターの舌の位置に影響を与える、アバターの顎以外のアバター特徴部)(例えば、アバターの口、アバターの下唇など)を変更する(例えば、ユーザの口の閉じられた位置に対応する閉じられた位置を有するように、アバターの口を変更する)。個別の基準を満たしていることに基づいて、アバターの舌が表示されるという判定に従って、第2の顔の特徴の動きに基づいて第1のアバター特徴部の動きを弱める(例えば、振幅を除去するか、又は減らす)(例えば、アバターの舌が表示されるときに、ユーザの口の閉じられた位置を検出することに応じて、アバターの口の動きを弱める)。いくつかの実施形態では、アバターの舌が表示されるときに、ユーザの顔において検出された変化に応じて、アバターの特定の位置が変更されない(又は、制限された量だけ変更される)。いくつかの実施形態では、アバターの舌が表示されるときに、ユーザの顔において検出された変化に応じて、特定のポーズを表示するようにアバターが変更されない(又は、特定のポーズが制限される)。アバターの舌の表示は、第2の顔の特徴の動きに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) moves a second facial feature (eg, user (1325-1)) is detected. The device performs one or more of the following steps in response to detecting movement of the second facial feature to the first position. The electronic device determines that the first avatar feature (eg, avatar mouth 1324-1) (eg, avatar mouth 1324-1) ( For example, changing an avatar feature other than the avatar's jaw that affects the avatar's tongue position (e.g., avatar's mouth, avatar's lower lip, etc.) (e.g., corresponding to the closed position of the user's mouth) change the avatar's mouth so that it has a closed position where Decrease the movement of the first avatar feature based on the movement of the second facial feature (e.g., remove amplitude (e.g., attenuate the avatar's mouth movements in response to detecting the closed position of the user's mouth when the avatar's tongue is displayed). In some embodiments, when the avatar's tongue is displayed, certain positions of the avatar are not changed (or are changed by a limited amount) in response to detected changes in the user's face. In some embodiments, when the avatar's tongue is displayed, the avatar is not modified to display certain poses (or certain poses are restricted) in response to changes detected in the user's face. ). The display of the avatar's tongue provides feedback to the user indicating the movement of the avatar's tongue following the movement of the second facial feature. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第2の顔の特徴はユーザの口(例えば、1325-1)であり、第2の顔の特徴の第1の位置は、ユーザの口が閉じられている(例えば、顎が開かれている)位置に対応し、第1のアバター特徴部はアバターの口である。いくつかの実施形態では、アバターの口の動きは、口が完全に閉じることによって、伸ばされたアバターの舌と衝突するか、又は舌に影響を与えることを防ぐために、デバイスの1つ以上のカメラ(例えば、602)の視野内で検出された顔の口の動きと比べて弱められる。アバターの舌の表示は、口を閉じているユーザに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the second facial feature is the user's mouth (eg, 1325-1) and the first position of the second facial feature is the user's mouth closed (eg, 1325-1). , jaws open) and the first avatar feature is the avatar's mouth. In some embodiments, the movement of the avatar's mouth is controlled by one or more of the devices to prevent the fully closed mouth from colliding with or affecting the extended avatar's tongue. It is attenuated compared to detected facial mouth movements within the field of view of the camera (eg, 602). The avatar tongue display provides the user with feedback indicating the movement of the avatar's tongue following the user with their mouth closed. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第2の顔の特徴はユーザの下唇であり、第2の顔の特徴の第1の位置は、ユーザの下唇が伸ばされている(例えば、口をとがらせるポーズでユーザの下唇が突き出ている)位置に対応し、第1のアバター特徴部はアバターの下唇である。いくつかの実施形態では、アバターの下唇の動きは、下唇が伸ばされたアバターの舌と衝突するか、又は舌に影響を与えることを防ぐために、デバイスの1つ以上のカメラ(例えば、602)の視野内で検出された顔の下唇の動きと比べて弱められる。 According to some embodiments, the second facial feature is the user's lower lip, and the first position of the second facial feature is that the user's lower lip is extended (e.g., pouty). The first avatar feature is the avatar's lower lip, corresponding to the position where the user's lower lip protrudes in the pose. In some embodiments, movement of the avatar's lower lip is controlled by one or more of the device's cameras (e.g., 602) is attenuated compared to the motion of the lower lip of the face detected in the field of view of 602).

いくつかの実施形態に従って、第2の顔の特徴はユーザの上唇及び下唇であり、第2の顔の特徴の第1の位置は、ユーザの上唇及び下唇がすぼめられている位置に対応し、第1のアバター特徴部はアバターの上唇及び下唇である。いくつかの実施形態では、アバターの上唇及び下唇の動きは、唇が伸ばされたアバターの舌と衝突するか、又は舌に影響を与えることを防ぐために、デバイスの1つ以上のカメラ(例えば、602)の視野内で検出された顔の上唇及び下唇の動きと比べて弱められる。 According to some embodiments, the second facial feature is the user's upper and lower lips, and the first position of the second facial feature corresponds to the position at which the user's upper and lower lips are pursed. and the first avatar features are the avatar's upper and lower lips. In some embodiments, movement of the avatar's upper and lower lips is controlled by one or more of the device's cameras (e.g., , 602) is attenuated compared to the motion of the upper and lower lips of the face detected in the field of view.

いくつかの実施形態に従って、第2の顔の特徴はユーザの口(例えば、1325-1)であり、第2の顔の特徴の第1の位置は、ユーザの口が閉じている位置(例えば、ユーザの唇がすぼめられて、開いた位置から閉じた位置に動いている口の中間の位置)に対応し、第1のアバター特徴部はアバターの口である。いくつかの実施形態では、アバターの口の動きは、口が閉じることによって、伸ばされたアバターの舌と衝突するか、又は舌に影響を与えることを防ぐために、デバイスの1つ以上のカメラ(例えば、602)の視野内で検出された顔の口の動きと比べて弱められる。 According to some embodiments, the second facial feature is the user's mouth (eg, 1325-1) and the first location of the second facial feature is the location where the user's mouth is closed (eg, , middle position of the mouth moving from an open position to a closed position with the user's lips pursed), and the first avatar feature is the avatar's mouth. In some embodiments, the avatar's mouth movements are controlled by one or more of the device's cameras ( For example, face mouth movements detected in the field of view of 602) are attenuated.

いくつかの実施形態に従って、アバターの舌(例えば、1322-3)を表示することは、次のステップのうちの1つ以上を含む。第3の顔の特徴(例えば、1325-1)(例えば、ユーザの口)の位置を検出する。電子デバイス(例えば、600)は、第3の顔の特徴が第1の位置(例えば、実質的に閉じられた位置)を有するという判定に従って、第1の形状(例えば、図13M及び13Nに示されている)(例えば、円錐形又は「イチゴ」の形状)を有するアバターの舌を表示する。電子デバイスは、第1の顔の特徴が第1の位置(例えば、実質的に開かれた位置)と異なる第2の位置を有するという判定に従って、第1の形状(例えば、図13Eに示されているような平らな形状)と異なる第2の形状を有するアバターの舌を表示する。いくつかの実施形態では、アバターの舌が第2の形状を有する場合、アバターの舌は、アバターの舌が第1の形状を有する場合よりも長く、口から外に伸びる。アバターの舌の表示は、アバターの口が開かれているのか、又は閉じられているのかに応じて異なる舌の形状を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, displaying the avatar's tongue (eg, 1322-3) includes one or more of the following steps. Detect the location of a third facial feature (eg, 1325-1) (eg, the user's mouth). The electronic device (e.g., 600) assumes a first shape (e.g., shown in FIGS. 13M and 13N) in accordance with the determination that the third facial feature has a first position (e.g., a substantially closed position). ) (eg, cone-shaped or "strawberry" shaped). The electronic device forms a first shape (e.g., shown in FIG. 13E) following the determination that the first facial feature has a second position that differs from the first position (e.g., a substantially open position). display the avatar's tongue having a second shape that is different from the flat shape as if the tongue were In some embodiments, when the avatar's tongue has the second shape, the avatar's tongue is longer and extends out of the mouth than when the avatar's tongue has the first shape. The avatar tongue display provides feedback to the user showing different tongue shapes depending on whether the avatar's mouth is open or closed. By providing improved visual feedback to the user, the usability of the device is improved and the user-device interface (e.g., assisting the user to provide appropriate input when operating/interacting with the device, (by reducing user error), in addition to reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

なお、方法1400に関して上述された処理(例えば、図14)の詳細はまた、前述の方法にも類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1400に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。アバターを編集する方法700は、アバターユーザインターフェースをナビゲートする方法に組み込まれ得る。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図9に関して前述した方法900に従って実現されてよい。追加の例として、方法1000、1100、及び1200は、方法1400に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10~図12に関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は繰り返されていない。 Note that the details of the processing (eg, FIG. 14) described above with respect to method 1400 are also applicable in a similar manner to the methods described above. For example, method 700 optionally includes one or more of the various method features described above with respect to method 1400 . The method 700 of editing an avatar may be incorporated into a method of navigating an avatar user interface. For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which may be implemented according to method 900 described above with respect to FIG. As an additional example, methods 1000 , 1100 , and 1200 optionally include one or more of the various method features described above with respect to method 1400 . For example, in some embodiments the navigational user interface invokes a process to create or edit a customizable avatar, which process may be implemented according to the methods described below with respect to FIGS. 10-12. For the sake of brevity, these details have not been repeated.

説明を目的とした上述した説明は、特定の実施形態を参照して説明されてきた。しかしながら、上記例示的な議論は、包括的であることを意図しておらず、又は発明を開示された簡易的な形式に限定することを意図していない。上記教示を考慮して多くの修正及び変形が可能である。技術の原理及びそれらの実際の適用を最良に説明するために実施形態が選択及び説明されてきた。それによって、他の当業者は、考えられる特定の使用に適切な様々な修正で、技術及び様々な実施形態を最良に利用することが可能である。 The foregoing description, for purposes of explanation, has been described with reference to specific embodiments. However, the illustrative discussion above is not intended to be exhaustive or to limit the invention to the simple form disclosed. Many modifications and variations are possible in light of the above teaching. The embodiments have been chosen and described in order to best explain the principles of the technology and their practical application. Others skilled in the art are thereby enabled to best utilize the techniques and various embodiments with various modifications appropriate to the particular uses envisioned.

開示及び実施例が添付図面を参照して完全に説明されてきたが、様々な変更及び修正が当業者にとって明らかであることに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるように、開示及び実施例の範囲内に含まれるものとして理解されることになる。 Although the disclosure and examples have been fully described with reference to the accompanying drawings, it should be noted that various changes and modifications will become apparent to those skilled in the art. Such changes and modifications are intended to be included within the scope of the disclosure and examples, as defined by the claims.

上述のように、本技術の一態様は、他のユーザと共有するために、様々なソースから入手可能なデータを収集及び使用することである。本開示は、場合によっては、この収集されたデータは、特定の人を一意的に特定するか、又はその人に連絡するか、若しくはその人のロケーションを特定するために用いることができる個人情報データを含んでよいことを企図している。このような個人情報データは、人口統計データ、ロケーションベースのデータ、電話番号、電子メールアドレス、ツイッターID、自宅の住所、ユーザの健康又はフィットネスのレベル(例えば、バイタルサイン測定、服薬情報、運動情報)に関するデータ若しくは記録、誕生日又は任意のその他の識別情報若しくは個人情報を含むことができる。 As noted above, one aspect of the present technology is the collection and use of data available from various sources for sharing with other users. This disclosure indicates that, in some cases, this Collected Data is personal information that can be used to uniquely identify a particular person or to contact that person or identify that person's location. It is contemplated that it may contain data. Such personal data may include demographic data, location-based data, phone number, email address, Twitter ID, home address, user's health or fitness level (e.g., vital sign measurements, medication information, exercise information, ), date of birth or any other identifying or personal information.

本開示は、この技術のそのような個人情報データを使用してユーザを利することができることを理解する。例えば、個人情報データは、会話中のユーザをより良く表すために使用され得る。更に、ユーザを利する個人情報データに関するその他の使用もまた、本開示により意図されている。例えば、健康データ及びフィットネスデータは、ユーザの全般的なウェルネスについての洞察を提供するために使用されてもよく、あるいはウェルネスの目標を追求するために技術を使用して個人に積極的なフィードバックとして使用されてもよい。 The present disclosure understands that such personal information data of this technology can be used to benefit users. For example, personal information data can be used to better represent the user in a conversation. Additionally, other uses of the personal information data that benefit the user are also contemplated by this disclosure. For example, health and fitness data may be used to provide insight into a user's overall wellness, or as positive feedback to individuals using technology to pursue wellness goals. may be used.

本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶又はその他の使用に応答するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守することとなることを企画する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための業界又は政府の要件を満たすか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し常に使用すべきである。このようなポリシーは、ユーザが容易にアクセスすることができ、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更に、そのような収集/共有は、ユーザに告知して同意を得た後にのみ実施すべきである。加えて、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じるべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。加えて、ポリシー及び慣行は、収集かつ/又はアクセスされる特定の種類の個人情報データに適合され、また、管轄権特有の考慮を含む、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国において、ある健康データの収集又はアクセスは、例えば、Health Insurance Portability and Accountability Act(HIPAA)なのどの、連邦法及び/又は州法によって管理されてもよく、一方、他の国における健康データは、他の規制及び政策の影響下にあってもよく、それに従って対処されるべきである。したがって、異なるプライバシー慣行を、各国の異なる個人データの種類に対して保つべきである。 This disclosure contemplates that entities responding to the collection, analysis, disclosure, transmission, storage or other use of such personal information data will adhere to robust privacy policies and/or practices. Specifically, such entities will, at all times, implement privacy policies and practices that are generally recognized as meeting or exceeding industry or governmental requirements for the confidentiality and confidentiality of personal information data. should be used. Such policies should be easily accessible to users and updated as data collection and/or use changes. Personal information from users should be collected for the entity's lawful and legitimate use and should not be shared or sold except for those lawful uses. Further, such collection/sharing should only occur after informing and obtaining consent from the user. In addition, such entities protect and secure access to such Personal Data and ensure that others who have access to that Personal Data comply with their privacy policies and procedures. all necessary measures should be taken to Further, such entities may themselves be evaluated by third parties to certify their adherence to widely accepted privacy policies and practices. In addition, policies and practices should be tailored to the specific types of personal information data collected and/or accessed and to be consistent with applicable laws and standards, including jurisdiction-specific considerations. For example, in the United States, the collection or access of certain health data may be governed by federal and/or state laws, such as, for example, the Health Insurance Portability and Accountability Act (HIPAA), whereas in other countries health data may be governed by , may be subject to other regulations and policies and should be dealt with accordingly. Different privacy practices should therefore be maintained for different types of personal data in each country.

前述のことがらにもかかわらず、本開示はまた、ユーザが、個人情報データの使用又は個人情報データへのアクセスを選択的に阻止する実施形態も企図している。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、アバターを送信する場合、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成され得る。「オプトイン」及び「オプトアウト」オプションを提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを企画している。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。 Notwithstanding the foregoing, the present disclosure also contemplates embodiments in which a user selectively prevents use of or access to personal information data. That is, the present disclosure contemplates that hardware and/or software elements may be provided to prevent or inhibit access to such personal information data. For example, when submitting an avatar, the technology may be configured to allow the user to "opt-in" or "opt-out" of participation in the collection of personal information data during registration for the service or at any time thereafter. In addition to providing "opt-in" and "opt-out" options, this disclosure contemplates providing notice regarding access or use of personal information. For example, the user may be notified upon download of an app that will access the user's personal data, and then reminded again just before the personal data is accessed by the app.

更に、本開示の意図は、個人情報データを、意図しない又は不正なアクセス又は使用の危険性を最小にする方法で管理かつ取り扱うべきであることである。リスクは、データの収集を制限し、データがもはや必要ではなくなった時点でデータを削除することによって、最小化することができる。加えて、適用可能な場合には、ある健康関連アプリケーションにおいても、データ非特定化は、ユーザのプライバシーを保護するために使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって情報集約すること)及び/又は他の方法によって、容易にすることができる。 Further, it is the intent of this disclosure that personal information data should be managed and handled in a manner that minimizes the risk of unintended or unauthorized access or use. Risk can be minimized by limiting data collection and deleting data when it is no longer needed. Additionally, where applicable, data de-identification can also be used to protect user privacy in certain health-related applications. De-identification may include, where appropriate, removing certain identifiers (e.g. date of birth, etc.), controlling the amount or specificity of data stored (e.g. location data rather than address level). city level), controlling how data is stored (eg, aggregating data across users), and/or in other ways.

したがって、本開示は、1つ以上の様々な開示された実施形態を実施するための個人情報データの使用を広範に網羅しているが、本開示は、それらの様々な実施形態がまた、そのような個人情報データにアクセスすることを必要とせずに実施されることも可能であることも企図している。すなわち、本技術の様々な実施形態は、そのような個人情報データのすべて又は一部分の欠如により、実施不可能となるものではない。 Thus, while this disclosure broadly covers the use of personal information data to implement one or more of the various disclosed embodiments, this disclosure does not disclose that those various embodiments also It is also contemplated that it can be performed without the need to access such personal information data. That is, various embodiments of the present technology are not rendered inoperable by the lack of all or part of such personal information data.

図8BAで、デバイス600は、アバターのアクセサリアフォーダンス809d上の入力8100(例えば、タッチ入力)を検出する。デバイス600は、入力8100を検出することに応じて、図8BBに示されているように、アバターのアクセサリの特徴が選択されていることを示すように(例えば、アバターのアクセサリアフォーダンス809dを太字にし、アバター805の直下に配置することによって)アバター表示領域803を更新し、アバターのアクセサリの特徴に対応するアバター特徴部の特性及び特徴部オプションを表示するようにアバターの特性領域804を更新する。図8BA~図8CFに示されたアバター特徴部の特性及び特徴部オプションは、アバターのアクセサリの特徴に対応する。したがって、デバイス600は、そのようないずれかの特徴部オプションの選択を検出することに応じて、選択された特徴部オプションに基づいてアバター805を変更し、一部の場合には、選択された特徴部オプションに基づいて、特徴部オプションに表示されたアバターのアクセサリの表現を更新する。 In FIG. 8BA, the device 600 detects input 8100 (eg, touch input) on the avatar's accessory affordance 809d. In response to detecting input 8100, device 600 may bold the avatar's accessory affordance 809d to indicate that the avatar's accessory feature is selected, as shown in FIG. , directly below the avatar 805) and updates the avatar properties area 804 to display avatar feature properties and feature options corresponding to the avatar's accessory properties. The avatar feature properties and feature options shown in FIGS. 8BA- 8CF correspond to the avatar's accessory features. Accordingly, in response to detecting the selection of any such feature option, the device 600 modifies the avatar 805 based on the selected feature option, and in some cases the selected feature option. Based on the feature options, update the representation of the avatar accessory displayed in the feature options.

Claims (159)

表示装置及び1つ以上の入力デバイスを有する電子デバイスで、
前記表示装置を介してアバターナビゲーションユーザインターフェースを表示することであって、前記アバターナビゲーションユーザインターフェースがアバターを含んでいる、ことと、
前記アバターナビゲーションユーザインターフェースが表示されている間に、前記1つ以上の入力デバイスを介して、前記アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出することと、
前記ジェスチャを検出することに応じて、
前記ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターを前記アバターナビゲーションユーザインターフェースに表示することと、
前記ジェスチャが前記第1の方向と反対の第2の方向であるという判定に従って、前記第1の種類と異なる第2の種類のアバターを前記アバターナビゲーションユーザインターフェースに表示することと、を含んでいる、方法。
An electronic device having a display and one or more input devices,
displaying an avatar navigation user interface via the display device, the avatar navigation user interface including an avatar;
detecting a gesture directed at the avatar navigation user interface via the one or more input devices while the avatar navigation user interface is displayed;
In response to detecting the gesture,
displaying a first type of avatar on the avatar navigation user interface according to determining that the gesture is in a first direction;
displaying a second type of avatar different from the first type on the avatar navigation user interface in accordance with determining that the gesture is in a second direction opposite the first direction. ,Method.
前記ジェスチャが前記第1の方向であることの前記判定に更に従って、前記第2の種類の前記アバターを前記アバターナビゲーションユーザインターフェースに表示することを止めることと、
前記ジェスチャが前記第1の方向と反対の前記第2の方向であるということの前記判定に更に従って、前記第1の種類の前記アバターを前記アバターナビゲーションユーザインターフェースに表示することを止めることと、を更に含んでいる、請求項1に記載の方法。
ceasing to display the avatar of the second type in the avatar navigation user interface further in accordance with the determination that the gesture is in the first direction;
ceasing to display the avatar of the first type in the avatar navigation user interface further in accordance with the determination that the gesture is in the second direction opposite the first direction; 2. The method of claim 1, further comprising:
前記第1の種類の前記アバターを表示した後に、前記第1の方向の第2のジェスチャを検出することと、
前記第2のジェスチャを検出することに応じて、前記第1の種類の第2のアバターを表示することと、を更に含んでいる、請求項1又は2に記載の方法。
detecting a second gesture in the first direction after displaying the avatar of the first type;
3. The method of claim 1 or 2, further comprising displaying a second avatar of the first type in response to detecting the second gesture.
前記第2の種類の前記アバターを表示した後に、前記第2の方向の第3のジェスチャを検出することと、
前記第3のジェスチャを検出することに応じて、前記第2の種類の第2のアバターを表示することと、を更に含んでいる、請求項1から3のいずれか一項に記載の方法。
detecting a third gesture in the second direction after displaying the avatar of the second type;
4. The method of any one of claims 1-3, further comprising displaying a second avatar of the second type in response to detecting the third gesture.
前記第1の種類の前記アバターが人間のキャラクターの外観を有する、請求項1から4のいずれか一項に記載の方法。 5. A method according to any preceding claim, wherein said avatar of said first type has the appearance of a human character. 前記第2の種類の前記アバターが人間以外のキャラクターの外観を有する、請求項1から5のいずれか一項に記載の方法。 6. A method according to any preceding claim, wherein said avatar of said second type has the appearance of a non-human character. 前記第1の種類の前記アバターが、ユーザによって構成可能な複数のアバター特徴部を含んでいる、請求項1から6のいずれか一項に記載の方法。 7. A method according to any preceding claim, wherein said avatar of said first type comprises a plurality of user configurable avatar features. 前記第2の種類の前記アバターが、ユーザによって構成可能なアバター特徴部を含んでいない、請求項1から7のいずれか一項に記載の方法。 8. A method according to any one of the preceding claims, wherein said avatar of said second type does not include user configurable avatar features. 前記アバターナビゲーションユーザインターフェースが、複数のアバターを有する部分領域を含んでおり、前記複数のアバターが、前記第1の種類のアバターの第1の集合及び前記第2の種類のアバターの第2の集合を含んでおり、前記第1の種類のアバターの前記第1の集合が、前記第2の種類のアバターの前記第2の集合から分離されている、請求項1から8のいずれか一項に記載の方法。 The avatar navigation user interface includes a subregion having a plurality of avatars, the plurality of avatars being a first set of avatars of the first type and a second set of avatars of the second type. and wherein the first set of avatars of the first type is separate from the second set of avatars of the second type described method. 前記アバターが、前記第1の種類のアバターの前記第1の集合のうちの1つ以上と、前記第2の種類のアバターの前記第2の集合のうちの1つ以上との間の位置に表示された前記複数のアバターのうちの選択された1つである、請求項9に記載の方法。 the avatar is positioned between one or more of the first set of avatars of the first type and one or more of the second set of avatars of the second type; 10. The method of claim 9, wherein the selected one of said plurality of displayed avatars. 前記第1の種類のアバターの前記第1の集合が、前記複数のアバターのうちの前記選択された1つを含んでおり、前記方法が、
前記ジェスチャが前記第1の方向であるという判定に従って、前記複数のアバターのうちの前記選択された1つを前記第1の種類の異なるアバターに置き換えることと、
前記ジェスチャが前記第2の方向であるという判定に従って、前記複数のアバターのうちの前記選択された1つを前記第2の種類のアバターに置き換えることと、を更に含んでいる、請求項10に記載の方法。
wherein the first set of avatars of the first type includes the selected one of the plurality of avatars, the method comprising:
replacing the selected one of the plurality of avatars with a different avatar of the first type according to determining that the gesture is in the first direction;
11. The method of claim 10, further comprising replacing the selected one of the plurality of avatars with the second type of avatar upon determining that the gesture is in the second direction. described method.
前記第2の種類のアバターの前記第2の集合が、前記複数のアバターのうちの前記選択された1つを含んでおり、前記方法が、
前記ジェスチャが前記第1の方向であるという判定に従って、前記複数のアバターのうちの前記選択された1つを前記第1の種類のアバターに置き換えることと、
前記ジェスチャが前記第2の方向であるという判定に従って、前記複数のアバターのうちの前記選択された1つを前記第2の種類の異なるアバターに置き換えることと、を更に含んでいる、請求項10に記載の方法。
wherein the second set of avatars of the second type includes the selected one of the plurality of avatars, the method comprising:
replacing the selected one of the plurality of avatars with the first type of avatar according to determining that the gesture is in the first direction;
11. Replacing the selected one of the plurality of avatars with a different avatar of the second type according to determining that the gesture is in the second direction. The method described in .
前記アバターナビゲーションユーザインターフェースが第1のアフォーダンスを含んでおり、前記方法が、
前記アバターナビゲーションユーザインターフェースが表示されている間に、前記1つ以上の入力デバイスを介して、前記第1のアフォーダンスに向けられたジェスチャを検出することと、
前記第1のアフォーダンスに向けられた前記ジェスチャを検出することに応じて、アバターライブラリユーザインターフェースを表示することであって、前記アバターライブラリユーザインターフェースが第2のアフォーダンス及び前記第1の種類の1つ以上のアバターを含んでいる、ことと、を更に含んでいる、請求項1から12のいずれか一項に記載の方法。
wherein the avatar navigation user interface includes a first affordance, the method comprising:
detecting a gesture directed at the first affordance via the one or more input devices while the avatar navigation user interface is displayed;
displaying an avatar library user interface in response to detecting the gesture directed at the first affordance, the avatar library user interface being one of the second affordance and the first type; 13. A method according to any one of claims 1 to 12, further comprising: including said avatar.
前記アバターライブラリユーザインターフェースが表示されている間に、前記1つ以上の入力デバイスを介して、前記第2のアフォーダンスに向けられたジェスチャを検出することと、
前記第2のアフォーダンスに向けられた前記ジェスチャを検出することに応じて、アバター編集ユーザインターフェースを表示することであって、前記アバター編集ユーザインターフェースが前記第1の種類の新しいアバターを生成するユーザインターフェースである、ことと、を更に含んでいる、請求項13に記載の方法。
detecting a gesture directed at the second affordance via the one or more input devices while the avatar library user interface is displayed;
displaying an avatar editing user interface in response to detecting the gesture directed at the second affordance, wherein the avatar editing user interface generates a new avatar of the first type; 14. The method of claim 13, further comprising:
前記第1の種類の前記新しいアバターを生成することと、
前記新しいアバターを前記アバターライブラリユーザインターフェースに表示することであって、前記新しいアバターが前記第1の種類の前記1つ以上のアバターのうちの最後の1つの次の位置に表示される、ことと、を更に含んでいる、請求項14に記載の方法。
generating the new avatar of the first type;
displaying the new avatar in the avatar library user interface, wherein the new avatar is displayed next to a last one of the one or more avatars of the first type; 15. The method of claim 14, further comprising:
前記アバターナビゲーションユーザインターフェースが、前記アバターを前記表示されたアバターナビゲーションユーザインターフェースから除去する機能に関連付けられたアフォーダンスを更に含んでおり、前記方法が、
前記1つ以上の入力デバイスを介して、前記機能に関連付けられた前記アフォーダンスに向けられたジェスチャを検出することと、
前記機能に関連付けられた前記アフォーダンスに向けられた前記ジェスチャを検出することに応じて、前記アバターを前記表示されたアバターナビゲーションユーザインターフェースから除去することと、を更に含んでいる、請求項1から15のいずれか一項に記載の方法。
The avatar navigation user interface further includes an affordance associated with removing the avatar from the displayed avatar navigation user interface, the method comprising:
detecting a gesture directed at the affordance associated with the function via the one or more input devices;
16, further comprising removing the avatar from the displayed avatar navigation user interface in response to detecting the gesture directed at the affordance associated with the function. The method according to any one of .
前記アバターナビゲーションユーザインターフェースがメッセージングユーザインターフェースに表示される、請求項1から16のいずれか一項に記載の方法。 17. The method of any one of claims 1-16, wherein the avatar navigation user interface is displayed in a messaging user interface. 前記アバターナビゲーションユーザインターフェースが前記第1の種類のアバターを含んでいないという判定に従って、前記第1の種類の新しいアバターの生成に関連付けられたアフォーダンスを有するアバター開始ユーザインターフェースを表示することと、
前記アバター開始ユーザインターフェースが表示されている間に、前記第1の種類の新しいアバターの生成に関連付けられた前記アフォーダンスに向けられたジェスチャを検出することと、
前記第1の種類の新しいアバターの生成に関連付けられた前記アフォーダンスに向けられた前記ジェスチャを検出することに応じて、アバター編集ユーザインターフェースを表示することであって、前記アバター編集ユーザインターフェースが前記第1の種類の新しいアバターを生成するユーザインターフェースである、ことと、を更に含んでいる、請求項1から17のいずれか一項に記載の方法。
displaying an avatar initiation user interface having affordances associated with generating a new avatar of the first type according to a determination that the avatar navigation user interface does not include the first type of avatar;
detecting a gesture directed to the affordance associated with generating a new avatar of the first type while the avatar initiation user interface is displayed;
displaying an avatar editing user interface in response to detecting the gesture directed at the affordance associated with generating a new avatar of the first type, wherein the avatar editing user interface comprises the first type of new avatar; 18. The method of any one of claims 1 to 17, further comprising: being a user interface for creating one type of new avatar.
前記アバターナビゲーションユーザインターフェースが前記第1の種類のアバターを含んでいるという判定に従って、前記第1の種類の前記アバター、及び前記第1の種類の前記表示されたアバターの1つ以上の特徴部の管理に関連付けられたアフォーダンスを表示することを更に含んでいる、請求項1から18のいずれか一項に記載の方法。 of one or more features of the avatar of the first type and the displayed avatar of the first type, according to a determination that the avatar navigation user interface includes an avatar of the first type; 19. The method of any one of claims 1-18, further comprising displaying affordances associated with management. 前記第1の種類の前記アバターを表示することが、非対話状態から対話状態に移行する前記第1の種類の前記アバターを表示することを含んでおり、
前記第2の種類の前記アバターを表示することが、非対話状態から対話状態に移行する前記第2の種類の前記アバターを表示することを含んでいる、請求項1から19のいずれか一項に記載の方法。
displaying the avatar of the first type includes displaying the avatar of the first type transitioning from a non-interactive state to an interactive state;
20. Any one of claims 1 to 19, wherein displaying the avatar of the second type comprises displaying the avatar of the second type transitioning from a non-interactive state to an interactive state. The method described in .
前記表示装置を介して、前記第1の種類の1つ以上の保存されたアバターを含んでいるアバターライブラリユーザインターフェースを表示することと、
前記第1の種類の前記保存されたアバターのうちの1つの選択を検出することと、
前記第1の種類の前記保存されたアバターのうちの前記1つの選択を検出することに応じて、前記第1の種類の前記保存されたアバターのうちの前記1つに対する編集機能、複製機能、及び削除機能のうちの1つに関連付けられた1つ以上のメニューアフォーダンスを有するメニューを表示することと、を更に含んでいる、請求項1から20のいずれか一項に記載の方法。
displaying, via the display device, an avatar library user interface containing one or more saved avatars of the first type;
detecting selection of one of the saved avatars of the first type;
an edit function for the one of the saved avatars of the first type, a copy function, in response to detecting selection of the one of the stored avatars of the first type; and displaying a menu having one or more menu affordances associated with one of the delete functions.
前記複製機能に関連付けられた第1のアフォーダンスの選択を検出することと、
前記第1のアフォーダンスの選択を検出することに応じて、前記保存されたアバターのうちの前記1つの複製バージョンを生成し、前記複製バージョンをアバター編集ユーザインターフェースに表示することと、を更に含んでいる、請求項21に記載の方法。
detecting selection of a first affordance associated with the replication function;
responsive to detecting selection of the first affordance, generating a duplicate version of the one of the saved avatars and displaying the duplicate version in an avatar editing user interface. 22. The method of claim 21, wherein:
前記編集機能に関連付けられた第2のアフォーダンスの選択を検出することと、
前記第2のアフォーダンスに向けられた前記ジェスチャを検出することに応じて、前記保存されたアバターのうちの前記1つを含んでいるアバター編集ユーザインターフェースを表示することと、を更に含んでいる、請求項21に記載の方法。
detecting selection of a second affordance associated with the editing function;
responsive to detecting the gesture directed at the second affordance, displaying an avatar editing user interface including the one of the saved avatars; 22. The method of claim 21.
前記削除機能に関連付けられた第3のアフォーダンスの選択を検出することと、
前記第3のアフォーダンスの選択を検出することに応じて、前記保存されたアバターのうちの前記表示された1つを前記アバターライブラリユーザインターフェースから除去することと、を更に含んでいる、請求項21に記載の方法。
detecting selection of a third affordance associated with the delete function;
22. responsive to detecting selection of the third affordance, removing the displayed one of the saved avatars from the avatar library user interface. The method described in .
前記第1又は第2の種類の個別のアバターを表示することが、
前記表示装置を介して、前記検出されたジェスチャの大きさ及び方向に従って、前記アバターナビゲーションユーザインターフェースを横切る方向に移動する前記個別のアバターを表示することであって、
前記個別のアバターが第1の位置に達するという判定に従って、既定の外観を有する非対話状態から、検出された顔に基づいて決定された外観を有する対話状態に移行する前記個別のアバターのアニメーションを表示することを含んでいる、ことを含んでいる、請求項1から24のいずれか一項に記載の方法。
displaying an individual avatar of said first or second type;
displaying, via the display device, the individual avatar moving in a direction across the avatar navigation user interface according to the magnitude and direction of the detected gesture;
Animating the individual avatar transitioning from a non-interactive state having a default appearance to an interactive state having an appearance determined based on the detected face upon determination that the individual avatar reaches a first position. 25. A method according to any preceding claim, comprising displaying.
前記表示装置を介して、前記検出されたジェスチャの大きさ及び方向に従って、前記アバターナビゲーションユーザインターフェースを横切る方向に移動する前記個別のアバターを表示することが、
前記個別のアバターが第2の位置に達するという判定に従って、前記検出された顔に基づいて決定された前記外観を有する前記対話状態から、前記既定の外観を有する前記非対話状態に移行する前記個別のアバターのアニメーションを表示することを含んでいる、請求項25に記載の方法。
displaying, via the display device, the individual avatar moving in a direction across the avatar navigation user interface according to the magnitude and direction of the detected gesture;
The individual transitioning from the interacting state having the appearance determined based on the detected face to the non-interacting state having the default appearance following a determination that the individual avatar reaches a second position. 26. The method of claim 25, comprising displaying an animation of the avatar of the .
表示装置及び1つ以上の入力デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項1から26のいずれか一項に記載の方法を実行する命令を含んでいる、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display and one or more input devices, said one A non-transitory computer readable storage medium, the above program containing instructions for performing the method of any one of claims 1 to 26. 表示装置と、
1つ以上の入力デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、請求項1から26のいずれか一項に記載の方法を実行する命令を含んでいる、電子デバイス。
a display device;
one or more input devices;
one or more processors;
and a memory storing one or more programs configured to be executed by said one or more processors, said one or more programs being the An electronic device comprising instructions for performing the method of any one of claims 1 to 3.
表示装置と、
1つ以上の入力デバイスと、
請求項1から26のいずれか一項に記載の方法を実行する手段と、を備えている、電子デバイス。
a display device;
one or more input devices;
means for performing the method of any one of claims 1-26.
表示装置及び1つ以上の入力デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示装置を介してアバターナビゲーションユーザインターフェースであって、前記アバターナビゲーションユーザインターフェースがアバターを含んでいる、アバターナビゲーションユーザインターフェースを表示し、
前記アバターナビゲーションユーザインターフェースが表示されている間に、前記1つ以上の入力デバイスを介して、前記アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出し、
前記ジェスチャを検出することに応じて、
前記ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターを前記アバターナビゲーションユーザインターフェースに表示し、
前記ジェスチャが前記第1の方向と反対の第2の方向であるという判定に従って、前記第1の種類と異なる第2の種類のアバターを前記アバターナビゲーションユーザインターフェースに表示する、命令を含んでいる、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display and one or more input devices, said one The above programs
displaying an avatar navigation user interface via the display device, the avatar navigation user interface including an avatar;
detecting a gesture directed at the avatar navigation user interface via the one or more input devices while the avatar navigation user interface is displayed;
In response to detecting the gesture,
displaying a first type of avatar on the avatar navigation user interface according to determining that the gesture is in a first direction;
displaying an avatar of a second type different from the first type on the avatar navigation user interface upon determining that the gesture is in a second direction opposite the first direction; A non-transitory computer-readable storage medium.
表示装置と、
1つ以上の入力デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、
前記表示装置を介してアバターナビゲーションユーザインターフェースであって、前記アバターナビゲーションユーザインターフェースがアバターを含んでいる、アバターナビゲーションユーザインターフェースを表示し、
前記アバターナビゲーションユーザインターフェースが表示されている間に、前記1つ以上の入力デバイスを介して、前記アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出し、
前記ジェスチャを検出することに応じて、
前記ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターを前記アバターナビゲーションユーザインターフェースに表示し、
前記ジェスチャが前記第1の方向と反対の第2の方向であるという判定に従って、前記第1の種類と異なる第2の種類のアバターを前記アバターナビゲーションユーザインターフェースに表示する、命令を含んでいる、電子デバイス。
a display device;
one or more input devices;
one or more processors;
and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising:
displaying an avatar navigation user interface via the display device, the avatar navigation user interface including an avatar;
detecting a gesture directed at the avatar navigation user interface via the one or more input devices while the avatar navigation user interface is displayed;
In response to detecting the gesture,
displaying a first type of avatar on the avatar navigation user interface according to determining that the gesture is in a first direction;
displaying an avatar of a second type different from the first type on the avatar navigation user interface upon determining that the gesture is in a second direction opposite the first direction; electronic device.
表示装置と、
1つ以上の入力デバイスと、
前記表示装置を介してアバターナビゲーションユーザインターフェースを表示する手段であって、前記アバターナビゲーションユーザインターフェースがアバターを含んでいる、手段と、
前記アバターナビゲーションユーザインターフェースが表示されている間に、前記1つ以上の入力デバイスを介して、前記アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出する手段と、
前記ジェスチャを検出することに応じて、
前記ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターを前記アバターナビゲーションユーザインターフェースに表示し、
前記ジェスチャが前記第1の方向と反対の第2の方向であるという判定に従って、前記第1の種類と異なる第2の種類のアバターを前記アバターナビゲーションユーザインターフェースに表示する手段と、を備えている、電子デバイス。
a display device;
one or more input devices;
means for displaying an avatar navigation user interface via the display device, the avatar navigation user interface including an avatar;
means for detecting gestures directed at the avatar navigation user interface via the one or more input devices while the avatar navigation user interface is displayed;
In response to detecting the gesture,
displaying a first type of avatar on the avatar navigation user interface according to determining that the gesture is in a first direction;
means for displaying on the avatar navigation user interface a second type of avatar different from the first type upon determining that the gesture is in a second direction opposite the first direction. , electronic devices.
表示装置を有する電子デバイスで、
前記表示装置を介して、
複数のアバター特徴部を有するアバターと、
個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる前記個別のアバター特徴部の第1のオプション選択領域と、
前記個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる前記個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示することであって、前記個別のアバター特徴部の前記第2の特性が、前記個別のアバター特徴部の前記第1の特性と異なっている、ことと、
前記特徴部オプションの第1の集合の前記特徴部オプションのうちの1つの選択を検出することに応じて、前記特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することと、を含んでいる、方法。
An electronic device having a display,
Via the display device,
an avatar having a plurality of avatar features;
a first option selection region of the individual avatar feature containing a first set of feature options corresponding to a set of candidate values for the first characteristic of the individual avatar feature;
and simultaneously displaying a second option selection region of the individual avatar feature containing a second set of feature options corresponding to a set of candidate values for a second property of the individual avatar feature. wherein the second characteristic of the individual avatar feature is different than the first characteristic of the individual avatar feature. ,
converting at least one appearance of the second set of feature options from the first appearance in response to detecting selection of one of the feature options of the first set of feature options; changing to a second appearance.
前記特徴部オプションの第2の集合のうちの少なくとも1つの外観を前記第1の外観から前記第2の外観に変更することが、前記特徴部オプションの第2の集合のうちの少なくとも2つの外観を変更することを含む、請求項33に記載の方法。 changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance of at least two appearances of the second set of feature options; 34. The method of claim 33, comprising changing the . 前記特徴部オプションの第1の集合内の前記特徴部オプションのうちの前記1つの前記選択を検出することに応じて、前記特徴部オプションの第1の集合の前記外観を前記第1の外観から前記第2の外観に変更することを止めることを更に含む、請求項33又は34に記載の方法。 converting said appearance of said first set of feature options from said first appearance in response to detecting said selection of said one of said feature options in said first set of feature options; 35. The method of claim 33 or 34, further comprising ceasing to change to the second appearance. 前記特徴部オプションの第2の集合のうちの前記少なくとも1つの前記第2の外観が、前記特徴部オプションの第1の集合内の前記特徴部オプションのうちの前記選択された1つに基づく、請求項33から35のいずれか一項に記載の方法。 the second appearance of the at least one of the second set of feature options is based on the selected one of the feature options in the first set of feature options; 36. The method of any one of claims 33-35. 前記第1の外観から前記第2の外観に変化する前記特徴部オプションの第2の集合のうちの少なくとも1つを表示することが、前記特徴部オプションの第2の集合のうちの前記少なくとも1つが前記特徴部オプションの第1の集合のうちの前記選択された1つに対応するアバター特徴部の少なくとも一部を含んでいるという判定を含む、請求項33から36のいずれか一項に記載の方法。 Displaying at least one of the second set of feature options that change from the first appearance to the second appearance is performed by the at least one of the second set of feature options. 37. A determination according to any one of claims 33 to 36, comprising determining that one contains at least a portion of avatar features corresponding to said selected one of said first set of feature options. the method of. 前記特徴部オプションの第1の集合内の前記特徴部オプションのうちの前記1つの前記選択を検出することに応じて、前記特徴部オプションの第2の集合のうちの第2の1つが、前記特徴部オプションの第1の集合のうちの前記選択された1つに対応するアバター特徴部の少なくとも第2の一部を含んでいないという判定に従って、前記特徴部オプションの第2の集合のうちの前記第2の1つの前記外観を維持することを更に含んでいる、請求項33から37のいずれか一項に記載の方法。 in response to detecting said selection of said one of said feature options in said first set of feature options, a second one of said second set of feature options selects said of the second set of feature options according to a determination that it does not include at least a second portion of avatar features corresponding to the selected one of the first set of feature options. 38. The method of any one of claims 33-37, further comprising maintaining said appearance of said second one. 前記特徴部オプションの第2の集合のうちの前記少なくとも1つの前記外観を前記第1の外観から前記第2の外観に変更することが、前記第1の外観から前記第2の外観に変化する前記特徴部オプションの第2の集合のうちの前記少なくとも1つのアニメーションを表示することを含んでいる、請求項33から38のいずれか一項に記載の方法。 changing the appearance of the at least one of the second set of feature options from the first appearance to the second appearance changes from the first appearance to the second appearance 39. A method according to any one of claims 33 to 38, comprising displaying an animation of said at least one of said second set of feature options. 前記特徴部オプションの第1の集合内の前記特徴部オプションのうちの前記選択された1つが、毛髪の色オプションの第1の集合内の選択された毛髪の色であり、
前記特徴部オプションの第2の集合のうちの前記少なくとも1つが、毛髪の長さオプション、髪質オプション、及び髪形オプションのうちの1つ以上を含んでおり、
前記特徴部オプションの第2の集合のうちの少なくとも1つの前記外観を前記第1の外観から前記第2の外観に変更することが、前記毛髪の長さオプション、前記髪質オプション、及び前記髪形オプションのうちの1つ以上を、第1の毛髪の色から前記選択された毛髪の色に変更することを含んでいる、請求項33から39のいずれか一項に記載の方法。
the selected one of the feature options in the first set of feature options is a selected hair color in the first set of hair color options;
the at least one of the second set of feature options includes one or more of a hair length option, a hair texture option, and a hairstyle option;
Changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance comprises the hair length option, the hair texture option, and the hairstyle. 40. The method of any one of claims 33-39, comprising changing one or more of options from a first hair color to the selected hair color.
前記特徴部オプションの第1の集合内の前記特徴部オプションのうちの前記選択された1つが、髪質オプションの第1の集合内の選択された髪質であり、
前記特徴部オプションの第2の集合のうちの前記少なくとも1つが、毛髪の長さオプション及び髪形オプションのうちの1つ以上を含んでおり、
前記特徴部オプションの第2の集合のうちの少なくとも1つの前記外観を前記第1の外観から前記第2の外観に変更することが、前記毛髪の長さオプション及び前記髪形オプションのうちの1つ以上を、第1の髪質から前記選択された髪質に変更することを含んでいる、請求項33から40のいずれか一項に記載の方法。
the selected one of the feature options in the first set of feature options is a selected hair type in the first set of hair type options;
said at least one of said second set of feature options includes one or more of hair length options and hairstyle options;
changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance is one of the hair length option and the hairstyle option; 41. The method of any one of claims 33-40, comprising changing from a first hair type to the selected hair type.
前記特徴部オプションの第2の集合が、第1の特徴部オプションが順序において第2の特徴部オプションよりも前になり、前記第2の特徴部オプションが前記順序において第3の特徴部オプションよりも前になる前記順序で配置された複数の特徴部オプションを含んでおり、
前記特徴部オプションの第2の集合のうちの少なくとも1つの前記外観を第1の外観から第2の外観に変更することが、
前記第1の外観から前記第2の外観への、前記特徴部オプションの第2の集合のうちの前記第1の特徴部オプションの第1のアニメーション化された移行を表示することと、
前記第2の外観への前記第1の特徴部オプションの前記第1のアニメーション化された移行の少なくとも一部を表示した後に、前記第1の外観から前記第2の外観への、前記特徴部オプションの第2の集合のうちの前記第2の特徴部オプションの第2のアニメーション化された移行を開始することと、
前記第2の外観への前記第2の特徴部オプションの前記第2のアニメーション化された移行の少なくとも一部を表示した後に、前記第1の外観から前記第2の外観への、前記特徴部オプションの第2の集合のうちの前記第3の特徴部オプションの第3のアニメーション化された移行を開始することと、を含んでいる、請求項33から41のいずれか一項に記載の方法。
The second set of feature options is such that the first feature option precedes the second feature option in the order, and the second feature option precedes the third feature option in the order. contains a plurality of feature options arranged in said order that precedes
changing the appearance of at least one of the second set of feature options from a first appearance to a second appearance;
displaying a first animated transition of the first feature option of the second set of feature options from the first appearance to the second appearance;
the feature from the first appearance to the second appearance after displaying at least a portion of the first animated transition of the first feature option to the second appearance; initiating a second animated transition of the second feature option of the second set of options;
the feature from the first appearance to the second appearance after displaying at least a portion of the second animated transition of the second feature option to the second appearance; 42. The method of any one of claims 33-41, comprising initiating a third animated transition of the third feature option of a second set of options. .
前記特徴部オプションの第2の集合のうちの少なくとも1つの前記外観を前記第1の外観から前記第2の外観に変更することが、
前記特徴部オプションの第2の集合のうちの第1の1つのサイズを拡大し、その後、前記特徴部オプションの第2の集合のうちの前記第1の1つの前記サイズを縮小することとと、
前記特徴部オプションの第2の集合のうちの第2の1つのサイズを拡大し、その後、前記特徴部オプションの第2の集合のうちの前記第2の1つの前記サイズを縮小することと、を含んでいる、請求項33から42のいずれか一項に記載の方法。
changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance;
increasing the size of a first one of the second set of feature options and then decreasing the size of the first one of the second set of feature options; ,
increasing the size of a second one of the second set of feature options and then decreasing the size of the second one of the second set of feature options; 43. The method of any one of claims 33-42, comprising:
前記電子デバイスの1つ以上のカメラの視野内の顔における変化を検出することと、
前記顔における前記検出された変化に基づいて、前記アバターの外観を変更することと、を更に含んでいる、請求項33から43のいずれか一項に記載の方法。
detecting a change in a face within the field of view of one or more cameras of the electronic device;
44. The method of any one of claims 33-43, further comprising modifying the appearance of the avatar based on the detected changes in the face.
前記顔における前記変化を検出した後に、所定の時間の間、前記1つ以上のカメラの前記視野内で前記顔が検出されなかったと判定することと、
前記所定の時間の間、前記1つ以上のカメラの前記視野内で前記顔が検出されなかったという判定に応じて、前記顔における前記検出された変化に基づいて前記アバターの前記外観を変更することを止めることと、
前記アバターの前記外観を変更することを止めた後に、入力を検出することと、
前記入力を検出することに応じて、前記顔における前記検出された変化に基づいて前記アバターの前記外観を変更することを再開することと、を更に含んでいる、請求項44に記載の方法。
determining that the face has not been detected within the field of view of the one or more cameras for a predetermined amount of time after detecting the change in the face;
Modifying the appearance of the avatar based on the detected change in the face in response to determining that the face has not been detected within the field of view of the one or more cameras for the predetermined time. to stop and
detecting input after stopping changing the appearance of the avatar;
45. The method of claim 44, further comprising, in response to detecting the input, resuming modifying the appearance of the avatar based on the detected change in the face.
前記所定の時間の間、前記1つ以上のカメラの前記視野内で前記顔が検出されなかったという判定に応じて、前記1つ以上のカメラの前記視野内で前記顔が検出されていないことのインジケーションを表示することを更に含んでいる、請求項45に記載の方法。 The face has not been detected within the field of view of the one or more cameras in response to determining that the face has not been detected within the field of view of the one or more cameras for the predetermined period of time. 46. The method of claim 45, further comprising displaying an indication of . 前記入力が、前記デバイスが持ち上げられていることを検出することである、請求項45に記載の方法。 46. The method of claim 45, wherein said input is detecting that said device is being lifted. 前記入力が、前記アバター編集ユーザインターフェースに向けられたジェスチャである、請求項45に記載の方法。 46. The method of claim 45, wherein the input is a gesture directed at the avatar editing user interface. 入力に基づいて前記アバターの外観を変更することを更に含んでおり、前記入力に基づいて前記アバターの前記外観を変更することが、1つ以上の物理モデルに従って、前記複数のアバター特徴部のうちの1つ以上を動かすことを含んでいる、請求項33から48のいずれか一項に記載の方法。 further comprising modifying an appearance of the avatar based on input, wherein modifying the appearance of the avatar based on the input includes: modifying the appearance of the avatar according to one or more physical models; 49. A method according to any one of claims 33 to 48, comprising moving one or more of 前記アバター上のジェスチャを検出することと、
前記アバターの前記ジェスチャを検出することに応じて、
前記ジェスチャが第1の種類のジェスチャに対応するという判定に従って、前記ジェスチャに基づいて前記アバターのズームレベルを調整することと、
前記ジェスチャが第2の種類のジェスチャに対応するという判定に従って、前記ジェスチャに基づいて前記アバターの向きを調整することと、
前記特徴部オプションの第1の集合内の前記特徴部オプションのうちの1つの選択を検出することに応じて、前記選択された特徴部オプションに基づいて前記アバターを更新することと、を更に含んでいる、請求項33から49のいずれか一項に記載の方法。
detecting gestures on the avatar;
In response to detecting the gesture of the avatar,
adjusting a zoom level of the avatar based on the gesture according to a determination that the gesture corresponds to a first type of gesture;
adjusting the orientation of the avatar based on the gesture according to a determination that the gesture corresponds to a second type of gesture;
responsive to detecting selection of one of the feature options in the first set of feature options, updating the avatar based on the selected feature option. 50. The method of any one of claims 33-49, wherein
個別の特徴部オプションが前記個別のアバター特徴部の表現を含んでおり、前記個別のアバター特徴部の前記表現が、前記表示されたアバターの前記個別のアバター特徴部と比較して拡大された表示を有して表示される、請求項33から50のいずれか一項に記載の方法。 A display wherein a distinct feature option includes a representation of the distinct avatar feature, wherein the representation of the distinct avatar feature is magnified relative to the distinct avatar feature of the displayed avatar. 51. A method according to any one of claims 33 to 50, displayed with a . 第2の個別の特徴部オプションが、前記個別のアバター特徴部の表現を含んでおり、異なるアバター特徴部の少なくとも一部を除外する、請求項33から51のいずれか一項に記載の方法。 52. A method according to any one of claims 33 to 51, wherein a second individual feature option includes representations of said individual avatar features and excludes at least some of the different avatar features. 前記アバター編集ユーザインターフェースを表示することが、
アバター特徴部に対応する複数のアフォーダンスを含んでいるアバター特徴部部分領域を表示することを更に含んでおり、前記複数のアフォーダンスが、前記個別のアバター特徴部に対応する第1の選択されたアフォーダンスを含んでいる、請求項33から52のいずれか一項に記載の方法。
displaying the avatar editing user interface;
The method further includes displaying an avatar feature subregion including a plurality of affordances corresponding to the avatar feature, the plurality of affordances being a first selected affordance corresponding to the individual avatar feature. 53. The method of any one of claims 33-52, comprising:
前記特徴部オプションの第1の集合内の前記特徴部オプションのうちの前記1つの前記選択を検出することに応じて、
アバター特徴部に対応する前記複数のアフォーダンスのうちの第2の1つに関連付けられた視覚効果のアニメーションを表示することを更に含んでいる、請求項53に記載の方法。
in response to detecting the selection of the one of the feature options in the first set of feature options;
54. The method of claim 53, further comprising displaying an animation of a visual effect associated with a second one of the plurality of affordances corresponding to an avatar feature.
第2のアバター特徴部に対応する第2のアフォーダンスの選択を検出することに応じて、
前記第2のアバター特徴部の第1の特性の候補値の集合に対応する更新された特徴部オプションの第1の集合を表示するように、前記第1のオプション選択領域を更新することと、
前記第2のアバター特徴部の第2の特性の候補値の集合に対応する更新された特徴部オプションの第2の集合を表示するように、前記第2のオプション選択領域を更新することと、を更に含んでいる、請求項53に記載の方法。
In response to detecting selection of a second affordance corresponding to a second avatar feature,
updating the first option selection region to display a first set of updated feature options corresponding to a set of candidate values for the first property of the second avatar feature;
updating the second option selection region to display a second set of updated feature options corresponding to a set of candidate values for a second characteristic of the second avatar feature; 54. The method of claim 53, further comprising:
前記アバター特徴部部分領域が前記アバター編集ユーザインターフェースの第1の領域に表示され、
前記第1のオプション選択領域及び前記第2のオプション選択領域が、前記アバター編集ユーザインターフェースの第2の領域に表示され、前記第2の領域が前記第1の領域の下に配置されて表示される、請求項53に記載の方法。
displaying the avatar features subregion in a first region of the avatar editing user interface;
The first option selection area and the second option selection area are displayed in a second area of the avatar editing user interface, the second area being positioned below the first area. 54. The method of claim 53, wherein
前記特徴部オプションの第1の集合が、色に対応する複数の色アフォーダンスを含んでおり、前記複数の色アフォーダンスが、前記個別のアバター特徴部の色に対応する第1の選択された色アフォーダンスを含んでいる、請求項33から56のいずれか一項に記載の方法。 wherein the first set of feature options includes a plurality of color affordances corresponding to color, the plurality of color affordances being a first selected color affordance corresponding to the individual avatar feature color 57. The method of any one of claims 33-56, comprising: 前記複数の色アフォーダンスのうちの1つの選択を検出することに応じて、前記選択された色アフォーダンスに対応する選択された色、及び前記複数の色アフォーダンスに含まれていない複数のその他の色オプションを有するカラーピッカーユーザインターフェースを表示することを更に含んでいる、請求項57に記載の方法。 A selected color corresponding to the selected color affordance and a plurality of other color options not included in the plurality of color affordances, in response to detecting selection of one of the plurality of color affordances. 58. The method of claim 57, further comprising displaying a color picker user interface having a . 前記複数の色アフォーダンスがアバターの肌の色特徴部の色に対応するという判定に従って、前記複数の色アフォーダンスが、前記アバターの肌の色特徴部の色に対応する色アフォーダンスの拡張された集合を含んでいる、請求項57に記載の方法。 according to a determination that the plurality of color affordances correspond to skin color feature colors of an avatar, wherein the plurality of color affordances is an expanded set of color affordances corresponding to skin color feature colors of the avatar; 58. The method of claim 57, comprising: 前記複数の色アフォーダンスが第1の種類のアバター特徴部の色に対応しており、前記方法が、
前記複数の色アフォーダンスの第1の部分を表示することと、
前記複数の色アフォーダンス上のジェスチャを検出することと、
前記ジェスチャを検出することに応じて、前記色アフォーダンスの第1の部分を表示することを止めて、色アフォーダンスの第2の部分を表示することと、を更に含んでおり、前記色アフォーダンスの第2の部分が、前記色アフォーダンスの第1の部分とは異なる色アフォーダンスの拡張された集合に対応するアフォーダンス、及び前記色アフォーダンスの第2の部分を含んでいる、請求項57に記載の方法。
wherein the plurality of color affordances correspond to colors of a first type of avatar feature, the method comprising:
displaying a first portion of the plurality of color affordances;
detecting a gesture on the plurality of color affordances;
ceasing to display a first portion of the color affordance and displaying a second portion of the color affordance in response to detecting the gesture; 58. The method of claim 57, wherein two parts include affordances corresponding to an expanded set of color affordances different from the first part of the color affordances, and a second part of the color affordances.
前記複数の色アフォーダンスが、拡張された状態で表示された場合に、横方向にスクロール不可能である、請求項57に記載の方法。 58. The method of claim 57, wherein the plurality of color affordances are horizontally non-scrollable when displayed in an expanded state. 前記第1の特性又は前記第2の特性のうちの少なくとも1つが、前記個別のアバター特徴部の特徴部形状に対応する、請求項33から61のいずれか一項に記載の方法。 62. The method of any one of claims 33-61, wherein at least one of the first property or the second property corresponds to a feature shape of the individual avatar feature. 前記個別のアバター特徴部がアバターの顔であり、
前記第1の特性及び前記第2の特性が、頭部の形状、肌の色、鼻のサイズ、鼻の形状、唇の形状、唇の色、耳のサイズ、顔の毛のスタイル、及び年齢から成る群から選択される、請求項33から62のいずれか一項に記載の方法。
the distinct avatar feature is an avatar face;
wherein said first characteristic and said second characteristic are head shape, skin color, nose size, nose shape, lip shape, lip color, ear size, facial hair style, and age 63. The method of any one of claims 33-62, selected from the group consisting of:
前記個別のアバター特徴部がアバターの毛髪であり、
前記第1の特性及び前記第2の特性が、毛髪の色、髪形、長さ、髪質、毛髪の部分、上げた髪、下げた髪、及び生え際から成る群から選択される、請求項33から63のいずれか一項に記載の方法。
the discrete avatar feature is avatar hair;
34. Claim 33, wherein said first characteristic and said second characteristic are selected from the group consisting of hair color, hairstyle, length, hair texture, hair part, raised hair, lowered hair, and hairline. 64. The method of any one of 63.
前記個別のアバター特徴部がアバターの目であり、
前記第1の特性及び前記第2の特性が、目の形状、目の色、まつげ、及び眉の形状から成る群から選択される、請求項33から64のいずれか一項に記載の方法。
the individual avatar features are avatar eyes;
65. A method according to any one of claims 33 to 64, wherein said first characteristic and said second characteristic are selected from the group consisting of eye shape, eye color, eyelashes and brow shape.
前記個別のアバター特徴部がアクセサリであり、
前記第1の特性及び前記第2の特性が、帽子、眼鏡、イヤリング、及び装飾拡張物から成る群から選択される、請求項33から65のいずれか一項に記載の方法。
the individual avatar feature is an accessory;
66. The method of any one of claims 33-65, wherein said first property and said second property are selected from the group consisting of hats, eyeglasses, earrings, and decorative extensions.
前記アバター編集ユーザインターフェース上の縦方向のジェスチャを検出することに応じて、前記アバター編集ユーザインターフェースを前記縦方向のジェスチャに対応する縦方向にスクロールすることを更に含んでおり、前記アバター編集ユーザインターフェースをスクロールすることが、前記表示されたアバターを含んでいる領域の縦方向の位置を維持しながら、前記第1のオプション選択領域及び第2のオプション選択領域を前記縦方向のジェスチャの前記方向にスクロールすることを含んでいる、請求項33から66のいずれか一項に記載の方法。 responsive to detecting a vertical gesture on the avatar editing user interface, further comprising scrolling the avatar editing user interface in a vertical direction corresponding to the vertical gesture; moves the first option selection area and the second option selection area in the direction of the vertical gesture while maintaining the vertical position of the area containing the displayed avatar. 67. A method according to any one of claims 33 to 66, comprising scrolling. 前記アバター編集ユーザインターフェースのアバター特徴部部分領域上のジェスチャを検出することに応じて、
第1のアバター特徴部が選択されている第1の外観から、第2のアバター特徴部が選択されている第2の外観に変化する前記アバター特徴部部分領域を表示することと、
前記第1及び第2のオプション選択領域を表示することを止めることと、
第1の特徴部オプションが順序において第2の特徴部オプションよりも前になり、前記第2の特徴部オプションが前記順序において第3の特徴部オプションよりも前になる前記順序で配置された複数の特徴部オプションを有する第3のオプション選択領域を表示することと、
第1の特徴部オプションが順序において第2の特徴部オプションよりも前になり、前記第2の特徴部オプションが前記順序において第3の特徴部オプションよりも前になる前記順序で配置された複数の特徴部オプションを有する第4のオプション選択領域を表示することと、を更に含んでおり、
前記第3のオプション選択領域を表示することが、前記第3のオプション選択領域の前記複数の特徴部オプションを順番に表示することを含む、第1のアニメーションを表示することを含んでおり、
前記第4のオプション選択領域を表示することが、
前記第1のアニメーションの少なくとも一部を表示した後に、前記第4のオプション選択領域の前記複数の特徴部オプションを順番に表示することを含む、第2のアニメーションを開始することを含んでいる、請求項33から67のいずれか一項に記載の方法。
In response to detecting a gesture over an avatar feature subregion of the avatar editing user interface,
displaying the avatar feature subregion changing from a first appearance with a first avatar feature selected to a second appearance with a second avatar feature selected;
ceasing to display the first and second option selection areas;
a plurality arranged in said order with a first feature option preceding a second feature option in said order and said second feature option preceding a third feature option in said order displaying a third option selection area having feature options for
a plurality arranged in said order with a first feature option preceding a second feature option in said order and said second feature option preceding a third feature option in said order displaying a fourth option selection area having feature options for
displaying the third option selection area includes displaying a first animation including sequentially displaying the plurality of feature options of the third option selection area;
displaying the fourth option selection area;
after displaying at least a portion of the first animation, initiating a second animation including sequentially displaying the plurality of feature options of the fourth option selection area; 68. The method of any one of claims 33-67.
前記アバターが第1のサイズ又は第2のサイズであり、前記方法が、
前記アバター編集ユーザインターフェース上のジェスチャを検出することと、
前記ジェスチャが前記特徴部オプションの第1又は第2の集合内の特徴部オプションの選択に対応しており、前記アバターが前記第2のサイズであるという判定に従って、
前記第2のサイズから前記第1のサイズに移行する前記アバターを表示することと、
前記ジェスチャがスクロールジェスチャであり、前記アバターが前記第1のサイズであるという判定に従って、
前記スクロールジェスチャが第1のスクロール方向に対応する場合に、前記第2のサイズに移行する前記アバターを表示することと、
前記ジェスチャが前記スクロールジェスチャであり、前記アバターが前記第2のサイズであるという判定に従って、
前記スクロールジェスチャが前記第1の方向と異なる第2のスクロール方向に対応する場合に、前記第1のサイズに移行する前記アバターを表示することと、を更に含んでいる、請求項33から68のいずれか一項に記載の方法。
The avatar is a first size or a second size, and the method comprises:
detecting gestures on the avatar editing user interface;
according to determining that the gesture corresponds to selecting a feature option within the first or second set of feature options and the avatar is the second size;
displaying the avatar transitioning from the second size to the first size;
According to determining that the gesture is a scroll gesture and the avatar is the first size,
displaying the avatar transitioning to the second size when the scrolling gesture corresponds to a first scrolling direction;
According to a determination that the gesture is the scroll gesture and the avatar is the second size,
and displaying the avatar transitioning to the first size when the scrolling gesture corresponds to a second scrolling direction different from the first direction. A method according to any one of paragraphs.
前記ジェスチャが前記スクロールジェスチャであり、前記アバターが前記第1のサイズであるという判定に従って、
前記スクロールジェスチャが前記第2のスクロール方向に対応する場合に、前記第2のサイズに移行する前記アバターを表示することを止めることを更に含んでいる、請求項69に記載の方法。
According to determining that the gesture is the scroll gesture and the avatar is the first size,
70. The method of Claim 69, further comprising stopping displaying the avatar transitioning to the second size when the scrolling gesture corresponds to the second scrolling direction.
前記特徴部オプションのうちの前記1つの前記選択を検出する前に、複数の異なる色値を通って時間と共に変化する肌の色を有する前記アバターが表示される、請求項33から70のいずれか一項に記載の方法。 71. Any of claims 33-70, wherein prior to detecting the selection of the one of the feature options, the avatar is displayed having skin color that varies over time through a plurality of different color values. The method according to item 1. 前記特徴部オプションのうちの前記1つの前記選択を検出する前に、前記アバターが非対話状態で表示される、請求項33から71のいずれか一項に記載の方法。 72. The method of any one of claims 33-71, wherein prior to detecting the selection of the one of the feature options, the avatar is displayed in a non-interactive state. 前記アバター編集ユーザインターフェース上の入力を検出することに応じて、
前記色の効果の変動がない前記アバターを表示することと、
前記非対話状態から対話状態に移行する前記アバターを表示することと、を更に含んでいる、請求項33から72のいずれか一項に記載の方法。
In response to detecting input on the avatar editing user interface,
displaying the avatar without variation of the color effect;
73. The method of any one of claims 33-72, further comprising displaying the avatar transitioning from the non-interactive state to an interactive state.
表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項33から73のいずれか一項に記載の方法を実行する命令を含んでいる、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device with a display, wherein the one or more programs are according to claim 74. A non-transitory computer-readable storage medium containing instructions for performing the method of any one of Clauses 33-73. 表示装置と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、請求項33から73のいずれか一項に記載の方法を実行する命令を含んでいる、電子デバイス。
a display device;
one or more processors;
and a memory storing one or more programs configured to be executed by said one or more processors, wherein said one or more programs are the An electronic device comprising instructions for performing the method of any one of claims 1 to 3.
表示装置と、
請求項33から73のいずれか一項に記載の方法を実行する手段と、を備えている、電子デバイス。
a display device;
means for performing the method of any one of claims 33-73.
表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示装置を介して、
複数のアバター特徴部を有するアバターと、
前記個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、
前記個別のアバター特徴部の第2の特性であって、前記個別のアバター特徴部の前記第2の特性が、前記個別のアバター特徴部の前記第1の特性と異なっている、前記個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる前記個別のアバター特徴部の第2のオプション選択領域と、を同時に表示し、
前記特徴部オプションの第1の集合内の前記特徴部オプションのうちの1つの選択を検出することに応じて、前記特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することと、を含んでいる、アバター編集ユーザインターフェースを表示する、命令を含んでいる、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device with a display, the one or more programs comprising:
Via the display device,
an avatar having a plurality of avatar features;
an individual avatar feature first option selection area containing a first set of feature options corresponding to a set of candidate values for a first property of the individual avatar feature;
a second property of the individual avatar feature, wherein the second property of the individual avatar feature is different than the first property of the individual avatar feature simultaneously displaying a second option selection area for the individual avatar feature containing a second set of feature options corresponding to a set of candidate values for a second property of the feature;
converting at least one appearance of the second set of feature options to a first appearance in response to detecting selection of one of the feature options in the first set of feature options; a non-transitory computer-readable storage medium containing instructions for displaying an avatar editing user interface, including:
表示装置と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、
前記表示装置を介して、
複数のアバター特徴部を有するアバターと、
前記個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、
前記個別のアバター特徴部の第2の特性であって、前記個別のアバター特徴部の前記第2の特性が、前記個別のアバター特徴部の前記第1の特性と異なっている、前記個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる前記個別のアバター特徴部の第2のオプション選択領域と、を同時に表示し、
前記特徴部オプションの第1の集合内の前記特徴部オプションのうちの1つの選択を検出することに応じて、前記特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することと、を含んでいる、アバター編集ユーザインターフェースを表示する、命令を含んでいる、電子デバイス。
a display device;
one or more processors;
and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising:
Via the display device,
an avatar having a plurality of avatar features;
an individual avatar feature first option selection area containing a first set of feature options corresponding to a set of candidate values for a first property of the individual avatar feature;
a second property of the individual avatar feature, wherein the second property of the individual avatar feature is different than the first property of the individual avatar feature simultaneously displaying a second option selection area for the individual avatar feature containing a second set of feature options corresponding to a set of candidate values for a second property of the feature;
converting at least one appearance of the second set of feature options to a first appearance in response to detecting selection of one of the feature options in the first set of feature options; an electronic device comprising instructions for displaying an avatar editing user interface, including changing from to a second appearance.
表示装置と、
前記表示装置を介して、
複数のアバター特徴部を有するアバターと、
前記個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、
前記個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる前記個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示する手段であって、前記個別のアバター特徴部の前記第2の特性が、前記個別のアバター特徴部の前記第1の特性と異なっている、手段と、
前記特徴部オプションの第1の集合内の前記特徴部オプションのうちの1つの選択を検出することに応じて、前記特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更する手段と、を備えている、電子デバイス。
a display device;
Via the display device,
an avatar having a plurality of avatar features;
an individual avatar feature first option selection region containing a first set of feature options corresponding to a set of candidate values for a first property of the individual avatar feature;
and simultaneously displaying a second option selection region of the individual avatar feature containing a second set of feature options corresponding to a set of candidate values for a second property of the individual avatar feature. and wherein said second characteristic of said individual avatar feature is different than said first characteristic of said individual avatar feature. ,
converting at least one appearance of the second set of feature options to a first appearance in response to detecting selection of one of the feature options in the first set of feature options; and means for changing from the second appearance to the second appearance.
表示装置を有する電子デバイスで、
前記表示装置を介して、
1つ以上の色の第1の集合を有する個別の特徴を含んでいるユーザインターフェースオブジェクトと、
前記個別の特徴の複数の色オプションと、を表示することと、
第2の色に対応する前記複数の色オプションのうちの色オプションの選択を検出することと、
前記選択を検出することに応じて、
前記個別の特徴の前記色を前記色オプションに変更することと、
1つ以上の色の第2の集合に対応する前記色オプションのための第1の色調整制御を表示することと、
前記ユーザインターフェースオブジェクトの前記個別の特徴が前記1つ以上の色の第2の集合を有している間に、前記第1の色調整制御に対応する入力を検出することと、
前記第1の色調整制御に対応する前記入力を検出することに応じて、前記第2の色に基づいて、前記個別の特徴の前記色を、前記1つ以上の色の第2の集合から、前記1つ以上の色の第2の集合の変更されたバージョンに変更することと、を含んでいる、方法。
An electronic device having a display,
Via the display device,
a user interface object including individual features having a first set of one or more colors;
displaying a plurality of color options for the individual feature;
detecting selection of a color option among the plurality of color options corresponding to a second color;
In response to detecting said selection,
changing the color of the individual feature to the color option;
displaying a first color adjustment control for the color option corresponding to a second set of one or more colors;
detecting input corresponding to the first color adjustment control while the individual feature of the user interface object has the second set of one or more colors;
responsive to detecting said input corresponding to said first color adjustment control, based on said second color, said color of said individual feature from said second set of said one or more colors; , changing to a modified version of the second set of one or more colors.
前記個別の特徴の前記色を前記1つ以上の色の第2の集合から前記1つ以上の色の第2の集合の前記変更されたバージョンに変更することが、前記第1の色調整制御に対応する前記入力の大きさ及び方向に更に基づく、請求項80に記載の方法。 changing the color of the individual feature from the second set of one or more colors to the modified version of the second set of one or more colors is the first color adjustment control; 81. The method of claim 80, further based on the magnitude and direction of the input corresponding to . 前記第1の色調整制御に対応する前記入力を検出することに応じて、前記色オプションの前記色を、前記第2の色から、前記1つ以上の色の第2の集合の前記変更されたバージョンに変更することを更に含んでいる、請求項80又は81に記載の方法。 changing the color of the color option from the second color to the second set of one or more colors in response to detecting the input corresponding to the first color adjustment control; 82. A method according to claim 80 or 81, further comprising changing to an earlier version. 第2の特徴の第2の複数の色オプションを表示することと、
前記第2の複数の色オプションのうちの第2の色オプションの選択を検出することと、
前記第2の色オプションの前記選択を検出することに応じて、
前記第2の特徴の色を前記第2の色オプションに変更することと、
1つ以上の色の第3の集合に対応する前記第2の色オプションのための第2の色調整制御を表示することと、を更に含んでいる、請求項80から82のいずれか一項に記載の方法。
displaying a second plurality of color options for a second feature;
detecting selection of a second color option of the second plurality of color options;
In response to detecting said selection of said second color option,
changing the color of the second feature to the second color option;
83. Displaying a second color adjustment control for said second color option corresponding to a third set of one or more colors. The method described in .
前記個別の特徴及び第2の特徴が、それぞれアバターの眼鏡の特徴の一部に対応し、
前記複数の色オプションが前記アバターの眼鏡のフレームの色に対応し、
前記第2の複数の色オプションが前記アバターの眼鏡のレンズの色に対応する、請求項83に記載の方法。
the individual feature and the second feature each correspond to a portion of the avatar's eyeglass feature;
the plurality of color options corresponding to the color of the avatar's eyeglass frames;
84. The method of claim 83, wherein the second plurality of color options corresponds to a lens color of the avatar's eyeglasses.
前記第2の色調整制御に対応する入力を検出することと、
前記第2の色調整制御に対応する前記入力を検出することに応じて、前記アバターの眼鏡の前記レンズの不透明度を変更することと、を更に含んでいる、請求項84に記載の方法。
detecting an input corresponding to the second color adjustment control;
85. The method of Claim 84, further comprising changing the opacity of the lenses of the avatar's glasses in response to detecting the input corresponding to the second color adjustment control.
前記第2の色オプションの前記選択を検出することに応じて、前記1つ以上の色の第2の集合に対応する前記色オプションのための前記第1の色調整制御を表示することを止めることを更に含んでいる、請求項83から85のいずれか一項に記載の方法。 ceasing to display the first color adjustment control for the color option corresponding to the second set of the one or more colors in response to detecting the selection of the second color option; 86. The method of any one of claims 83-85, further comprising: 前記1つ以上の色の第2の集合に対応する前記色オプションのための前記第1の色調整制御を表示することを止めた後に、前記第2の色に対応する前記複数の色オプションのうちの前記色オプションのその後の選択を検出することと、
前記その後の選択を検出することに応じて、前記色オプションのための前記第1の色調整制御の表示を再開することと、を更に含んでおり、前記第1の色調整制御が前記1つ以上の色の第2の集合の前記変更されたバージョンに対応している、請求項86に記載の方法。
After ceasing to display the first color adjustment control for the color option corresponding to the second set of one or more colors, displaying the plurality of color options corresponding to the second color. detecting subsequent selection of said color option of;
responsive to detecting the subsequent selection, resuming display of the first color adjustment control for the color option, wherein the first color adjustment control is 87. The method of claim 86, corresponding to said modified version of said second set of colors.
前記1つ以上の色の第2の集合に対応する前記第1の色調整制御を表示することを止めた後に、前記1つ以上の色の第2の集合の前記変更されたバージョンを有する前記複数の色オプションのうちの前記色オプションの表示を維持することを更に含んでいる、請求項83から87のいずれか一項に記載の方法。 having the modified version of the second set of one or more colors after ceasing to display the first color adjustment control corresponding to the second set of one or more colors; 88. The method of any one of claims 83-87, further comprising maintaining display of said color option of a plurality of color options. 前記第1の色調整制御に対応する前記入力が第1の方向を含んでいるという判定に応じて、前記1つ以上の色の第2の集合を第1の方法で変更することと、
前記第2の色調整制御に対応する第2の入力が前記第1の方向を含んでいるという判定に応じて、前記1つ以上の色の第3の集合を前記第1の方法で変更することと、を更に含んでいる、請求項83から88のいずれか一項に記載の方法。
modifying the second set of one or more colors in a first manner in response to determining that the input corresponding to the first color adjustment control includes a first direction;
modifying the third set of one or more colors in the first manner in response to determining that a second input corresponding to the second color adjustment control includes the first direction; 89. The method of any one of claims 83-88, further comprising:
前記第2の色に基づいて前記個別の特徴の前記色を前記1つ以上の色の第2の集合から前記1つ以上の色の第2の集合の変更されたバージョンに変更することが、
前記第1の色調整制御に対応する前記入力が第2の方向の移動を含んでいるという判定に従って、前記1つ以上の色の第2の集合の赤色の値を増やすことと、
前記第1の色調整制御に対応する前記入力が第3の方向の移動を含んでいるという判定に従って、前記1つ以上の色の第2の集合の緑色の値を増やすことと、を含んでおり、
前記方法が、前記ユーザインターフェースオブジェクトの前記個別の特徴が前記1つ以上の色の第3の集合を有している間に、前記第2の色調整制御に対応する入力を検出することと、
前記第2の色調整制御に対応する前記入力を検出することに応じて、前記第2の色に基づいて、前記個別の特徴の前記色を、前記1つ以上の色の第3の集合から、前記1つ以上の色の第3の集合の変更されたバージョンに変更することと、を含んでおり、前記変更することが、
前記第2の色調整制御に対応する前記第2の入力が前記第2の方向の移動を含んでいるという判定に従って、前記1つ以上の色の第3の集合の赤色の値を増やすことと、
前記第2の色調整制御に対応する前記第2の入力が前記第3の方向の移動を含んでいるという判定に従って、前記1つ以上の色の第3の集合の緑色の値を増やすことと、を含んでいる、請求項83から89のいずれか一項に記載の方法。
changing the color of the individual feature from the second set of one or more colors to a modified version of the second set of one or more colors based on the second color;
increasing the red value of the second set of one or more colors according to a determination that the input corresponding to the first color adjustment control includes movement in a second direction;
increasing green values of the second set of one or more colors in accordance with a determination that the input corresponding to the first color adjustment control includes movement in a third direction. cage,
the method detecting input corresponding to the second color adjustment control while the individual feature of the user interface object has the third set of one or more colors;
responsive to detecting said input corresponding to said second color adjustment control, based on said second color, said color of said individual feature from said third set of said one or more colors; , to a modified version of the third set of one or more colors, said modifying comprising:
increasing red values of the third set of one or more colors according to a determination that the second input corresponding to the second color adjustment control includes movement in the second direction; ,
increasing the green value of the third set of one or more colors according to a determination that the second input corresponding to the second color adjustment control includes movement in the third direction; 90. The method of any one of claims 83-89, comprising:
前記個別の特徴がアバターの肌の色である、請求項80から90のいずれか一項に記載の方法。 91. A method according to any one of claims 80 to 90, wherein said distinct feature is the avatar's skin color. 前記個別の特徴がアバターの目の色である、請求項80から91のいずれか一項に記載の方法。 92. A method according to any one of claims 80 to 91, wherein said distinct feature is the avatar's eye color. 前記個別の特徴がアバターの毛髪の色である、請求項80から92のいずれか一項に記載の方法。 93. A method according to any one of claims 80 to 92, wherein said distinct feature is the avatar's hair color. 前記個別の特徴の前記色を前記1つ以上の色の第2の集合から前記1つ以上の色の第2の集合の前記変更されたバージョンに変更することが、前記1つ以上の色の第2の集合複数の値を変更することを含んでいる、請求項80から93のいずれか一項に記載の方法。 changing the color of the individual feature from the second set of one or more colors to the modified version of the second set of one or more colors; 94. A method according to any one of claims 80 to 93, comprising changing values of the second set plurality. 前記1つ以上の色の第2の集合に対応する前記色オプションのための前記第1の色調整制御が、トラック及び前記トラック内で移動するサムを有するスライダーを含んでおり、前記入力が前記トラック内の前記サムの移動を引き起こし、前記方法が、
前記入力を検出することに応じて、前記サムが既定の位置に移動されることに従って、触覚フィードバックを生成することを更に含んでいる、請求項80から94のいずれか一項に記載の方法。
The first color adjustment control for the color option corresponding to the second set of one or more colors includes a slider having a track and a thumb that moves within the track, and the input is the causing movement of the thumb within a track, the method comprising:
95. The method of any one of claims 80-94, further comprising generating haptic feedback as the thumb is moved to a predetermined position in response to detecting the input.
表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項80から95のいずれか一項に記載の方法を実行する命令を含んでいる、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device with a display, wherein the one or more programs are according to claim 96. A non-transitory computer readable storage medium containing instructions for performing the method of any one of Clauses 80-95. 表示装置と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、請求項80から95のいずれか一項に記載の方法を実行する命令を含んでいる、電子デバイス。
a display device;
one or more processors;
and a memory storing one or more programs configured to be executed by said one or more processors, said one or more programs being the An electronic device comprising instructions for performing the method of any one of claims 1 to 3.
表示装置と、
請求項80から95のいずれか一項に記載の方法を実行するための手段と、を備えている、電子デバイス。
a display device;
means for performing the method of any one of claims 80-95.
表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示装置を介して、
1つ以上の色の第1の集合を有する個別の特徴を含んでいるユーザインターフェースオブジェクトと、
前記個別の特徴の複数の色オプションと、を表示し、
第2の色に対応する前記複数の色オプションのうちの色オプションの選択を検出し、
前記選択を検出することに応じて、
前記個別の特徴の前記色を前記色オプションに変更し、
1つ以上の色の第2の集合に対応する前記色オプションのための第1の色調整制御を表示し、
前記ユーザインターフェースオブジェクトの前記個別の特徴が前記1つ以上の色の第2の集合を有している間に、前記第1の色調整制御に対応する入力を検出し、
前記第1の色調整制御に対応する前記入力を検出することに応じて、前記第2の色に基づいて、前記個別の特徴の前記色を、前記1つ以上の色の第2の集合から、前記1つ以上の色の第2の集合の変更されたバージョンに変更する、命令を含んでいる、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device with a display, the one or more programs comprising:
Via the display device,
a user interface object including individual features having a first set of one or more colors;
displaying a plurality of color options for the individual features;
detecting selection of a color option among the plurality of color options corresponding to a second color;
In response to detecting said selection,
changing the color of the individual feature to the color option;
displaying a first color adjustment control for the color option corresponding to a second set of one or more colors;
detecting input corresponding to the first color adjustment control while the individual feature of the user interface object has the second set of one or more colors;
responsive to detecting said input corresponding to said first color adjustment control, based on said second color, said color of said individual feature from said second set of said one or more colors; , a non-transitory computer-readable storage medium containing instructions for changing to a modified version of the second set of one or more colors.
表示装置と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、
前記表示装置を介して、
1つ以上の色の第1の集合を有する個別の特徴を含んでいるユーザインターフェースオブジェクトと、
前記個別の特徴の複数の色オプションと、を表示し、
第2の色に対応する前記複数の色オプションのうちの色オプションの選択を検出し、
前記選択を検出することに応じて、
前記個別の特徴の前記色を前記色オプションに変更し、
1つ以上の色の第2の集合に対応する前記色オプションのための第1の色調整制御を表示し、
前記ユーザインターフェースオブジェクトの前記個別の特徴が前記1つ以上の色の第2の集合を有している間に、前記第1の色調整制御に対応する入力を検出し、
前記第1の色調整制御に対応する前記入力を検出することに応じて、前記第2の色に基づいて、前記個別の特徴の前記色を、前記1つ以上の色の第2の集合から、前記1つ以上の色の第2の集合の変更されたバージョンに変更する、命令を含んでいる、電子デバイス。
a display device;
one or more processors;
and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising:
Via the display device,
a user interface object including individual features having a first set of one or more colors;
displaying a plurality of color options for the individual features;
detecting selection of a color option among the plurality of color options corresponding to a second color;
In response to detecting said selection,
changing the color of the individual feature to the color option;
displaying a first color adjustment control for the color option corresponding to a second set of one or more colors;
detecting input corresponding to the first color adjustment control while the individual feature of the user interface object has the second set of one or more colors;
responsive to detecting said input corresponding to said first color adjustment control, based on said second color, converting said color of said individual feature from said second set of said one or more colors; , an electronic device comprising instructions to change to a modified version of the second set of one or more colors.
表示装置と、
前記表示装置を介して、
1つ以上の色の第1の集合を有する個別の特徴を含んでいるユーザインターフェースオブジェクトと、
前記個別の特徴の複数の色オプションと、を表示する手段と、
第2の色に対応する前記複数の色オプションのうちの色オプションの選択を検出する手段と、
前記選択を検出することに応じて、
前記個別の特徴の前記色を前記色オプションに変更する手段と、
1つ以上の色の第2の集合に対応する前記色オプションのための第1の色調整制御を表示する手段と、
前記ユーザインターフェースオブジェクトの前記個別の特徴が前記1つ以上の色の第2の集合を有している間に、前記第1の色調整制御に対応する入力を検出する手段と、
前記第1の色調整制御に対応する前記入力を検出することに応じて、前記第2の色に基づいて、前記個別の特徴の前記色を、前記1つ以上の色の第2の集合から、前記1つ以上の色の第2の集合の変更されたバージョンに変更する手段と、を備えている、電子デバイス。
a display device;
Via the display device,
a user interface object including individual features having a first set of one or more colors;
means for displaying a plurality of color options for said individual feature;
means for detecting selection of a color option among the plurality of color options corresponding to a second color;
In response to detecting said selection,
means for changing the color of the individual feature to the color option;
means for displaying a first color adjustment control for said color option corresponding to a second set of one or more colors;
means for detecting input corresponding to the first color adjustment control while the individual feature of the user interface object has the second set of one or more colors;
responsive to detecting said input corresponding to said first color adjustment control, based on said second color, said color of said individual feature from said second set of said one or more colors; and means for changing to a modified version of said second set of one or more colors.
表示装置を有する電子デバイスで、
前記表示装置を介して、
1つ以上の色の第1の集合を有する第1のアバター特徴部、及び前記1つ以上の色の第1の集合に基づく、前記1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、
前記第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示することと、
前記複数の色オプションのうちの個別の色オプションの選択を検出することと、
前記第1のアバター特徴部の前記複数の色オプションのうちの前記個別の色オプションの選択を検出することに応じて、前記個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、前記アバターの外観を更新することと、を含んでおり、前記更新することが、
前記第1のアバター特徴部を前記1つ以上の色の第2の集合に変更することと、
前記第2のアバター特徴部を、前記1つ以上の色の第2の集合に基づく、前記1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更することと、を含んでいる、方法。
An electronic device having a display,
Via the display device,
a first avatar feature having a first set of one or more colors; and one different from the first set of one or more colors based on the first set of one or more colors. an avatar having a plurality of avatar features including a second avatar feature having the set of colors;
displaying an avatar editing user interface including displaying a plurality of color options corresponding to the first avatar feature;
detecting selection of individual color options of the plurality of color options;
responsive to detecting selection of the individual color option of the plurality of color options of the first avatar feature, the individual color option corresponding to a second set of one or more colors; updating the appearance of the avatar according to a determination that the updating includes:
changing the first avatar feature to the second set of one or more colors;
changing the second avatar feature to a set of one or more colors different from the second set of one or more colors based on the second set of one or more colors; method, including
前記第1のアバター特徴部の前記複数の色オプションのうちの前記個別の色オプションの選択を検出することに応じて、前記個別の色オプションが1つ以上の色の第3の集合に対応するという判定に従って、前記第1のアバター特徴部及び前記第2のアバター特徴部を、前記個別の色オプションが前記1つ以上の色の第2の集合に対応する場合とは異なる方法で変更することを更に含んでいる、請求項102に記載の方法。 responsive to detecting selection of the individual color option of the plurality of color options of the first avatar feature, the individual color option corresponding to a third set of one or more colors; modifying the first avatar feature and the second avatar feature in a different manner than when the individual color option corresponds to the second set of one or more colors, according to the determination that 103. The method of claim 102, further comprising: 前記表示装置を介して、第3のアバター特徴部に対応する第2の複数の色オプションを表示することと、
前記第2の複数の色オプションのうちの第1の色オプションの選択を検出することと、
前記第3のアバター特徴部の前記第2の複数の色オプションのうちの前記第1の色オプションの選択を検出することに応じて、前記第1の色オプションが1つ以上の色の第4の集合に対応するという判定に従って、前記アバターの前記外観を更新することと、を更に含んでおり、前記更新することが、
前記第3のアバター特徴部を前記1つ以上の色の第4の集合に変更することと、
前記第2のアバター特徴部を、前記1つ以上の色の第4の集合に基づく、前記1つ以上の色の第4の集合と異なる、1つ以上の色の集合に変更することと、を含んでいる、請求項102又は103に記載の方法。
displaying, via the display device, a second plurality of color options corresponding to a third avatar feature;
detecting selection of a first color option of the second plurality of color options;
In response to detecting selection of the first color option of the second plurality of color options of the third avatar feature, the first color option selects a fourth color of one or more colors. updating the appearance of the avatar according to the determination that it corresponds to a set of
changing the third avatar feature to the fourth set of one or more colors;
changing the second avatar feature to one or more sets of colors different from the fourth set of one or more colors based on the fourth set of one or more colors; 104. The method of claim 102 or 103, comprising
前記第2の複数の色オプションのうちの第2の色オプションの選択を検出することと、
前記第3のアバター特徴部の前記第2の複数の色オプションのうちの前記第2の色オプションの選択を検出することに応じて、前記第1の色オプションが1つ以上の色の第5の集合に対応するという判定に従って、前記第3のアバター特徴部及び前記第2のアバター特徴部を、前記第1の色オプションが選択されている場合とは異なる方法で変更することと、を更に含んでいる、請求項104に記載の方法。
detecting selection of a second color option of the second plurality of color options;
In response to detecting selection of the second color option of the second plurality of color options of the third avatar feature, the first color option is one or more colors of a fifth color option. and modifying the third avatar feature and the second avatar feature in a different manner than when the first color option is selected, according to the determination that they correspond to the set of 105. The method of claim 104, comprising:
前記第3のアバター特徴部及び前記第2のアバター特徴部が、前記第1のアバター特徴部に対応する前記1つ以上の色の第2の集合に基づいて第1の色特性を調整することを含む第1の方法で変更され、
前記第3のアバター特徴部及び前記第2のアバター特徴部が、前記第3のアバター特徴部に対応する1つ以上の色の前記第4の集合に基づいて、前記第1の色特性とは異なる第2の色特性を調整することを含む第2の方法で変更される、請求項105に記載の方法。
said third avatar feature and said second avatar feature adjusting a first color characteristic based on said second set of one or more colors corresponding to said first avatar feature; modified in a first way containing
wherein the third avatar feature and the second avatar feature are based on the fourth set of one or more colors corresponding to the third avatar feature; 106. The method of claim 105, modified in a second manner comprising adjusting a different second color characteristic.
前記第1のアバター特徴部がアバターの毛髪の色に対応し、
前記第2のアバター特徴部がアバターの眉に対応し、
前記第3のアバター特徴部がアバターの肌の色に対応する、請求項104に記載の方法。
the first avatar feature corresponds to a hair color of the avatar;
the second avatar feature corresponds to an avatar eyebrow;
105. The method of claim 104, wherein the third avatar feature corresponds to an avatar's skin color.
前記複数の色オプションのうちの前記個別の色オプションの選択を検出することに応じて、前記1つ以上の色の第2の集合に対応する前記個別の色オプションのための色調整制御を表示することを更に含んでいる、請求項102から107のいずれか一項に記載の方法。 displaying color adjustment controls for the individual color option corresponding to the second set of one or more colors in response to detecting selection of the individual color option among the plurality of color options; 108. The method of any one of claims 102-107, further comprising: 前記第2のアバター特徴部が、前記1つ以上の色の第2の集合に基づく、前記1つ以上の色の第2の集合と異なる、前記1つ以上の色の集合に対応するアバターの唇の色を有するアバターの唇に対応し、前記方法が、
前記色調整制御に対応する入力を検出することと、
前記入力を検出することに応じて、
前記アバターの唇の第1の部分の前記アバターの唇の色を変更することと、
前記アバターの唇の第2の部分の前記アバターの唇の色を維持することと、を更に含んでいる、請求項108に記載の方法。
said second avatar feature corresponding to said set of one or more colors different from said second set of one or more colors based on said second set of one or more colors; corresponding to lips of an avatar having a lip color, the method comprising:
detecting an input corresponding to the color adjustment control;
In response to detecting said input,
changing the avatar lip color of a first portion of the avatar lip;
109. The method of claim 108, further comprising maintaining the avatar's lip color of a second portion of the avatar's lips.
前記第1のアバター特徴部がアバターの肌の色に対応し、
前記第2のアバター特徴部がアバターの唇に対応し、
前記1つ以上の色の第2の集合に基づく前記1つ以上の色の集合が、前記1つ以上の色の第2の集合及び赤色の値を含んでいる、請求項102から109のいずれか一項に記載の方法。
the first avatar feature corresponds to a skin color of the avatar;
the second avatar feature corresponds to an avatar's lips;
110. Any of claims 102-109, wherein said set of one or more colors based on said second set of one or more colors includes said second set of one or more colors and a red color value. or the method described in paragraph 1.
表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項102から110のいずれか一項に記載の方法を実行する命令を含んでいる、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device with a display, wherein the one or more programs are according to claim A non-transitory computer-readable storage medium containing instructions for performing the method of any one of Claims 102-110. 表示装置と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、請求項102から110のいずれか一項に記載の方法を実行する命令を含んでいる、電子デバイス。
a display device;
one or more processors;
and a memory storing one or more programs configured to be executed by said one or more processors, said one or more programs comprising the steps of claims 102-110. An electronic device comprising instructions for performing the method of any one of claims 1 to 3.
表示装置と、
請求項102から110のいずれか一項に記載の方法を実行する手段と、を備えている、電子デバイス。
a display device;
means for performing the method of any one of claims 102-110.
表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示装置を介して、
1つ以上の色の第1の集合を有する第1のアバター特徴部、及び前記1つ以上の色の第1の集合に基づく、前記1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、
前記第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示し、
前記複数の色オプションのうちの個別の色オプションの選択を検出し、
前記第1のアバター特徴部の前記複数の色オプションのうちの前記個別の色オプションの選択を検出することに応じて、前記個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、前記アバターの外観を更新する、命令を含んでおり、前記更新することが、
前記第1のアバター特徴部を前記1つ以上の色の第2の集合に変更することと、
前記第2のアバター特徴部を、前記1つ以上の色の第2の集合に基づく、前記1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更することと、を含んでいる、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device with a display, the one or more programs comprising:
Via the display device,
a first avatar feature having a first set of one or more colors; and one different from the first set of one or more colors based on the first set of one or more colors. an avatar having a plurality of avatar features including a second avatar feature having the set of colors;
displaying an avatar editing user interface including displaying a plurality of color options corresponding to the first avatar feature;
detecting selection of individual color options of the plurality of color options;
responsive to detecting selection of the individual color option of the plurality of color options of the first avatar feature, the individual color option corresponding to a second set of one or more colors; updating the appearance of the avatar according to the determination that the updating includes:
changing the first avatar feature to the second set of one or more colors;
changing the second avatar feature to a set of one or more colors different from the second set of one or more colors based on the second set of one or more colors; A non-transitory computer-readable storage medium containing
表示装置と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、
前記表示装置を介して、
1つ以上の色の第1の集合を有する第1のアバター特徴部、及び前記1つ以上の色の第1の集合に基づく、前記1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、
前記第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示し、
前記複数の色オプションのうちの個別の色オプションの選択を検出し、
前記第1のアバター特徴部の前記複数の色オプションのうちの前記個別の色オプションの選択を検出することに応じて、前記個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、前記アバターの外観を更新する、命令を含んでおり、前記更新することが、
前記第1のアバター特徴部を前記1つ以上の色の第2の集合に変更することと、
前記第2のアバター特徴部を、前記1つ以上の色の第2の集合に基づく、前記1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更することと、を含んでいる、電子デバイス。
a display device;
one or more processors;
and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising:
Via the display device,
a first avatar feature having a first set of one or more colors; and one different from the first set of one or more colors based on the first set of one or more colors. an avatar having a plurality of avatar features including a second avatar feature having the set of colors;
displaying an avatar editing user interface including displaying a plurality of color options corresponding to the first avatar feature;
detecting selection of individual color options of the plurality of color options;
responsive to detecting selection of the individual color option of the plurality of color options of the first avatar feature, the individual color option corresponding to a second set of one or more colors; updating the appearance of the avatar according to the determination that the updating includes:
changing the first avatar feature to the second set of one or more colors;
changing the second avatar feature to a set of one or more colors different from the second set of one or more colors based on the second set of one or more colors; An electronic device, including
表示装置と、
前記表示装置を介して、
1つ以上の色の第1の集合を有する第1のアバター特徴部、及び前記1つ以上の色の第1の集合に基づく、前記1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、
前記第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示する手段と、
前記複数の色オプションのうちの個別の色オプションの選択を検出する手段と、
前記第1のアバター特徴部の前記複数の色オプションのうちの前記個別の色オプションの選択を検出することに応じて、前記個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、前記アバターの外観を更新する手段と、を備えており、前記更新する手段が、
前記第1のアバター特徴部を前記1つ以上の色の第2の集合に変更する手段と、
前記第2のアバター特徴部を、前記1つ以上の色の第2の集合に基づく、前記1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更する手段と、を含んでいる、電子デバイス。
a display device;
Via the display device,
a first avatar feature having a first set of one or more colors; and one different from the first set of one or more colors based on the first set of one or more colors. an avatar having a plurality of avatar features including a second avatar feature having the set of colors;
means for displaying an avatar editing user interface including displaying a plurality of color options corresponding to the first avatar feature;
means for detecting selection of individual color options of said plurality of color options;
responsive to detecting selection of the individual color option of the plurality of color options of the first avatar feature, the individual color option corresponding to a second set of one or more colors; means for updating the appearance of the avatar according to a determination that the updating means comprises:
means for changing the first avatar feature to the second set of one or more colors;
means for changing the second avatar features to one or more sets of colors based on the second set of one or more colors and different from the second set of one or more colors; An electronic device, including
表示装置を有する電子デバイスで、
前記表示装置を介して、
選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバターと、
複数のアバターのアクセサリオプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示することと、
個別のアクセサリオプションの選択を検出することと、
前記複数のアバターのアクセサリオプションのうちの前記個別のアクセサリオプションの前記選択を検出することに応じて、前記個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従うことを含めて、前記アバターの外観を、前記個別のアクセサリオプションの表現を含むように変更することと、
前記アバター上に配置された前記第1のアクセサリオプションの前記表現を表示することと、
前記選択されたアバターの髪形を維持しながら、前記アバター上の前記第1のアクセサリオプションの前記表現の前記位置に基づいて、前記アバターの毛髪の第1の部分の形状を変更することと、を含んでいる、方法。
An electronic device having a display,
Via the display device,
an avatar having a plurality of avatar features including avatar hair having a selected avatar hairstyle;
displaying an avatar editing user interface including displaying a plurality of avatar accessory options;
detecting selection of individual accessory options;
of the avatar, including following a determination that the individual accessory option is a first accessory option in response to detecting the selection of the individual accessory option of the plurality of avatar accessory options. modifying an appearance to include representations of the individual accessory options;
displaying the representation of the first accessory option placed on the avatar;
reshaping a first portion of the avatar's hair based on the position of the representation of the first accessory option on the avatar while maintaining the selected avatar hairstyle; Including, how.
前記個別のアクセサリオプションが第2のアクセサリオプションであるという判定に従って、
前記アバター上に配置された前記第2のアクセサリオプションの前記表現を表示することと、
前記選択されたアバターの髪形を維持しながら、前記アバター上の前記第2のアクセサリオプションの前記表現の前記位置に基づいて、前記アバターの毛髪の前記第1の部分の前記変更された形状とは異なる前記アバターの毛髪の第2の部分の形状を変更することと、を更に含んでいる、請求項117に記載の方法。
According to a determination that the individual accessory option is a second accessory option,
displaying the representation of the second accessory option positioned on the avatar;
said altered shape of said first portion of said avatar's hair based on said position of said representation of said second accessory option on said avatar while maintaining said selected avatar hairstyle; 118. The method of claim 117, further comprising modifying a second portion of the avatar's hair to be different.
前記アバター上の前記第1のアクセサリオプションの位置の前記表現を表示した後に、第2の個別のアクセサリオプションの選択を検出することと、
前記複数のアバターのアクセサリオプションのうちの前記第2の個別のアクセサリオプションの前記選択を検出することに応じて、前記アバターの前記外観を、前記第2の個別のアクセサリオプションの表現及び前記個別のアクセサリオプションの前記表現を含むように変更することと、を更に含んでいる、請求項117又は118に記載の方法。
detecting selection of a second individual accessory option after displaying the representation of the position of the first accessory option on the avatar;
responsive to detecting the selection of the second individual accessory option of the plurality of avatar accessory options, changing the appearance of the avatar to a representation of the second individual accessory option and the individual accessory option; 119. The method of claim 117 or 118, further comprising: modifying to include the representation of accessory options.
前記表示装置を介して、複数のアバターの髪形オプションを表示することと、
第2の髪形オプションの選択を検出することと、
前記第2の髪形オプションの前記選択を検出することに応じて、前記アバターの前記外観を、前記選択されたアバターの髪形を有することから、前記第2の髪形オプションを有することに変更することと、を更に含んでおり、前記変更することが、
前記個別のアクセサリオプションがアクセサリオプションの第1の種類であるという判定に従って、前記個別のアクセサリオプションの前記表現に基づいて、第1の方法で変更された前記第2の髪形オプションを有する前記アバターの毛髪を表示することと、
前記個別のアクセサリオプションがアクセサリオプションの第2の種類であるという判定に従って、前記個別のアクセサリオプションの前記表現に基づいて、第2の方法で変更された前記第2の髪形オプションを有する前記アバターの毛髪を表示することと、を含んでいる、請求項117から119のいずれか一項に記載の方法。
displaying a plurality of avatar hairstyle options via the display device;
detecting selection of a second hairstyle option;
responsive to detecting the selection of the second hairstyle option, changing the appearance of the avatar from having the selected avatar hairstyle to having the second hairstyle option; , wherein said modifying includes:
of the avatar having the second hairstyle option modified in a first manner based on the representation of the individual accessory option in accordance with a determination that the individual accessory option is a first type of accessory option; displaying hair;
of the avatar having the second hairstyle option modified in a second manner based on the representation of the individual accessory option in accordance with a determination that the individual accessory option is a second type of accessory option; 120. The method of any one of claims 117-119, comprising displaying hair.
前記個別のアクセサリオプションが第3の種類であるという判定に従って、変更せずに、前記第2の髪形オプションを有する前記アバターの毛髪を表示することを更に含んでいる、請求項120に記載の方法。 121. The method of claim 120, further comprising displaying the avatar's hair having the second hairstyle option unchanged upon determining that the individual accessory option is of a third type. . 前記個別のアクセサリオプションの前記表現の外観が前記アバターの毛髪の1つ以上の特性に基づく、請求項117から121のいずれか一項に記載の方法。 122. The method of any one of claims 117-121, wherein the appearance of the representation of the individual accessory option is based on one or more properties of the avatar's hair. 第3の髪形オプションの選択を検出することに応じて、前記アバターの前記外観を、前記選択されたアバターの髪形を有することから、前記第3の髪形オプションを有することに変更することと、
前記第3の髪形オプションに基づいて前記個別のアクセサリオプションの前記表現の外観を変更することと、を更に含んでいる、請求項117から122のいずれか一項に記載の方法。
responsive to detecting selection of a third hairstyle option, changing the appearance of the avatar from having the selected avatar hairstyle to having the third hairstyle option;
123. The method of any one of claims 117-122, further comprising changing an appearance of the representation of the individual accessory option based on the third hairstyle option.
前記個別のアクセサリオプションがアバターの帽子であり、
前記個別のアクセサリオプションの前記表現の前記外観を変更することが、前記第3の髪形オプションのサイズに基づいて前記アバターの帽子の前記表現のサイズを変更することを含んでいる、請求項123に記載の方法。
the individual accessory option is an avatar hat;
124. The method of claim 123, wherein changing the appearance of the representation of the individual accessory option comprises changing the size of the representation of the avatar's hat based on a size of the third hairstyle option. described method.
前記個別のアクセサリオプションの前記表現の前記外観を変更することが、前記第3の髪形オプションの前記サイズに基づいて前記アバターの帽子の前記表現の帽子ラインのサイズを変更することを更に含んでいる、請求項124に記載の方法。 Modifying the appearance of the representation of the individual accessory option further includes resizing a hat line of the representation of the avatar's hat based on the size of the third hairstyle option. 125. The method of claim 124. 前記第1のアクセサリオプションがアバターの眼鏡であり、
前記アバターの毛髪の前記一部の前記形状を変更することが、前記アバターの眼鏡の少なくとも一部を遮るのを防ぐように配置された前記アバターの毛髪の前記一部を表示することを含んでいる、請求項117から125のいずれか一項に記載の方法。
wherein the first accessory option is avatar glasses;
Modifying the shape of the portion of the avatar's hair comprises displaying the portion of the avatar's hair positioned to prevent obstruction of at least a portion of the avatar's eyeglasses. 126. The method of any one of claims 117-125, wherein
前記第1のアクセサリオプションがアバターの眼鏡であり、
前記アバター上に配置された前記第1のアクセサリオプションの前記表現を表示することが、
前記アバターの眼鏡のレンズ部分での反射の表現を表示することと、
前記アバターの少なくとも一部に表示された前記アバターの眼鏡の前記表現によって落とされた影の表現を表示することと、を含んでいる、請求項117から126のいずれか一項に記載の方法。
wherein the first accessory option is avatar glasses;
displaying the representation of the first accessory option positioned on the avatar;
displaying a representation of the reflection on the lenses of the avatar's glasses;
127. The method of any one of claims 117 to 126, comprising displaying a representation of a shadow cast by the representation of the avatar's glasses displayed on at least a portion of the avatar.
前記第1のアクセサリオプションがアバターの帽子であり、
前記アバター上に配置された前記第1のアクセサリオプションの前記表現を表示することが、前記アバターの毛髪の一部の上に配置された前記アバターの帽子を表示することを含んでおり、
前記アバターの帽子の前記一部の前記形状を変更することが、前記アバターの帽子の帽子ラインに隣接する位置での圧縮された外観を有する前記アバターの毛髪を表示することと、前記アバターの毛髪が前記アバターの帽子の前記帽子ラインに隣接する前記位置から広がるように拡大していることと、を含んでいる、請求項117から127のいずれか一項に記載の方法。
the first accessory option is an avatar hat;
displaying the representation of the first accessory option positioned on the avatar includes displaying the avatar's hat positioned over a portion of the avatar's hair;
modifying the shape of the portion of the avatar's hat to display the avatar's hair having a compressed appearance at a location adjacent to a hat line of the avatar's hat; and the avatar's hair. 128. A method according to any one of claims 117 to 127, comprising: expanding from said position adjacent said hat line of said avatar's hat.
前記複数のアバターのアクセサリオプションのうちの第2のアバターの帽子オプションの選択を検出することに応じて、前記アバターの帽子の前記表現を、前記第2のアバターの帽子の表現に置き換え、一方、前記帽子ラインを維持し、かつ前記帽子ラインに隣接する前記位置で前記圧縮された外観を有し、前記アバターの毛髪が前記帽子ラインに隣接する前記位置から広がるように拡大している、前記アバターの毛髪の前記一部の前記形状を維持することを更に含んでいる、請求項128に記載の方法。 replacing the representation of the avatar's hat with a representation of the second avatar's hat in response to detecting selection of a second avatar's hat option among the plurality of avatar accessory options; said avatar maintaining said hat line and having said compressed appearance at said location adjacent to said hat line, wherein said avatar's hair has expanded to spread out from said location adjacent to said hat line. 129. The method of claim 128, further comprising maintaining the shape of the portion of hair of the hair. 物理モデルに基づくアバターの動きに対する前記アバターの毛髪の疑似的な物理的反応に従って、前記アバターの毛髪が動き、
前記物理モデルに基づくアバターの動きに対する前記アバターの毛髪の前記疑似的な物理的反応が、前記第1のアクセサリオプションがアバターの帽子である場合に変化する、請求項117から129のいずれか一項に記載の方法。
the hair of the avatar moves according to a simulated physical reaction of the hair of the avatar to the movement of the avatar based on a physical model;
130. Any one of claims 117 to 129, wherein the simulated physical reaction of the avatar's hair to movement of the avatar based on the physical model changes when the first accessory option is an avatar's hat. The method described in .
前記アバター上に配置された前記第1のアクセサリオプションの前記表現を表示することが、
前記第1のアクセサリオプション又は前記アバターの毛髪によって落とされた1つ以上の影の表現を表示することを含んでいる、請求項117から130のいずれか一項に記載の方法。
displaying the representation of the first accessory option positioned on the avatar;
131. The method of any one of claims 117-130, comprising displaying a representation of one or more shadows cast by the first accessory option or the avatar's hair.
前記第1のアクセサリオプションがアバターのイヤリングであり、
前記アバターのイヤリングが物理モデルに従って動く、請求項117から131のいずれか一項に記載の方法。
wherein the first accessory option is avatar earrings;
132. The method of any one of claims 117-131, wherein the avatar's earrings move according to a physical model.
表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項117から132のいずれか一項に記載の方法を実行する命令を含んでいる、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device with a display, wherein the one or more programs are according to claim 133. A non-transitory computer-readable storage medium containing instructions for performing the method of any one of Clauses 117-132. 表示装置と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、請求項117から132のいずれか一項に記載の方法を実行する命令を含んでいる、電子デバイス。
a display device;
one or more processors;
and a memory storing one or more programs configured to be executed by said one or more processors, said one or more programs comprising the steps of claims 117-132. An electronic device comprising instructions for performing the method of any one of claims 1 to 3.
表示装置と、
請求項117から132のいずれか一項に記載の方法を実行する手段と、を備えている、電子デバイス。
a display device;
means for performing the method of any one of claims 117-132.
表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示装置を介して、
選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバターと、
複数のアバターのアクセサリオプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示し、
個別のアクセサリオプションの選択を検出し、
前記複数のアバターのアクセサリオプションのうちの前記個別のアクセサリオプションの前記選択を検出することに応じて、前記個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従うことを含めて、前記アバターの外観を、前記個別のアクセサリオプションの表現を含むように変更し、
前記アバター上に配置された前記第1のアクセサリオプションの前記表現を表示し、
前記選択されたアバターの髪形を維持しながら、前記アバター上の前記第1のアクセサリオプションの前記表現の前記位置に基づいて、前記アバターの毛髪の第1の部分の形状を変更する、命令を含んでいる、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device with a display, the one or more programs comprising:
Via the display device,
an avatar having a plurality of avatar features including avatar hair having a selected avatar hairstyle;
displaying an avatar editing user interface including displaying multiple avatar accessory options and
Detects the selection of individual accessory options,
of the avatar, including following a determination that the individual accessory option is a first accessory option in response to detecting the selection of the individual accessory option among the plurality of avatar accessory options. modify the appearance to include a representation of said individual accessory option;
displaying the representation of the first accessory option placed on the avatar;
instructions for reshaping a first portion of the avatar's hair based on the position of the representation of the first accessory option on the avatar while maintaining the selected avatar hairstyle. A non-transitory computer-readable storage medium.
表示装置と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、
前記表示装置を介して、
選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバターと、
複数のアバターのアクセサリオプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示し、
個別のアクセサリオプションの選択を検出し、
前記複数のアバターのアクセサリオプションのうちの前記個別のアクセサリオプションの前記選択を検出することに応じて、前記個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従うことを含めて、前記アバターの外観を、前記個別のアクセサリオプションの表現を含むように変更し、
前記アバター上に配置された前記第1のアクセサリオプションの前記表現を表示し、
前記選択されたアバターの髪形を維持しながら、前記アバター上の前記第1のアクセサリオプションの前記表現の前記位置に基づいて、前記アバターの毛髪の第1の部分の形状を変更する、命令を含んでいる、電子デバイス。
a display device;
one or more processors;
and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising:
Via the display device,
an avatar having a plurality of avatar features including avatar hair having a selected avatar hairstyle;
displaying an avatar editing user interface including displaying multiple avatar accessory options and
Detects the selection of individual accessory options,
of the avatar, including following a determination that the individual accessory option is a first accessory option in response to detecting the selection of the individual accessory option of the plurality of avatar accessory options. modify the appearance to include a representation of said individual accessory option;
displaying the representation of the first accessory option placed on the avatar;
instructions for reshaping a first portion of the avatar's hair based on the position of the representation of the first accessory option on the avatar while maintaining the selected avatar hairstyle. electronic devices.
表示装置と、
前記表示装置を介して、
選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバターと、
複数のアバターのアクセサリオプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示する手段と、
個別のアクセサリオプションの選択を検出する手段と、
前記複数のアバターのアクセサリオプションのうちの前記個別のアクセサリオプションの前記選択を検出することに応じて、前記個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従うことを含めて、前記アバターの外観を、前記個別のアクセサリオプションの表現を含むように変更する手段と、
前記アバター上に配置された前記第1のアクセサリオプションの前記表現を表示する手段と、
前記選択されたアバターの髪形を維持しながら、前記アバター上の前記第1のアクセサリオプションの前記表現の前記位置に基づいて、前記アバターの毛髪の第1の部分の形状を変更する手段と、を備えている、電子デバイス。
a display device;
Via the display device,
an avatar having a plurality of avatar features including avatar hair having a selected avatar hairstyle;
means for displaying an avatar editing user interface including displaying a plurality of avatar accessory options;
means for detecting selection of individual accessory options;
of the avatar, including following a determination that the individual accessory option is a first accessory option in response to detecting the selection of the individual accessory option among the plurality of avatar accessory options. means for modifying an appearance to include representations of said individual accessory options;
means for displaying the representation of the first accessory option placed on the avatar;
means for changing the shape of a first portion of the avatar's hair based on the position of the representation of the first accessory option on the avatar while maintaining the selected avatar hairstyle. An electronic device that has
表示装置及び1つ以上のカメラを有する電子デバイスで、
前記表示装置を介して、前記1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示することと、
前記1つ以上のカメラの前記視野内で前記顔が検出されている間に、前記顔が、前記ユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでおり、前記第1の顔の特徴の動きを検出することと、
前記第1の顔の特徴の動きを検出することに応じて、
前記ユーザの前記舌が、個別の基準が満たされるためには前記ユーザの前記舌が可視であるという要件を含む、前記個別の基準を満たしているという判定に従って、前記第1の顔の特徴の前記動きに基づいて、アバターの舌を表示し、前記アバターの舌の位置を変更することと、
前記ユーザの前記舌が前記個別の基準を満たさないという判定に従って、前記アバターの舌の表示を止めることと、を含んでいる、方法。
An electronic device having a display and one or more cameras,
displaying, via the display device, a virtual avatar having a plurality of avatar features that change appearance in response to detected changes in facial pose within the field of view of the one or more cameras;
the face includes a plurality of detected facial features including a first facial feature other than the user's tongue while the face is detected within the field of view of the one or more cameras; and detecting movement of the first facial feature;
In response to detecting movement of the first facial feature,
of the first facial feature in accordance with a determination that the tongue of the user satisfies the respective criteria, including a requirement that the tongue of the user be visible for the respective criteria to be satisfied. displaying a tongue of an avatar and changing a position of the tongue of the avatar based on the movement;
ceasing display of the avatar's tongue in accordance with a determination that the tongue of the user does not meet the individual criteria.
前記第1の顔の特徴の前記動きに基づいて、前記アバターの舌の前記位置を変更することが、
前記第1の顔の特徴が第1の方向に動くという判定に従って、前記アバターの舌の前記位置を前記第1の方向に変更することと、
前記第1の顔の特徴が前記第1の方向と異なる第2の方向に動くという判定に従って、前記アバターの舌の前記位置を前記第2の方向に変更することと、を含んでいる、請求項139に記載の方法。
changing the position of the tongue of the avatar based on the movement of the first facial feature;
changing the position of the avatar's tongue in the first direction according to a determination that the first facial feature moves in the first direction;
changing the position of the tongue of the avatar in the second direction in accordance with a determination that the first facial feature moves in a second direction different from the first direction. 140. The method of Paragraph 139.
前記第1の顔の特徴の前記動きに基づいて、前記アバターの舌の前記位置を変更することが、
前記第1の顔の特徴が第1の大きさだけ動くという判定に従って、前記第1の大きさに比例する量だけ前記アバターの舌の前記位置を変更することと、
前記第1の顔の特徴が前記第1の大きさと異なる第2の大きさだけ動くという判定に従って、前記第2の大きさに比例する量だけ前記アバターの舌の前記位置を変更することと、を含んでいる、請求項139又は140に記載の方法。
changing the position of the tongue of the avatar based on the movement of the first facial feature;
changing the position of the avatar's tongue by an amount proportional to the first magnitude, following a determination that the first facial feature moves by a first magnitude;
changing the position of the avatar's tongue by an amount proportional to the second magnitude, following a determination that the first facial feature moves by a second magnitude different from the first magnitude; 141. The method of claim 139 or 140, comprising
前記アバターの舌が表示されている間に、前記ユーザの前記舌が前記個別の基準を満たさなくなっているということを検出することと、
前記ユーザの前記舌が前記個別の基準を満たさなくなっているということを検出することに応じて、前記アバターの舌を表示することを止めることと、を含んでいる、請求項139から141のいずれか一項に記載の方法。
detecting that the user's tongue no longer meets the individual criteria while the avatar's tongue is being displayed;
142. Stopping displaying the avatar's tongue in response to detecting that the tongue of the user no longer meets the individual criteria. or the method described in paragraph 1.
前記アバターの舌を表示することが、前記仮想アバターの口から伸びる前記アバターの舌のアニメーションを表示することを含んでおり、
前記アバターの舌を表示するのを止めることが、前記仮想アバターの前記口の中に引っ込む前記アバターの舌のアニメーションを表示することを含んでいる、請求項142に記載の方法。
displaying the avatar's tongue includes displaying an animation of the avatar's tongue extending from the mouth of the virtual avatar;
143. The method of claim 142, wherein stopping displaying the avatar's tongue comprises displaying an animation of the avatar's tongue retracting into the mouth of the virtual avatar.
前記仮想アバターの前記口から伸びる前記舌の前記アニメーション又は前記仮想アバターの前記口の中に引っ込む前記舌の前記アニメーションのうちの少なくとも1つが、前記仮想アバターの1つ以上の歯の上で曲がる前記アバターの舌の動きを表示することを含んでいる、請求項142に記載の方法。 at least one of the animation of the tongue extending out of the mouth of the virtual avatar or the animation of the tongue retracting into the mouth of the virtual avatar bending over one or more teeth of the virtual avatar; 143. The method of claim 142, comprising displaying avatar tongue movements. 前記アバターの舌が物理モデルに従って動き、
前記アバターの舌の動きの程度が、前記仮想アバターの口から伸ばされた前記舌の増加量に基づいて増える、請求項139から144のいずれか一項に記載の方法。
the tongue of the avatar moves according to a physical model;
145. The method of any one of claims 139 to 144, wherein the degree of movement of the avatar's tongue is increased based on an incremental amount of the tongue extended from the virtual avatar's mouth.
第1の位置への第2の顔の特徴の動きを検出することと、
前記第1の位置への前記第2の顔の特徴の前記動きを検出することに応じて、
前記アバターの舌が表示されないという判定に従って、前記第2の顔の特徴の前記動きに基づいて、第1のアバター特徴部を変更することと、
前記個別の基準を満たしていることに基づいて、前記アバターの舌が表示されるという判定に従って、前記第2の顔の特徴の前記動きに基づいて前記第1のアバター特徴部の動きを弱めることと、を更に含んでいる、請求項139から145のいずれか一項に記載の方法。
detecting movement of the second facial feature to the first position;
in response to detecting the movement of the second facial feature to the first position;
modifying a first avatar feature based on the movement of the second facial feature in accordance with a determination that the avatar's tongue is not displayed;
Attenuating movement of the first avatar feature based on the movement of the second facial feature in accordance with the determination that the avatar's tongue is displayed based on meeting the individual criteria. 146. The method of any one of claims 139-145, further comprising:
前記第2の顔の特徴が前記ユーザの口であり、
前記第2の顔の特徴の前記第1の位置が、前記ユーザの前記口が閉じられている位置に対応し、
前記第1のアバター特徴部がアバターの口である、請求項146に記載の方法。
the second facial feature is the mouth of the user;
said first position of said second facial feature corresponds to a position where said mouth of said user is closed;
147. The method of claim 146, wherein the first avatar feature is the avatar's mouth.
前記第2の顔の特徴が前記ユーザの下唇であり、
前記第2の顔の特徴の前記第1の位置が、前記ユーザの前記下唇が伸ばされている位置に対応し、
前記第1のアバター特徴部が前記アバターの下唇である、請求項146に記載の方法。
wherein the second facial feature is the user's lower lip;
the first position of the second facial feature corresponds to a position where the lower lip of the user is extended;
147. The method of claim 146, wherein the first avatar feature is the avatar's lower lip.
前記第2の顔の特徴が前記ユーザの上唇及び下唇であり、
前記第2の顔の特徴の前記第1の位置が、前記ユーザの前記上唇及び下唇がすぼめられている位置に対応し、
前記第1のアバター特徴部が前記アバターの上唇及び下唇である、請求項146に記載の方法。
wherein the second facial feature is the user's upper and lower lips;
wherein the first position of the second facial feature corresponds to a position where the user's upper and lower lips are pursed;
147. The method of claim 146, wherein the first avatar features are the upper and lower lips of the avatar.
前記第2の顔の特徴が前記ユーザの口であり、
前記第2の顔の特徴の前記第1の位置が、前記ユーザの前記口が閉じている位置に対応し、
前記第1のアバター特徴部がアバターの口である、請求項146に記載の方法。
the second facial feature is the mouth of the user;
the first position of the second facial feature corresponds to a position where the mouth of the user is closed;
147. The method of claim 146, wherein the first avatar feature is the avatar's mouth.
前記アバターの舌が、前記アバターの舌の位置を変更することに応じて変化する視覚効果を有する、請求項139から150のいずれか一項に記載の方法。 151. The method of any one of claims 139-150, wherein the avatar's tongue has visual effects that change in response to changing the position of the avatar's tongue. 前記アバターの舌が第1の部分及び第2の部分を含んでおり、前記第2の部分が、前記第1の部分又は前記第2の部分よりも柔軟であるコネクタによって前記第1の部分に接続される、請求項139から151のいずれか一項に記載の方法。 The avatar's tongue includes a first portion and a second portion, the second portion being attached to the first portion by a connector that is more flexible than the first portion or the second portion. 152. The method of any one of claims 139-151, connected. 前記アバターの舌を表示することが、
第3の顔の特徴の位置を検出することと、
前記第3の顔の特徴が第1の位置を有するという判定に従って、第1の形状を有する前記アバターの舌を表示することと、
前記第1の顔の特徴が前記第1の位置と異なる第2の位置を有するという判定に従って、前記第1の形状と異なる第2の形状を有する前記アバターの舌を表示することと、を含んでいる、請求項139から152のいずれか一項に記載の方法。
displaying a tongue of the avatar;
detecting the location of a third facial feature;
displaying the avatar's tongue having a first shape following a determination that the third facial feature has a first position;
displaying the avatar's tongue having a second shape different from the first shape, in accordance with a determination that the first facial feature has a second position different from the first position. 153. The method of any one of claims 139-152, wherein
表示装置及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項139から153のいずれか一項に記載の方法を実行する命令を含んでいる、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display and one or more cameras, said one or more contains instructions for performing the method of any one of claims 139-153. 表示装置と、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、請求項139から153のいずれか一項に記載の方法を実行する命令を含んでいる、電子デバイス。
a display device;
one or more cameras;
one or more processors;
and a memory storing one or more programs configured to be executed by said one or more processors, said one or more programs comprising: An electronic device comprising instructions for performing the method of any one of claims 1 to 3.
表示装置と、
1つ以上のカメラと、
請求項139から153のいずれか一項に記載の方法を実行する手段と、を備えている、電子デバイス。
a display device;
one or more cameras;
means for performing the method of any one of claims 139-153.
表示装置及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示装置を介して、前記1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示し、
前記1つ以上のカメラの前記視野内で前記顔が検出されている間に、前記顔が、前記ユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、前記第1の顔の特徴の動きを検出し、
前記第1の顔の特徴の動きを検出することに応じて、
前記ユーザの前記舌が、個別の基準が満たされるためには前記ユーザの前記舌が可視であるという要件を含む、前記個別の基準を満たしているという判定に従って、前記第1の顔の特徴の前記動きに基づいて、アバターの舌を表示し、前記アバターの舌の位置を変更し、
前記ユーザの前記舌が前記個別の基準を満たさないという判定に従って、前記アバターの舌の表示を止める、命令を含んでいる、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display and one or more cameras, said one or more the program of
displaying, via the display device, a virtual avatar having a plurality of avatar features that change appearance in response to detected changes in facial pose within the field of view of the one or more cameras;
the face includes a plurality of detected facial features including a first facial feature other than the user's tongue while the face is detected within the field of view of the one or more cameras; detecting movement of the first facial feature;
In response to detecting movement of the first facial feature,
of the first facial feature in accordance with a determination that the tongue of the user satisfies the respective criteria, including a requirement that the tongue of the user be visible for the respective criteria to be satisfied. displaying the avatar's tongue and changing the position of the avatar's tongue based on the movement;
A non-transitory computer-readable storage medium containing instructions for discontinuing display of the avatar's tongue in accordance with a determination that the tongue of the user does not meet the individual criteria.
表示装置と、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えている電子デバイスであって、前記1つ以上のプログラムが、
前記表示装置を介して、前記1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示し、
前記1つ以上のカメラの前記視野内で前記顔が検出されている間に、前記顔が、前記ユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、前記第1の顔の特徴の動きを検出し、
前記第1の顔の特徴の動きを検出することに応じて、
前記ユーザの前記舌が、個別の基準が満たされるためには前記ユーザの前記舌が可視であるという要件を含む、前記個別の基準を満たしているという判定に従って、前記第1の顔の特徴の前記動きに基づいて、アバターの舌を表示し、前記アバターの舌の位置を変更し、
前記ユーザの前記舌が前記個別の基準を満たさないという判定に従って、前記アバターの舌の表示を止める、命令を含んでいる、電子デバイス。
a display device;
one or more cameras;
one or more processors;
and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising:
displaying, via the display device, a virtual avatar having a plurality of avatar features that change appearance in response to detected changes in facial pose within the field of view of the one or more cameras;
the face includes a plurality of detected facial features including a first facial feature other than the user's tongue while the face is detected within the field of view of the one or more cameras; detecting movement of the first facial feature;
In response to detecting movement of the first facial feature,
of the first facial feature in accordance with a determination that the tongue of the user satisfies the respective criteria, including a requirement that the tongue of the user be visible for the respective criteria to be satisfied. displaying the avatar's tongue and changing the position of the avatar's tongue based on the movement;
An electronic device comprising instructions to stop displaying the avatar's tongue in accordance with a determination that the tongue of the user does not meet the individual criteria.
表示装置と、
1つ以上のカメラと、
前記表示装置を介して、前記1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示する手段と、
前記1つ以上のカメラの前記視野内で前記顔が検出されている間に、前記顔が、前記ユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでおり、前記第1の顔の特徴の動きを検出する手段と、
前記第1の顔の特徴の動きを検出することに応じて、
前記ユーザの前記舌が、個別の基準が満たされるためには前記ユーザの前記舌が可視であるという要件を含む、前記個別の基準を満たしているという判定に従って、前記第1の顔の特徴の前記動きに基づいて、アバターの舌を表示し、前記アバターの舌の位置を変更する手段と、
前記ユーザの前記舌が前記個別の基準を満たさないという判定に従って、前記アバターの舌の表示を止める手段と、を備えている、電子デバイス。
a display device;
one or more cameras;
means for displaying, via the display device, a virtual avatar having a plurality of avatar features that change appearance in response to detected changes in facial pose within the field of view of the one or more cameras;
the face includes a plurality of detected facial features including a first facial feature other than the user's tongue while the face is detected within the field of view of the one or more cameras; means for detecting movement of said first facial feature;
In response to detecting movement of the first facial feature,
of the first facial feature in accordance with a determination that the tongue of the user satisfies the respective criteria, including a requirement that the tongue of the user be visible for the respective criteria to be satisfied. means for displaying an avatar's tongue and changing the position of the avatar's tongue based on the movement;
means for discontinuing display of the avatar's tongue in accordance with a determination that the user's tongue does not meet the individual criteria.
JP2023043407A 2018-05-07 2023-03-17 Avatar creation user interface Pending JP2023085356A (en)

Applications Claiming Priority (15)

Application Number Priority Date Filing Date Title
US201862668200P 2018-05-07 2018-05-07
US62/668,200 2018-05-07
US201862679950P 2018-06-03 2018-06-03
US62/679,950 2018-06-03
DKPA201870374A DK201870374A1 (en) 2018-05-07 2018-06-12 Avatar creation user interface
DKPA201870375 2018-06-12
DKPA201870377A DK179874B1 (en) 2018-05-07 2018-06-12 USER INTERFACE FOR AVATAR CREATION
DKPA201870372 2018-06-12
DKPA201870375A DK180078B1 (en) 2018-05-07 2018-06-12 USER INTERFACE FOR AVATAR CREATION
DKPA201870372A DK180212B1 (en) 2018-05-07 2018-06-12 USER INTERFACE FOR CREATING AVATAR
DKPA201870374 2018-06-12
DKPA201870377 2018-06-12
US16/116,221 2018-08-29
US16/116,221 US10580221B2 (en) 2018-05-07 2018-08-29 Avatar creation user interface
JP2021153573A JP7249392B2 (en) 2018-05-07 2021-09-21 Avatar creation user interface

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021153573A Division JP7249392B2 (en) 2018-05-07 2021-09-21 Avatar creation user interface

Publications (1)

Publication Number Publication Date
JP2023085356A true JP2023085356A (en) 2023-06-20

Family

ID=66286280

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018184254A Active JP6735325B2 (en) 2018-05-07 2018-09-28 Avatar creation user interface
JP2020120086A Active JP6991283B2 (en) 2018-05-07 2020-07-13 Avatar creation user interface
JP2021153573A Active JP7249392B2 (en) 2018-05-07 2021-09-21 Avatar creation user interface
JP2023043407A Pending JP2023085356A (en) 2018-05-07 2023-03-17 Avatar creation user interface

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2018184254A Active JP6735325B2 (en) 2018-05-07 2018-09-28 Avatar creation user interface
JP2020120086A Active JP6991283B2 (en) 2018-05-07 2020-07-13 Avatar creation user interface
JP2021153573A Active JP7249392B2 (en) 2018-05-07 2021-09-21 Avatar creation user interface

Country Status (3)

Country Link
JP (4) JP6735325B2 (en)
CN (6) CN111488193A (en)
WO (1) WO2019216999A1 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (en) 2010-04-07 2014-06-01 Apple Inc Avatar editing environment
KR20230144661A (en) 2017-05-16 2023-10-16 애플 인크. Emoji recording and sending
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. Avatar creation user interface
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
CN110882539B (en) * 2019-11-22 2022-06-07 腾讯科技(深圳)有限公司 Animation display method and device, storage medium and electronic device
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11921998B2 (en) * 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11682002B2 (en) 2020-06-05 2023-06-20 Marketspringpad Ip Usa Llc. Methods and systems for interactive data management
US11604562B2 (en) * 2020-06-10 2023-03-14 Snap Inc. Interface carousel for use with image processing software development kit
CN112037338A (en) * 2020-08-31 2020-12-04 深圳传音控股股份有限公司 AR image creating method, terminal device and readable storage medium
CN115309302A (en) * 2021-05-06 2022-11-08 阿里巴巴新加坡控股有限公司 Icon display method, device, program product and storage medium
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
JP7348943B2 (en) * 2021-12-22 2023-09-21 凸版印刷株式会社 Content management system, content management method, and program

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
EP2256605B1 (en) 1998-01-26 2017-12-06 Apple Inc. Method and apparatus for integrating manual input
KR20010056965A (en) * 1999-12-17 2001-07-04 박희완 Method for creating human characters by partial image synthesis
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
EP1599862A2 (en) 2003-03-03 2005-11-30 America Online, Inc. Using avatars to communicate
CN1961333A (en) 2004-02-12 2007-05-09 贝斯简·阿利万迪 System and method for producing merchandise from a virtual environment
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
KR20090002176A (en) * 2007-06-20 2009-01-09 엔에이치엔(주) System for providing ranking of game-avatar in network and method thereof
US9513704B2 (en) 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
KR101687689B1 (en) 2008-04-30 2016-12-19 가부시키가이샤 아크로디아 Character display data generation device and method
CN105327509B (en) 2008-06-02 2019-04-19 耐克创新有限合伙公司 The system and method for creating incarnation
JP5256001B2 (en) * 2008-11-20 2013-08-07 京セラドキュメントソリューションズ株式会社 Color adjustment apparatus, method and program
CN101692681A (en) * 2009-09-17 2010-04-07 杭州聚贝软件科技有限公司 Method and system for realizing virtual image interactive interface on phone set terminal
US20110074807A1 (en) * 2009-09-30 2011-03-31 Hitachi, Ltd. Method of color customization of content screen
US9542038B2 (en) 2010-04-07 2017-01-10 Apple Inc. Personalizing colors of user interfaces
KR20120013727A (en) * 2010-08-06 2012-02-15 삼성전자주식회사 Display apparatus and control method thereof
US8558844B2 (en) 2010-09-28 2013-10-15 Apple Inc. Systems, methods, and computer-readable media for changing colors of displayed assets
CN102142149A (en) * 2011-01-26 2011-08-03 深圳市同洲电子股份有限公司 Method and device for obtaining contact image
GB201102794D0 (en) * 2011-02-17 2011-03-30 Metail Ltd Online retail system
CN102298797A (en) * 2011-08-31 2011-12-28 深圳市美丽同盟科技有限公司 Three-dimensional virtual fitting method, device and system
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US20140078144A1 (en) 2012-09-14 2014-03-20 Squee, Inc. Systems and methods for avatar creation
KR101958517B1 (en) 2012-12-29 2019-03-14 애플 인크. Device, method, and graphical user interface for transitioning between touch input to display output relationships
JP5603452B1 (en) 2013-04-11 2014-10-08 株式会社スクウェア・エニックス Video game processing apparatus and video game processing program
CN104753762B (en) * 2013-12-31 2018-07-27 北京发现角科技有限公司 The method and system that ornament is added into avatar icon applied to instant messaging
KR102367550B1 (en) * 2014-09-02 2022-02-28 삼성전자 주식회사 Controlling a camera module based on physiological signals
CN104376160A (en) * 2014-11-07 2015-02-25 薛景 Real person simulation individuality ornament matching system
CN107430429B (en) * 2015-04-07 2022-02-18 英特尔公司 Avatar keyboard
CN105100462A (en) * 2015-07-10 2015-11-25 广州市久邦数码科技有限公司 Short message system having custom theme edition function
US20180047200A1 (en) 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
JP6698216B2 (en) 2016-09-23 2020-05-27 アップル インコーポレイテッドApple Inc. Patent application to the US Patent and Trademark Office for creating and editing avatars

Also Published As

Publication number Publication date
CN113535306A (en) 2021-10-22
JP6735325B2 (en) 2020-08-05
CN113535306B (en) 2023-04-07
JP2022008470A (en) 2022-01-13
CN110457103A (en) 2019-11-15
CN110456965A (en) 2019-11-15
WO2019216999A1 (en) 2019-11-14
JP7249392B2 (en) 2023-03-30
CN111488193A (en) 2020-08-04
CN110457092A (en) 2019-11-15
JP2020187775A (en) 2020-11-19
CN116309023A (en) 2023-06-23
JP6991283B2 (en) 2022-01-12
JP2019207670A (en) 2019-12-05

Similar Documents

Publication Publication Date Title
JP7249392B2 (en) Avatar creation user interface
KR102283613B1 (en) Avatar Creation User Interface
EP3696655B1 (en) Avatar creation user interface
AU2020100675A4 (en) Avatar creation user interface
EP3567457B1 (en) Avatar creation user interface

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240620