JP6991283B2 - Avatar creation user interface - Google Patents

Avatar creation user interface Download PDF

Info

Publication number
JP6991283B2
JP6991283B2 JP2020120086A JP2020120086A JP6991283B2 JP 6991283 B2 JP6991283 B2 JP 6991283B2 JP 2020120086 A JP2020120086 A JP 2020120086A JP 2020120086 A JP2020120086 A JP 2020120086A JP 6991283 B2 JP6991283 B2 JP 6991283B2
Authority
JP
Japan
Prior art keywords
avatar
color
user interface
colors
option
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020120086A
Other languages
Japanese (ja)
Other versions
JP2020187775A (en
Inventor
オーエス, マルセル ヴァン
ジェイソン リックワルド,
アラン, シー. ダイ,
アウレリオ グズマン,
ニコラス ヴィー. スカペル,
クリストファー ウィルソン,
アリアン ベハザディ,
クリス ロムニー,
ジャンカルロ イェルケス,
アンドレ バーリエ, ギヨーム ピエール
ジェイディー ガードナー,
リサ ケイ. フォルセル,
ロベルト サード ガルシア,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DKPA201870374A external-priority patent/DK201870374A1/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2020187775A publication Critical patent/JP2020187775A/en
Priority to JP2021153573A priority Critical patent/JP7249392B2/en
Application granted granted Critical
Publication of JP6991283B2 publication Critical patent/JP6991283B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2024Style variation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Architecture (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

(関連出願の相互参照)
本出願は、2018年5月7日に出願された米国特許仮出願第62/668,200号「Avatar Creation User Interface」に関連している。本出願の内容は、参照によりその全体が本明細書に組み込まれる。
(Mutual reference of related applications)
This application relates to US Patent Provisional Application No. 62 / 668,200, "Avatar Creation User Interface," filed May 7, 2018. The contents of this application are incorporated herein by reference in their entirety.

本開示は、概して、コンピュータユーザインターフェースに関し、より詳細にはアバターを作成及び編集する技術に関する。 The present disclosure relates generally to computer user interfaces, and more specifically to techniques for creating and editing avatars.

アバターは、電子デバイスのユーザを表すために使用される。アバターは、ユーザの外観を表すことができ、あるいはユーザの理想化された表現又は完全に架空の表現を表すことができる。その後、アバターは、他のユーザへのアバターの外観が、ユーザとの関連付け又はリンクをトリガするように、ユーザに関連付けられ得る。マルチメディア通信における使用を含む、このような用途のために、アバターを作成し、編集することができる。 Avatar is used to represent a user of an electronic device. The avatar can represent the user's appearance, or can represent the user's idealized or completely fictitious representation. The avatar can then be associated with the user such that the appearance of the avatar to other users triggers an association or link with the user. Avatars can be created and edited for such uses, including their use in multimedia communications.

しかし、電子デバイスを使用してアバターを作成及び編集する一部の技術は、概して面倒であり、非効率である。例えば、一部の既存の技術では、複数回のキー押下又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインターフェースが使用されている。既存の技術では、必要以上の時間が必要であり、ユーザの時間及びデバイスの電力を浪費する。後者の問題は、バッテリ動作デバイスにおいては特に重大である。 However, some techniques for creating and editing avatars using electronic devices are generally cumbersome and inefficient. For example, some existing techniques use complex and time-consuming user interfaces that may involve multiple key presses or keystrokes. Existing technology requires more time than necessary, wasting user time and device power. The latter problem is particularly serious in battery-powered devices.

したがって、本技術は、アバターを作成及び編集するための、より速く、より効率的な方法及びインターフェースを電子デバイスに提供する。このような方法及びインターフェースは、アバターを作成する他の方法を任意選択的に補完するか、又は置き換える。そのような方法及びインターフェースは、ユーザの認識的負担を軽減し、より効率的なヒューマン-マシンインターフェースを実現する。バッテリ動作式のコンピューティングデバイスの場合には、このような方法及びインターフェースにより、電力が節約され、バッテリを充電する間隔が増す。 Accordingly, the technology provides electronic devices with faster and more efficient methods and interfaces for creating and editing avatars. Such methods and interfaces optionally complement or replace other methods of creating avatars. Such methods and interfaces reduce the cognitive burden on the user and provide a more efficient human-machine interface. In the case of battery-powered computing devices, such methods and interfaces save power and increase the interval between charging the battery.

方法が説明される。この方法は、表示装置及び1つ以上の入力デバイスを有する電子デバイスで実行される。この方法は、表示装置を介してアバターナビゲーションユーザインターフェースを表示することであって、このアバターナビゲーションユーザインターフェースがアバターを含んでいる、ことと、アバターナビゲーションユーザインターフェースが表示されている間に、1つ以上の入力デバイスを介して、アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出することと、ジェスチャを検出することに応じて、ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターをアバターナビゲーションユーザインターフェースに表示することと、ジェスチャが第1の方向と反対の第2の方向であるという判定に従って、第1の種類と異なる第2の種類のアバターをアバターナビゲーションユーザインターフェースに表示することと、を含む。 The method is explained. This method is performed on an electronic device having a display device and one or more input devices. This method is to display the avatar navigation user interface via a display device, one while the avatar navigation user interface contains an avatar and the avatar navigation user interface is displayed. The first type of avatar, according to the detection of the gesture directed to the avatar navigation user interface via the above input device and the determination that the gesture is the first direction in response to the detection of the gesture. Is displayed in the avatar navigation user interface, and a second type of avatar different from the first type is displayed in the avatar navigation user interface according to the determination that the gesture is in the second direction opposite to the first direction. Including that.

非一時的コンピュータ可読記憶媒体が説明される。非一時的コンピュータ可読記憶媒体は、表示装置及び1つ以上の入力デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する。これらの1つ以上のプログラムは、表示装置を介してアバターナビゲーションユーザインターフェースであって、アバターナビゲーションユーザインターフェースがアバターを含む、アバターナビゲーションユーザインターフェースを表示し、アバターナビゲーションユーザインターフェースが表示されている間に、1つ以上の入力デバイスを介して、アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出し、ジェスチャを検出することに応じて、ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターをアバターナビゲーションユーザインターフェースに表示し、ジェスチャが第1の方向と反対の第2の方向であるという判定に従って、第1の種類と異なる第2の種類のアバターをアバターナビゲーションユーザインターフェースに表示する、命令を含む。 A non-temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more input devices. One or more of these programs is an avatar navigation user interface via a display device, the avatar navigation user interface displays the avatar navigation user interface, including the avatar, while the avatar navigation user interface is displayed. A first type of gesture, according to the determination that the gesture is in the first direction, in response to detecting the gesture directed to the avatar navigation user interface via one or more input devices and detecting the gesture. Display an avatar in the avatar navigation user interface and display a second type of avatar different from the first type in the avatar navigation user interface according to the determination that the gesture is in the second direction opposite to the first direction. Includes instructions.

一時的コンピュータ可読記憶媒体が説明される。一時的コンピュータ可読記憶媒体は、表示装置及び1つ以上の入力デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する。これらの1つ以上のプログラムは、表示装置を介してアバターナビゲーションユーザインターフェースであって、アバターナビゲーションユーザインターフェースがアバターを含む、アバターナビゲーションユーザインターフェースを表示し、アバターナビゲーションユーザインターフェースが表示されている間に、1つ以上の入力デバイスを介して、アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出し、ジェスチャを検出することに応じて、ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターをアバターナビゲーションユーザインターフェースに表示し、ジェスチャが第1の方向と反対の第2の方向であるという判定に従って、第1の種類と異なる第2の種類のアバターをアバターナビゲーションユーザインターフェースに表示する、命令を含む。 Temporary computer-readable storage media are described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more input devices. One or more of these programs is an avatar navigation user interface via a display device, the avatar navigation user interface displays the avatar navigation user interface, including the avatar, while the avatar navigation user interface is displayed. A first type of gesture, according to the determination that the gesture is in the first direction, in response to detecting the gesture directed to the avatar navigation user interface via one or more input devices and detecting the gesture. Display an avatar in the avatar navigation user interface and display a second type of avatar different from the first type in the avatar navigation user interface according to the determination that the gesture is in the second direction opposite to the first direction. Includes instructions.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上の入力デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えており、これらの1つ以上のプログラムは、表示装置を介してアバターナビゲーションユーザインターフェースであって、アバターナビゲーションユーザインターフェースがアバターを含む、アバターナビゲーションユーザインターフェースを表示しアバターナビゲーションユーザインターフェースが表示されている間に、1つ以上の入力デバイスを介して、アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出し、ジェスチャを検出することに応じて、ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターをアバターナビゲーションユーザインターフェースに表示し、ジェスチャが第1の方向と反対の第2の方向であるという判定に従って、第1の種類と異なる第2の種類のアバターをアバターナビゲーションユーザインターフェースに表示する、命令を含む。 The electronic device is described. This electronic device includes a display device, one or more input devices, one or more processors, and a memory that stores one or more programs configured to be executed by one or more processors. One or more of these programs is an avatar navigation user interface via a display device, the avatar navigation user interface includes an avatar, the avatar navigation user interface is displayed and the avatar navigation user interface is displayed. While the program detects gestures directed at the avatar navigation user interface via one or more input devices and detects the gestures, the first, according to the determination that the gestures are in the first direction. The type of avatar is displayed in the avatar navigation user interface, and the second type of avatar different from the first type is used in the avatar navigation user interface according to the determination that the gesture is in the second direction opposite to the first direction. Includes instructions to display.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上の入力デバイスと、表示装置を介してアバターナビゲーションユーザインターフェースを表示する手段であって、このアバターナビゲーションユーザインターフェースがアバターを含んでいる、手段と、アバターナビゲーションユーザインターフェースが表示されている間に、1つ以上の入力デバイスを介して、アバターナビゲーションユーザインターフェースに向けられたジェスチャを検出する手段と、ジェスチャを検出することに応じて、ジェスチャが第1の方向であるという判定に従って、第1の種類のアバターをアバターナビゲーションユーザインターフェースに表示し、ジェスチャが第1の方向と反対の第2の方向であるという判定に従って、第1の種類と異なる第2の種類のアバターをアバターナビゲーションユーザインターフェースに表示する手段と、を含む。 The electronic device is described. The electronic device is a display device, one or more input devices, and a means for displaying an avatar navigation user interface through the display device, wherein the avatar navigation user interface includes an avatar, a means, and an avatar. While the navigation user interface is displayed, the gesture is first, depending on how and by detecting the gestures directed at the avatar navigation user interface via one or more input devices. A second type different from the first type according to the determination that the first type of avatar is displayed in the avatar navigation user interface according to the determination of orientation and the gesture is in the second orientation opposite to the first orientation. Includes a means of displaying a type of avatar in the avatar navigation user interface.

方法が説明される。この方法は、表示装置を有する電子デバイスで実行される。この方法は、表示装置を介して、複数のアバター特徴部を有するアバターと、個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示することであって、個別のアバター特徴部の第2の特性が個別のアバター特徴部の第1の特性と異なっている、ことと、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することと、を含む。 The method is explained. This method is performed on an electronic device having a display device. This method includes an avatar having a plurality of avatar features and a first set of feature options corresponding to a set of candidate values for the first feature of the individual avatar features via a display device. An individual avatar feature that contains a first option selection area for the individual avatar feature and a second set of feature options that correspond to a set of candidate values for the second feature of the individual avatar feature. The second option selection area is to display the avatar editing user interface, which includes displaying at the same time, wherein the second characteristic of the individual avatar feature is the first characteristic of the individual avatar feature. And that at least one appearance of the second set of feature options in response to detecting the selection of one of the feature options in the first set of feature options. Includes changing from the first appearance to the second appearance.

非一時的コンピュータ可読記憶媒体が説明される。この非一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、複数のアバター特徴部を有するアバターと、個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、個別のアバター特徴部の第2の特性であって、個別のアバター特徴部の第2の特性が個別のアバター特徴部の第1の特性と異なっている、個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示し、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更する、命令を含む。 A non-temporary computer-readable storage medium is described. This non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device equipped with a display device, and these one or more programs display. An individual avatar feature unit that includes an avatar having a plurality of avatar feature units and a first set of feature unit options corresponding to a set of candidate values for the first characteristic of the individual avatar feature unit via the device. The first option selection area of the above and the second characteristic of the individual avatar feature unit, wherein the second characteristic of the individual avatar feature unit is different from the first characteristic of the individual avatar feature unit. Includes displaying at the same time a second option selection area of an individual avatar feature that contains a second set of feature options that corresponds to a set of candidate values for the second feature of the avatar feature. At least one of the second set of feature options in response to displaying the avatar edit user interface that is in and detecting the selection of one of the feature options in the first set of feature options. Includes instructions to change one appearance from the first appearance to the second appearance.

一時的コンピュータ可読記憶媒体が説明される。この一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、複数のアバター特徴部を有するアバターと、個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、及び個別のアバター特徴部の第2の特性であって、個別のアバター特徴部の第2の特性が個別のアバター特徴部の第1の特性と異なっている、個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示し、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更する、命令を含む。 Temporary computer-readable storage media are described. This temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and these one or more programs are the display device. Of an individual avatar feature that includes an avatar with multiple avatar features and a first set of feature options that correspond to a set of candidate values for the first feature of the individual avatar feature. An individual, the first option selection area and the second characteristic of the individual avatar feature, where the second characteristic of the individual avatar feature is different from the first characteristic of the individual avatar feature. Includes displaying at the same time a second option selection area of an individual avatar feature that contains a second set of feature options that corresponds to a set of candidate values for the second feature of the avatar feature. At least one of the second set of feature options in response to displaying the avatar edit user interface that is in and detecting the selection of one of the feature options in the first set of feature options. Includes instructions to change one appearance from the first appearance to the second appearance.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えており、これらの1つ以上のプログラムは、表示装置を介して、複数のアバター特徴部を有するアバターと、個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、及び個別のアバター特徴部の第2の特性であって、個別のアバター特徴部の第2の特性が個別のアバター特徴部の第1の特性と異なっている、個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示し、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更する、命令を含む。 The electronic device is described. The electronic device comprises a display device, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors, one of which. The above program includes an avatar having a plurality of avatar feature parts and a first set of feature part options corresponding to a set of candidate values of the first characteristic of the individual avatar feature parts via a display device. The first option selection area of the individual avatar feature section and the second characteristic of the individual avatar feature section, the second characteristic of the individual avatar feature section is the first characteristic of the individual avatar feature section. A second option selection area of the individual avatar feature that contains a second set of feature options that corresponds to a set of candidate values for the second trait of the individual avatar feature that is different from the trait. Displays the avatar editing user interface, which includes displaying at the same time, and depending on the detection of the selection of one of the feature options in the first set of feature options, the second of the feature options. Includes an instruction to change the appearance of at least one of the sets from the first appearance to the second appearance.

電子デバイスが説明される。この電子デバイスは、表示装置と、表示装置を介して、複数のアバター特徴部を有するアバターと、個別のアバター特徴部の第1の特性の候補値の集合に対応する特徴部オプションの第1の集合を含んでいる個別のアバター特徴部の第1のオプション選択領域と、及び個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含んでいる個別のアバター特徴部の第2のオプション選択領域と、を同時に表示することを含んでいるアバター編集ユーザインターフェースを表示する手段であって、個別のアバター特徴部の第2の特性が個別のアバター特徴部の第1の特性と異なっている、手段と、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更する手段と、を備える。 The electronic device is described. This electronic device is a display device, an avatar having a plurality of avatar feature parts via the display device, and a first feature part option corresponding to a set of candidate values of the first characteristic of the individual avatar feature parts. It contains a first option selection area for an individual avatar feature that contains a set, and a second set of feature options that correspond to a set of candidate values for the second feature of the individual avatar feature. A means of displaying an avatar editing user interface that includes displaying the second option selection area of the individual avatar feature section at the same time, the second feature of the individual avatar feature section is the individual avatar feature. A second set of feature options, depending on the means and the detection of a selection of one of the feature options in the first set of feature options, which is different from the first characteristic of the part. A means for changing the appearance of at least one of them from the first appearance to the second appearance is provided.

方法が説明される。この方法は、表示装置を有する電子デバイスで実行される。この方法は、表示装置を介して、1つ以上の色の第1の集合を有する個別の特徴、及び個別の特徴の複数の色オプションを含んでいるユーザインターフェースオブジェクトを表示することと、第2の色に対応する複数の色オプションのうちの色オプションの選択を検出することと、この選択を検出することに応じて、個別の特徴の色をこの色オプションに変更し、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御を表示することと、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第2の集合を有している間に、第1の色調整制御に対応する入力を検出することと、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更することと、を含む。 The method is explained. This method is performed on an electronic device having a display device. This method displays, through a display device, an individual feature having a first set of one or more colors, and a user interface object containing multiple color options for the individual features. Detecting a selection of color options among multiple color options that correspond to a color in, and depending on detecting this selection, change the color of individual features to this color option and one or more colors Displaying the first color adjustment control for the color option corresponding to the second set of, and while the individual features of the user interface object have a second set of one or more colors. , Depending on the detection of the input corresponding to the first color adjustment control and the detection of the input corresponding to the first color adjustment control, the color of the individual feature is set to 1 based on the second color. Includes changing from a second set of one or more colors to a modified version of a second set of one or more colors.

非一時的コンピュータ可読記憶媒体が説明される。この非一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する個別の特徴、及び個別の特徴の複数の色オプションを含んでいるユーザインターフェースオブジェクトを表示し、第2の色に対応する複数の色オプションのうちの色オプションの選択を検出し、この選択を検出することに応じて、個別の特徴の色をこの色オプションに変更し、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御を表示し、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第2の集合を有している間に、第1の色調整制御に対応する入力を検出し、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更する、命令を含む。 A non-temporary computer-readable storage medium is described. This non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device equipped with a display device, and these one or more programs display. Through the device, display an individual feature with a first set of one or more colors, and a user interface object containing multiple color options for the individual feature, and multiple corresponding to the second color. Detects a selection of color options among the color options, and in response to detecting this selection, changes the color of the individual feature to this color option and the color corresponding to the second set of one or more colors. Displays the first color adjustment control for an option, and the input corresponding to the first color adjustment control while the individual features of the user interface object have a second set of one or more colors. And one or more of the colors of the individual features from the second set of one or more colors, based on the second color, in response to detecting the input corresponding to the first color adjustment control. Contains instructions to change to a modified version of the second set of colors.

一時的コンピュータ可読記憶媒体が説明される。この一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する個別の特徴、及び個別の特徴の複数の色オプションを含んでいるユーザインターフェースオブジェクトを表示し、第2の色に対応する複数の色オプションのうちの色オプションの選択を検出し、この選択を検出することに応じて、個別の特徴の色をこの色オプションに変更し、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御を表示し、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第2の集合を有している間に、第1の色調整制御に対応する入力を検出し、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更する、命令を含む。 Temporary computer-readable storage media are described. This temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and these one or more programs are the display device. Displays an individual feature with a first set of one or more colors, and a user interface object containing multiple color options for the individual features, and multiple colors corresponding to the second color. A color option that detects a selection of color options among the options and, in response to detecting this selection, changes the color of the individual feature to this color option and corresponds to a second set of one or more colors. Displays the first color adjustment control for, and while the individual features of the user interface object have a second set of one or more colors, the input corresponding to the first color adjustment control. One or more of the colors of the individual features from the second set of one or more colors, based on the second color, in response to detecting and detecting the input corresponding to the first color adjustment control. Contains instructions to change to a modified version of the second set of colors.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えており、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する個別の特徴、及び個別の特徴の複数の色オプションを含んでいるユーザインターフェースオブジェクトを表示し、第2の色に対応する複数の色オプションのうちの色オプションの選択を検出し、この選択を検出することに応じて、個別の特徴の色をこの色オプションに変更し、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御を表示し、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第2の集合を有している間に、第1の色調整制御に対応する入力を検出し、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更する、命令を含む。 The electronic device is described. The electronic device comprises a display device, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors, one of these. The above program displays, via a display device, an individual feature having a first set of one or more colors, and a user interface object containing multiple color options for the individual features, a second. Detects a selection of color options among multiple color options that correspond to a color, and in response to detecting this selection, changes the color of the individual feature to this color option and a second of one or more colors. Displays the first color adjustment control for the color options corresponding to the set of colors, and the first color while the individual features of the user interface object have a second set of one or more colors. A second of one or more colors based on the second color, depending on the detection of the input corresponding to the adjustment control and the detection of the input corresponding to the first color adjustment control. Contains instructions to change from a set of to a modified version of a second set of one or more colors.

電子デバイスが説明される。この電子デバイスは、表示装置と、表示装置を介して、1つ以上の色の第1の集合を有する個別の特徴、及び個別の特徴の複数の色オプションを含んでいるユーザインターフェースオブジェクトを表示する手段と、第2の色に対応する複数の色オプションのうちの色オプションの選択を検出する手段と、この選択を検出することに応じて、個別の特徴の色をこの色オプションに変更する手段と、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御を表示する手段と、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第2の集合を有している間に、第1の色調整制御に対応する入力を検出する手段と、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更する手段と、を備える。 The electronic device is described. The electronic device displays a display device and, through the display device, an individual feature having a first set of one or more colors, and a user interface object containing multiple color options for the individual feature. Means, means for detecting a selection of a color option among a plurality of color options corresponding to a second color, and means for changing the color of an individual feature to this color option in response to detecting this selection. And a means of displaying a first color adjustment control for a color option corresponding to a second set of one or more colors, and a second set of colors in which the individual features of the user interface object are one or more. Based on the second color, depending on the means of detecting the input corresponding to the first color adjustment control and the input corresponding to the first color adjustment control while having. It comprises means for changing the color of an individual feature from a second set of one or more colors to a modified version of a second set of one or more colors.

方法が説明される。この方法は、表示装置を有する電子デバイスで実行される。この方法は、表示装置を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示することと、複数の色オプションの個別の色オプションの選択を検出することと、第1のアバター特徴部の複数の色オプションの個別の色オプションの選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、第1のアバター特徴部を1つ以上の色の第2の集合に変更することを含めて、アバターの外観を更新することと、第2のアバター特徴部を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更することと、を含む。 The method is explained. This method is performed on an electronic device having a display device. This method is based on a first avatar feature having a first set of one or more colors and a first set of one or more colors via a display device, the first of one or more colors. An avatar with a plurality of avatar features including a second avatar feature with a set of one or more colors different from one set, and a plurality of color options corresponding to the first avatar feature. Displaying the avatar editing user interface, which includes displaying, detecting the selection of individual color options for multiple color options, and the individual colors of the multiple color options in the first avatar feature. Depending on the detection of option selection, the first avatar feature may be a second set of one or more colors, according to the determination that the individual color options correspond to a second set of one or more colors. Updating the appearance of the avatar, including changing to, and making the second avatar feature different from the second set of one or more colors based on the second set of one or more colors. Includes changing to a set of one or more colors.

非一時的コンピュータ可読記憶媒体が説明される。この非一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示し、複数の色オプションの個別の色オプションの選択を検出し、第1のアバター特徴部の複数の色オプションの個別の色オプションの選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、第1のアバター特徴部を1つ以上の色の第2の集合に変更することを含めて、アバターの外観を更新し、第2のアバター特徴部を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更する、命令を含む。 A non-temporary computer-readable storage medium is described. This non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device equipped with a display device, and these one or more programs display. Different from the first set of avatar features having a first set of one or more colors, and the first set of one or more colors based on the first set of one or more colors via the device. Displaying an avatar with a plurality of avatar features, including a second avatar feature with a set of one or more colors, and a plurality of color options corresponding to the first avatar feature. Responds to displaying the included avatar editing user interface, detecting individual color option selections for multiple color options, and detecting individual color option selections for multiple color options in the first avatar feature. The avatar, including changing the first avatar feature to a second set of one or more colors, according to the determination that the individual color options correspond to a second set of one or more colors. Updates the appearance of and changes the second avatar feature to a set of one or more colors that is different from the second set of one or more colors based on the second set of one or more colors. , Including instructions.

一時的コンピュータ可読記憶媒体が説明される。この一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示し、複数の色オプションの個別の色オプションの選択を検出し、第1のアバター特徴部の複数の色オプションの個別の色オプションの選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、第1のアバター特徴部を1つ以上の色の第2の集合に変更することを含めて、アバターの外観を更新し、第2のアバター特徴部を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更する、命令を含む。 Temporary computer-readable storage media are described. This temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, which is the display device. Different from the first set of avatar features having a first set of one or more colors, and the first set of one or more colors based on the first set of one or more colors. Includes displaying an avatar with a plurality of avatar features including a second avatar feature with a set of one or more colors, and a plurality of color options corresponding to the first avatar feature. Displays the avatar editing user interface, detects individual color option selections for multiple color options, and detects individual color option selections for multiple color options in the first avatar feature. , Including changing the first avatar feature to a second set of one or more colors, according to the determination that the individual color options correspond to a second set of one or more colors. Update the appearance and change the second avatar feature to a set of one or more colors that is different from the second set of one or more colors based on the second set of one or more colors. Includes instructions.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、これらの1つ以上のプログラムは、表示装置を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示し、複数の色オプションの個別の色オプションの選択を検出し、第1のアバター特徴部の複数の色オプションの個別の色オプションの選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、第1のアバター特徴部を1つ以上の色の第2の集合に変更することを含めて、アバターの外観を更新し、第2のアバター特徴部を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更する、命令を含む。 The electronic device is described. The electronic device comprises a display device, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors, one or more of these. The program is based on a first avatar feature having a first set of one or more colors, and a first set of one or more colors via a display device, the first of one or more colors. An avatar with a plurality of avatar features including a second avatar feature with a set of one or more colors different from the set of, and a plurality of color options corresponding to the first avatar feature. Display the avatar editing user interface that includes displaying, discovering the selection of individual color options for multiple color options, and detecting the selection of individual color options for multiple color options in the first avatar feature. In response to the determination that the individual color options correspond to a second set of one or more colors, the first avatar feature may be changed to a second set of one or more colors. Including, the appearance of the avatar is updated and the second avatar feature is of one or more colors different from the second set of one or more colors based on the second set of one or more colors. Includes instructions to change to a set.

電子デバイスが説明される。この電子デバイスは、表示装置と、表示装置を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部を含んでいる複数のアバター特徴部を有するアバターと、第1のアバター特徴部に対応する複数の色オプションと、を表示することを含んでいるアバター編集ユーザインターフェースを表示する手段と、複数の色オプションの個別の色オプションの選択を検出する手段と、第1のアバター特徴部の複数の色オプションの個別の色オプションの選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、第1のアバター特徴部を1つ以上の色の第2の集合に変更する手段を含めて、アバターの外観を更新する手段と、第2のアバター特徴部を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更する手段と、を備える。 The electronic device is described. This electronic device is based on a display device, a first avatar feature having a first set of one or more colors, and a first set of one or more colors via the display device. An avatar having a plurality of avatar feature parts including a second avatar feature part having one or more color sets different from the first set of the above colors, and a plurality corresponding to the first avatar feature part. Color options, and means to display the avatar editing user interface, including displaying, and means to detect the selection of individual color options for multiple color options, and multiple colors in the first avatar feature. Individual Colors of Options Depending on the detection of option selection, the first avatar feature may be one or more colors according to the determination that the individual color options correspond to a second set of one or more colors. A means of updating the appearance of an avatar, including a means of changing to a second set of colors, and a second set of one or more colors based on a second set of one or more colors of the second avatar feature. A means for changing to a set of one or more colors different from the set of two is provided.

方法が説明される。この方法は、表示装置を有する電子デバイスで実行される。この方法は、表示装置を介して、選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバター、及び複数のアバターのアクセサリオプションを表示することを含んでいるアバター編集ユーザインターフェースを表示することと、個別のアクセサリオプションの選択を検出することと、複数のアバターのアクセサリオプションの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従ってアバター上に配置される第1のアクセサリオプションの表現を表示することを含めて、個別のアクセサリオプションの表現を含めるようにアバターの外観を変更することと、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分の形状を変更することと、を含む。 The method is explained. This method is performed on an electronic device having a display device. This method involves displaying an avatar with multiple avatar features, including the hair of an avatar with the hairstyle of the selected avatar, and an accessory option for multiple avatars via a display device. Depending on displaying the edit user interface, detecting individual accessory option selections, and detecting individual accessory option selections for multiple avatar accessory options, the individual accessory options are the first. Changing the appearance of the avatar to include the representation of the individual accessory option, including displaying the representation of the first accessory option that is placed on the avatar according to the determination that it is an accessory option, was selected. Includes changing the shape of the first portion of the avatar's hair based on the position of the representation of the first accessory option on the avatar while maintaining the avatar's hairstyle.

非一時的コンピュータ可読記憶媒体が説明される。この非一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバター、及び複数のアバターのアクセサリオプションを表示し、個別のアクセサリオプションの選択を検出し、複数のアバターのアクセサリオプションの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従ってアバター上に配置される第1のアクセサリオプションの表現を表示することを含めて、個別のアクセサリオプションの表現を含めるようにアバターの外観を変更し、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分の形状を変更する、命令を含む。 A non-temporary computer-readable storage medium is described. This non-temporary computer-readable storage medium stores one or more programs configured to be run by one or more processors of an electronic device equipped with a display, and these one or more programs are selected. View avatars with multiple avatar features, including avatar hair with avatar hairstyles, and accessory options for multiple avatars, detect individual accessory option selections, and multiple avatar accessory options Includes displaying a representation of the first accessory option that is placed on the avatar according to the determination that the individual accessory option is the first accessory option in response to detecting the selection of the individual accessory option. Based on the position of the representation of the first accessory option on the avatar, the first of the avatar's hair, while changing the appearance of the avatar to include the representation of the individual accessory options and maintaining the hairstyle of the selected avatar. Includes an instruction to change the shape of part 1.

一時的コンピュータ可読記憶媒体が説明される。この一時的コンピュータ可読記憶媒体は、表示装置を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバター、及び複数のアバターのアクセサリオプションを表示し、個別のアクセサリオプションの選択を検出し、複数のアバターのアクセサリオプションの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従ってアバター上に配置される第1のアクセサリオプションの表現を表示することを含めて、個別のアクセサリオプションの表現を含めるようにアバターの外観を変更し、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分の形状を変更する、命令を含む。 Temporary computer-readable storage media are described. This temporary computer-readable storage medium stores one or more programs configured to be run by one or more processors of an electronic device equipped with a display, and these one or more programs are selected. View avatars with multiple avatar features, including avatar hair with avatar hairstyles, and accessory options for multiple avatars, detect individual accessory option selections, and multiple avatar accessory options. In response to detecting the selection of an individual accessory option, including displaying a representation of the first accessory option that is placed on the avatar according to the determination that the individual accessory option is the first accessory option. The first of the avatar's hairs, based on the position of the first accessory option's representation on the avatar, while changing the appearance of the avatar to include the representation of the individual accessory options and maintaining the hairstyle of the selected avatar. Includes instructions to change the shape of the part.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えており、これらの1つ以上のプログラムは、選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバター、及び複数のアバターのアクセサリオプションを表示し、個別のアクセサリオプションの選択を検出し、複数のアバターのアクセサリオプションの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従ってアバター上に配置される第1のアクセサリオプションの表現を表示することを含めて、個別のアクセサリオプションの表現を含めるようにアバターの外観を変更し、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分の形状を変更する、命令を含む。 The electronic device is described. The electronic device comprises a display device, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors, one of which. The above program displays avatars with multiple avatar features, including avatar hair with the selected avatar hairstyle, and accessory options for multiple avatars, detects individual accessory option selections, and detects individual accessory option selections. Representation of the first accessory option that is placed on the avatar according to the determination that the individual accessory option is the first accessory option in response to detecting the selection of the individual accessory option for the accessory options for multiple avatars. Modify the appearance of the avatar to include the representation of the individual accessory options, including displaying, based on the position of the representation of the first accessory option on the avatar while preserving the hairstyle of the selected avatar. Includes instructions to change the shape of the first part of the avatar's hair.

電子デバイスが説明される。この電子デバイスは、表示装置と、表示装置を介して、選択されたアバターの髪形を有するアバターの毛髪を含んでいる複数のアバター特徴部を有するアバター、及び複数のアバターのアクセサリオプションを表示することを含んでいるアバター編集ユーザインターフェースを表示する手段と、個別のアクセサリオプションの選択を検出する手段と、複数のアバターのアクセサリオプションの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプションが第1のアクセサリオプションであるという判定に従ってアバター上に配置される第1のアクセサリオプションの表現を表示する手段を含めて、個別のアクセサリオプションの表現を含めるようにアバターの外観を変更する手段と、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分の形状を変更する手段と、を備える。 The electronic device is described. This electronic device displays, through the display device, an avatar with multiple avatar features, including the hair of an avatar with the hairstyle of the selected avatar, and accessory options for multiple avatars. Avatar editing means that includes a means to display the user interface, a means to detect the selection of individual accessory options, and a means to detect individual accessory option selections for multiple avatar accessory options. A means of modifying the appearance of an avatar to include a representation of an individual accessory option, including a means of displaying a representation of the first accessory option that is placed on the avatar according to the determination that the option is the first accessory option. And a means of changing the shape of the first portion of the avatar's hair based on the position of the representation of the first accessory option on the avatar while maintaining the selected avatar's hairstyle.

方法が説明される。この方法は、1つ以上のカメラ及び表示装置を有する電子デバイスで実行される。この方法は、表示装置を介して、1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示することと、1つ以上のカメラの視野内で顔が検出されている間に、この顔がユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、第1の顔の特徴の動きを検出することと、第1の顔の特徴の動きを検出することに応じて、ユーザの舌が、個別の基準が満たされるためにはユーザの舌が可視であるという要件を含む、個別の基準を満たしているという判定に従って、第1の顔の特徴の動きに基づいて、アバターの舌を表示し、アバターの舌の位置を変更することと、ユーザの舌が個別の基準を満たしていないという判定に従って、アバターの舌を表示するのを止めることと、を含む。 The method is explained. This method is performed on an electronic device having one or more cameras and display devices. This method involves displaying a virtual avatar with multiple avatar features that change its appearance in response to changes detected in facial poses in the field of view of one or more cameras via a display device. While a face is being detected within the field of view of one or more cameras, the face contains a plurality of detected facial features, including a first facial feature other than the user's tongue, the first. The requirement that the user's tongue be visible in order for the individual criteria to be met, in response to detecting the movement of the facial features and detecting the movement of the first facial features. To display the tongue of the avatar and change the position of the tongue of the avatar based on the movement of the first facial feature according to the determination that the individual criteria are met, including, and the tongue of the user is individual. Includes stopping the display of the avatar's tongue according to the determination that it does not meet the criteria.

非一時的コンピュータ可読記憶媒体が説明される。この非一時的コンピュータ可読記憶媒体は、表示装置及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示し、1つ以上のカメラの視野内で顔が検出されている間に、この顔がユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、第1の顔の特徴の動きを検出し、第1の顔の特徴の動きを検出することに応じて、ユーザの舌が、個別の基準が満たされるためにはユーザの舌が可視であるという要件を含む、個別の基準を満たしているという判定に従って、第1の顔の特徴の動きに基づいて、アバターの舌を表示し、アバターの舌の位置を変更し、ユーザの舌が個別の基準を満たしていないという判定に従って、アバターの舌を表示するのを止める、命令を含む。 A non-temporary computer-readable storage medium is described. This non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device equipped with a display device and one or more cameras, one of these. The above program displays a virtual avatar with a plurality of avatar features that changes its appearance in response to changes detected in facial poses in the field of view of one or more cameras via a display device. While a face is being detected within the field of view of one or more cameras, the face contains a plurality of detected facial features, including a first facial feature other than the user's tongue, the first face. Includes the requirement that the user's tongue be visible in order for the individual criteria to be met, in response to detecting the movement of the feature of the first facial feature. The avatar's tongue is displayed, the avatar's tongue is repositioned, and the user's tongue does not meet the individual criteria, based on the movement of the first facial feature, according to the determination that the individual criteria are met. Includes a command to stop displaying the tongue of the avatar according to the judgment.

一時的コンピュータ可読記憶媒体が説明される。この一時的コンピュータ可読記憶媒体は、表示装置及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、これらの1つ以上のプログラムは、表示装置を介して、1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示し、1つ以上のカメラの視野内で顔が検出されている間に、この顔がユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、第1の顔の特徴の動きを検出し、第1の顔の特徴の動きを検出することに応じて、ユーザの舌が、個別の基準が満たされるためにはユーザの舌が可視であるという要件を含む、個別の基準を満たしているという判定に従って、第1の顔の特徴の動きに基づいて、アバターの舌を表示し、アバターの舌の位置を変更し、ユーザの舌が個別の基準を満たしていないという判定に従って、アバターの舌を表示するのを止める、命令を含む。 Temporary computer-readable storage media are described. This temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device equipped with a display device and one or more cameras, one or more of these. The program displays a virtual avatar with multiple avatar features that change its appearance in response to changes detected in facial poses within the field of view of one or more cameras via a display device. While the face is detected in the field of view of the above camera, the face contains a plurality of detected facial features including the first facial features other than the user's tongue, and the first face features. Individual, including the requirement that the user's tongue be visible in order for the individual criteria to be met, in response to detecting the movement of the feature and detecting the movement of the first facial feature. According to the determination that the criteria are met, the avatar's tongue is displayed, the position of the avatar's tongue is changed, and the user's tongue does not meet the individual criteria based on the movement of the first facial feature. Includes a command to stop displaying the avatar's tongue according to the verdict.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備えており、これらの1つ以上のプログラムは、表示装置を介して、1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示し、1つ以上のカメラの視野内で顔が検出されている間に、この顔がユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、第1の顔の特徴の動きを検出し、第1の顔の特徴の動きを検出することに応じて、ユーザの舌が、個別の基準が満たされるためにはユーザの舌が可視であるという要件を含む、個別の基準を満たしているという判定に従って、第1の顔の特徴の動きに基づいて、アバターの舌を表示し、アバターの舌の位置を変更し、ユーザの舌が個別の基準を満たしていないという判定に従って、アバターの舌を表示するのを止める、命令を含む。 The electronic device is described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. These one or more programs have a plurality of avatar features that change their appearance in response to changes detected in the pose of the face in the field of view of the one or more cameras via the display device. While displaying a virtual avatar and a face being detected in the field of one or more cameras, this face contains multiple detected facial features, including a first facial feature other than the user's tongue. Yet, in response to detecting the movement of the first facial feature and detecting the movement of the first facial feature, the user's tongue is visible in order for the individual criteria to be met. The avatar's tongue is displayed, the avatar's tongue is repositioned, and the user's tongue is based on the movement of the first facial feature, according to the determination that the individual criteria are met, including the requirement that Includes a command to stop displaying the avatar's tongue according to the determination that it does not meet the individual criteria.

電子デバイスが説明される。この電子デバイスは、表示装置と、1つ以上のカメラと、表示装置を介して、1つ以上のカメラの視野内の顔のポーズにおいて検出された変化に応じて外観を変更する、複数のアバター特徴部を有する仮想アバターを表示する手段と、1つ以上のカメラの視野内で顔が検出されている間に、この顔がユーザの舌以外の第1の顔の特徴を含む複数の検出された顔の特徴を含んでいて、第1の顔の特徴の動きを検出する手段と、第1の顔の特徴の動きを検出することに応じて、ユーザの舌が、個別の基準が満たされるためにはユーザの舌が可視であるという要件を含む、個別の基準を満たしているという判定に従って、第1の顔の特徴の動きに基づいて、アバターの舌を表示し、アバターの舌の位置を変更する手段と、ユーザの舌が個別の基準を満たしていないという判定に従って、アバターの舌を表示するのを止める手段と、を備える。 The electronic device is described. The electronic device is a display device, one or more cameras, and multiple avatars that change their appearance in response to changes detected in facial poses within the field of view of the one or more cameras via the display device. A means of displaying a virtual avatar with features and multiple detections of this face, including features of the first face other than the user's tongue, while the face is being detected within the field of view of one or more cameras. The user's tongue is satisfied with individual criteria depending on the means of detecting the movement of the first facial feature and the movement of the first facial feature, including the facial features. The avatar's tongue is displayed and the avatar's tongue position is based on the movement of the first facial feature, according to the determination that the individual criteria are met, including the requirement that the user's tongue be visible. It is provided with a means for changing the tongue and a means for stopping the display of the avatar's tongue according to the determination that the user's tongue does not meet the individual criteria.

これらの機能を実行する実行可能命令は任意選択で、非一時的コンピュータ可読記憶媒体又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。これらの機能を実行するための実行可能命令は、任意選択的に、一時的コンピュータ可読記憶媒体、又は1つ以上のプロセッサによって実行するように構成された他のコンピュータプログラム製品に含まれる。 Executable instructions that perform these functions are optionally included in non-temporary computer-readable storage media or other computer program products configured to be executed by one or more processors. Executable instructions for performing these functions are optionally included in a temporary computer-readable storage medium or other computer program product configured to be executed by one or more processors.

このため、アバターを作成及び編集するための、より速く、より効率的な方法及びインターフェースがデバイスに提供され、それによって、このようなデバイスの有効性、効率、及びユーザ満足度が増す。このような方法及びインターフェースは、アバターを作成及び編集する他の方法を補完するか、又は置き換えてよい。 This provides devices with faster and more efficient methods and interfaces for creating and editing avatars, thereby increasing the effectiveness, efficiency, and user satisfaction of such devices. Such methods and interfaces may complement or replace other methods of creating and editing avatars.

説明される様々な実施形態を良好に理解するため、以下の図面と連携して、以下の「発明を実施するための形態」が参照されるべきである。ここで、類似の参照番号は、それらの図全体を通じて、対応する部分を指す。 In order to better understand the various embodiments described, the following "Embodiments for Carrying Out the Invention" should be referred to in conjunction with the following drawings. Here, similar reference numbers refer to the corresponding parts throughout those figures.

いくつかの実施形態に従った、タッチ感知ディスプレイを備えるポータブル多機能デバイスを示すブロック図である。FIG. 6 is a block diagram illustrating a portable multifunction device with a touch-sensitive display, according to some embodiments.

いくつかの実施形態に従った、イベント処理のための例示的な構成要素を示すブロック図である。It is a block diagram which shows the exemplary component for event processing according to some embodiments.

いくつかの実施形態に従った、タッチスクリーンを有するポータブル多機能デバイスを示す図である。It is a figure which shows the portable multifunctional device which has a touch screen according to some embodiments.

いくつかの実施形態に従った、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。FIG. 3 is a block diagram of an exemplary multifunction device with a display and a touch sensitive surface, according to some embodiments.

いくつかの実施形態に従った、ポータブル多機能デバイス上のアプリケーションのメニュー用の例示的なユーザインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for a menu of applications on a portable multifunction device, according to some embodiments.

いくつかの実施形態に従った、ディスプレイとは別個のタッチ感知面を備える多機能デバイスに関する、例示的なユーザインターフェースを示す。Shown is an exemplary user interface for a multifunctional device with a touch sensitive surface separate from the display, according to some embodiments.

いくつかの実施形態に従った、パーソナル電子デバイスを示す図である。It is a figure which shows the personal electronic device according to some embodiments.

いくつかの実施形態に従った、パーソナル電子デバイスを示すブロック図である。FIG. 6 is a block diagram showing a personal electronic device according to some embodiments.

アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application. アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for navigating between avatars in an application.

アプリケーション内のアバター間をナビゲートする方法を示すフロー図である。It is a flow diagram which shows the method of navigating between avatars in an application.

アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface. アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示す図である。It is a figure which shows the exemplary user interface which displays the avatar edit user interface.

アバター編集ユーザインターフェースを表示する方法を示すフロー図である。It is a flow diagram which shows the method of displaying the avatar edit user interface.

アバター編集ユーザインターフェースを表示する方法を示すフロー図である。It is a flow diagram which shows the method of displaying the avatar edit user interface. アバター編集ユーザインターフェースを表示する方法を示すフロー図である。It is a flow diagram which shows the method of displaying the avatar edit user interface.

アバター編集ユーザインターフェースを表示する方法を示すフロー図である。It is a flow diagram which shows the method of displaying the avatar edit user interface. アバター編集ユーザインターフェースを表示する方法を示すフロー図である。It is a flow diagram which shows the method of displaying the avatar edit user interface.

アバター編集ユーザインターフェースを表示する方法を示すフロー図である。It is a flow diagram which shows the method of displaying the avatar edit user interface. アバター編集ユーザインターフェースを表示する方法を示すフロー図である。It is a flow diagram which shows the method of displaying the avatar edit user interface.

アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示す図である。Avatar Navigation It is a diagram illustrating an exemplary user interface that modifies an avatar within a user interface.

アバターナビゲーションユーザインターフェース内のアバターを変更する方法を示すフロー図である。Avatar Navigation It is a flow diagram which shows the method of changing an avatar in a user interface. アバターナビゲーションユーザインターフェース内のアバターを変更する方法を示すフロー図である。Avatar Navigation It is a flow diagram which shows the method of changing an avatar in a user interface.

以下の説明では、例示的な方法、パラメータなどが記載される。しかし、そのような説明の目的は、本開示の範囲を制限することではなく、例示的な実施形態の説明を提供することであることを理解されたい。 In the following description, exemplary methods, parameters, etc. will be described. However, it should be understood that the purpose of such description is not to limit the scope of the present disclosure, but to provide a description of exemplary embodiments.

アバターを作成及び編集する効率的な方法及びインターフェースを提供する電子デバイスが必要とされている。例えば、アバターを作成及び編集するプログラムがすでに存在しているが、これらのプログラムは、以下の技術に比べて非効率で使いにくいものであり、以下の技術では、ユーザは必要に応じて現実的又は非現実的なアバターを作成して編集することができる。このような技術によって、アバターを作成して編集するユーザの認識的負担が軽減され、それによって生産性が向上され得る。更に、そのような技術は、通常であれば冗長なユーザ入力に対して浪費される、プロセッサ及びバッテリの電力を低減することができる。 There is a need for electronic devices that provide efficient methods and interfaces for creating and editing avatars. For example, programs that create and edit avatars already exist, but these programs are inefficient and difficult to use compared to the following technologies, which allow users to be more realistic as needed. Or you can create and edit unrealistic avatars. Such techniques can reduce the cognitive burden on the user to create and edit avatars, thereby improving productivity. Moreover, such techniques can reduce processor and battery power, which would normally be wasted on redundant user input.

以下の図1A~図1B、図2、図3、図4A~図4B、及び図5A~図5Bでは、アバターを作成及び編集するための技術を実行する例示的なデバイスについて説明する。 The following FIGS. 1A-1B, 2, 3, 4, 4A-4B, and 5A-5B describe exemplary devices that perform techniques for creating and editing avatars.

図6A~図6ANは、いくつかの実施形態に従って、アプリケーション内のアバター間をナビゲートする例示的なユーザインターフェースを示している。図7は、いくつかの実施形態に従って、アプリケーション内のアバター間をナビゲートする方法を示すフロー図である。図6A~図6ANのユーザインターフェースは、図7の処理を含む、以下で説明される処理を示すために使用される。 6A-6AN show an exemplary user interface for navigating between avatars within an application according to some embodiments. FIG. 7 is a flow diagram showing how to navigate between avatars in an application according to some embodiments. The user interface of FIGS. 6A-6AN is used to indicate the process described below, including the process of FIG.

図8A~図8CFは、アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示している。図9A、図9B、図10A、図10B、図11A、図11B、図12A、及び図12Bは、いくつかの実施形態に従って、アバター編集ユーザインターフェースを表示する方法を示すフロー図である。図8A~図8CFのユーザインターフェースは、図9A、図9B、図10A、図10B、図11A、図11B、図12A、及び図12Bの処理を含む、以下で説明される処理を示すために使用される。 8A-8CF show an exemplary user interface displaying an avatar editing user interface. 9A, 9B, 10A, 10B, 11A, 11B, 12A, and 12B are flow diagrams illustrating how to display the avatar editing user interface according to some embodiments. The user interface of FIGS. 8A-8CF is used to indicate the processes described below, including the processes of FIGS. 9A, 9B, 10A, 10B, 11A, 11B, 12A, and 12B. Will be done.

図13A~図13Oは、アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示している。図14A及び図14Bは、いくつかの実施形態に従って、アバターナビゲーションユーザインターフェース内のアバターを変更する方法を示すフロー図である。図13A~13Oのユーザインターフェースは、図14A及び図14Bの処理を含む、以下で説明される処理を示すために使用される。 13A-13O show an exemplary user interface that modifies an avatar within the avatar navigation user interface. 14A and 14B are flow diagrams illustrating how to modify the avatar in the avatar navigation user interface according to some embodiments. The user interface of FIGS. 13A-13O is used to indicate the process described below, including the process of FIGS. 14A and 14B.

以下の説明では、様々な要素を説明するために「第1」、「第2」などの用語が使用されるが、これらの要素はこれらの用語によって限定されるべきではない。これらの用語は、1つの要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1のタッチは第2のタッチと称することができ、同様に、第2のタッチは第1のタッチと称し得る。第1のタッチ及び第2のタッチは共にタッチであるが、同じタッチではない。 In the following description, terms such as "first" and "second" are used to describe the various elements, but these elements should not be limited by these terms. These terms are used only to distinguish one element from another. For example, without departing from the scope of the various embodiments described, the first touch can be referred to as the second touch, and similarly, the second touch can be referred to as the first touch. The first touch and the second touch are both touches, but they are not the same touch.

本明細書で説明される様々な実施形態の説明で使用される用語は、特定の実施形態を説明することのみを目的とするものであって、限定することを意図するものではない。説明される様々な実施形態の説明及び添付の特許請求の範囲で使用されるように、単数形「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形もまた含むことが意図される。本明細書で使用されるように、用語「and/or(及び/又は)」は、関連する列挙された項目のうちの1つ以上の任意のすべての可能な組み合わせを指し、かつこれを含むことをもまた理解されたい。用語「includes(含んでいる)、「including(含んでいる)」、「comprises(含んでいる)」、及び/又は「comprising(含んでいる)」は、本明細書で使用されるとき、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。 The terms used in the description of the various embodiments described herein are for the purpose of describing particular embodiments only and are not intended to be limiting. As used in the description of the various embodiments described and in the appended claims, the singular forms "a", "an", and "the" do not explicitly indicate that the context is not. To the extent, the plural is also intended to be included. As used herein, the term "and / or (and / or)" refers to and includes any and all possible combinations of one or more of the relevant listed items. Please understand that as well. The terms "includes", "includes", "comprises", and / or "comprising", as used herein, are mentioned. Specifies the presence of a feature, integer, step, action, element, and / or component, but of one or more other features, integers, steps, actions, elements, components, and / or groups of them. It will be further understood that the existence or addition is not excluded.

任意選択的に、用語「if(~場合に)」は、文脈に応じて「when(~のときに)」、「upon(~すると)」、「in response to determining(~という判定に応じて)」、又は「in response to detecting(~を検出したことに応じて)」を意味すると解釈される。同様に、語句「if it is determined(~と判定される場合)」又は「if(a stated condition or event)is detected((述べられる条件又はイベント)が検出される場合)」は、任意選択で、文脈に依存して「upon determining(~と判定すると)」、「in response to determining(~と判定したことに応じて)」、「upon detecting(the stated condition or event)((述べられる条件又はイベント)を検出すると)」、又は「in response to detecting(the stated condition or event)((述べられる条件又はイベント)を検出したことに応じて)」を意味するものと解釈される。 Optionally, the term "if" is, depending on the context, "when", "upon", "in-response to determining" (depending on the judgment). ) ”, Or“ in response to detecting (depending on the detection of) ”. Similarly, the phrase "if it is determined" or "if (a statused context or event) is detected" is optional. , "Upon determining", "in response to determining", "upon detecting (the statused condition or event)" ((conditions described or) When an event) is detected), it is interpreted to mean "in response to detecting (the monitored context or event) (depending on the detection of (the condition or event) described)".

電子デバイス、そのようなデバイス用のユーザインターフェース及びそのようなデバイスを使用するための関連するプロセスの実施形態が説明される。一部の実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、モバイル電話機などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態には、California州CupertinoのApple Inc.のiPhone(登録商標)、iPod Touch(登録商標)及びiPad(登録商標)デバイスが挙げられるが、これらに限定されない。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたラップトップ又はタブレットコンピュータなどの他のポータブル電子デバイスも、任意選択的に、使用される。いくつかの実施形態では、デバイスがポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたデスクトップコンピュータであることもまた理解されたい。 Embodiments of electronic devices, user interfaces for such devices and related processes for using such devices are described. In some embodiments, the device is a portable communication device, such as a mobile phone, that also includes other functions such as a PDA function and / or a music player function. Exemplary embodiments of portable multifunction devices include Apple Inc. of Cupertino, Calif. IPhone®, iPod Touch® and iPad® devices, but are not limited to these. Other portable electronic devices such as laptops or tablet computers with touch sensitive surfaces (eg, touch screen displays and / or touchpads) are also optionally used. It should also be appreciated that in some embodiments, the device is not a portable communication device, but a desktop computer with a touch sensitive surface (eg, a touch screen display and / or a touch pad).

以下の議論では、ディスプレイ及びタッチ感知面を含む電子デバイスが説明される。しかし、電子デバイスが物理キーボード、マウス及び/又はジョイスティックなどの、1つ以上の他の物理ユーザインターフェースデバイスを任意選択的に含むことを理解されたい。 The following discussion describes electronic devices including displays and touch sensitive surfaces. However, it should be understood that electronic devices optionally include one or more other physical user interface devices such as physical keyboards, mice and / or joysticks.

このデバイスは、一般的に、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。 This device is typically a drawing application, presentation application, word processing application, website creation application, disk authoring application, spreadsheet application, gaming application, phone application, video conferencing application, email application, instant messaging application, training. Supports a variety of applications such as one or more of support applications, photo management applications, digital camera applications, digital video camera applications, web browsing applications, digital music player applications and / or digital video player applications.

本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインターフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調節及び/又は変更される。このように、デバイスの共通の(タッチ感知面などの)物理アーキテクチャは、ユーザにとって直観的かつ透過的なユーザインターフェースを備える様々なアプリケーションを、任意選択的にサポートする。 Various applications running on the device optionally use at least one common physical user interface device, such as a touch sensitive surface. One or more functions of the touch-sensitive surface, as well as the corresponding information displayed on the device, are optionally adjusted and / or modified on an application-by-application basis and / or within each application. Thus, the device's common physical architecture (such as touch-sensitive surfaces) optionally supports a variety of applications with user-intuitive and transparent user interfaces.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、一部の実施形態による、タッチ感知ディスプレイシステム112を備えるポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれる場合があり、「タッチ感知ディスプレイシステム」として既知であるか又は呼ばれる場合もある。デバイス100は、(1つ以上のコンピュータ可読記憶媒体を任意選択的に含む)メモリ102、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インターフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(input/output、I/O)サブシステム106、他の入力制御デバイス116及び外部ポート124を含む。デバイス100は、1つ以上の光センサ164を任意選択的に含む。デバイス100は、デバイス100(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出するための、1つ以上の接触強度センサ165を任意選択的に含む。デバイス100は、デバイス100上に触知出力を生成する(例えば、デバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などの、タッチ感知面上に触知出力を生成する)ための、1つ以上の触知出力生成器167を、任意選択的に含む。これらの構成要素は、1つ以上の通信バス又は信号ライン103を介して任意選択的に通信する。 Here, attention is paid to an embodiment of a portable device including a touch-sensitive display. FIG. 1A is a block diagram showing a portable multifunction device 100 with a touch-sensitive display system 112 according to some embodiments. The touch-sensitive display 112 may be referred to as a "touch screen" for convenience, and may also be known or referred to as a "touch-sensitive display system". The device 100 includes a memory 102 (optionally including one or more computer-readable storage media), a memory controller 122, one or more processing units (CPU) 120, a peripheral device interface 118, an RF circuit 108, and an audio circuit 110. , Speaker 111, microphone 113, input / output (I / O) subsystem 106, other input control device 116 and external port 124. The device 100 optionally includes one or more photosensors 164. The device 100 optionally includes one or more contact strength sensors 165 for detecting the strength of contact on the device 100 (eg, a touch-sensitive surface such as the touch-sensitive display system 112 of the device 100). The device 100 generates a tactile output on the device 100 (eg, a tactile output on a touch-sensitive surface, such as the touch-sensitive display system 112 of the device 100 or the touchpad 355 of the device 300). One or more tactile output generators 167 are optionally included. These components optionally communicate via one or more communication buses or signal lines 103.

本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指接触)の力若しくは圧力(単位面積当りの力)、又はタッチ感知面上の接触の力若しくは圧力の代替物(代用物)を指す。接触の強度は、少なくとも4つの異なる値を含み、より典型的には、何百もの(例えば、少なくとも256個の)異なる値を含む値範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して判定(又は、測定)される。例えば、タッチ感知面の下に又はこれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々な点における力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値は、接触の力の推定値を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触領域のサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化が、タッチ感知面上の接触の力又は圧力の代替物として、任意選択的に使用される。いくつかの実装形態では、接触の力又は圧力に対する代替的測定値は、強度閾値を超えているかを判定するために直接使用される(例えば、強度閾値は、代替的測定値に対応する単位で説明される)。いくつかの実装形態では、接触の力又は圧力に対する代替的測定値は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超えているかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。接触の強度をユーザ入力の属性として使用することによって、アフォーダンスを表示するための(例えば、タッチ感知ディスプレイ上で)、及び/又は、ユーザ入力を受信するための(例えば、タッチ感知ディスプレイ、タッチ感知面、又はノブ若しくはボタンなどの物理的/機械的制御部を介して)、面積が制限されている、低減されたサイズのデバイス上で別途ユーザによってアクセスすることができないことがある追加的なデバイス機能へのユーザのアクセスが可能となる。 As used herein and in the claims, the term "strength" of contact on a touch-sensitive surface refers to the force or pressure (force per unit area) of contact (eg, finger contact) on the touch-sensitive surface. ), Or a substitute for contact force or pressure on the touch-sensitive surface. The contact strength contains at least four different values, and more typically has a value range containing hundreds (eg, at least 256) different values. Contact strength is optionally determined (or measured) using different methods and different sensors or combinations of sensors. For example, one or more force sensors below or adjacent to the touch sensing surface are optionally used to measure forces at various points on the touch sensing surface. In some implementations, force measurements from multiple force sensors are combined to determine contact force estimates (eg, weighted average). Similarly, the pressure sensitive tip of the stylus is optionally used to determine the pressure of the stylus on the touch sensitive surface. Alternatively, the size and / or its change in the contact area detected on the touch sensing surface, the capacitance and / or its change in the touch sensing surface close to the contact, and / or the resistance of the touch sensing surface close to the contact and / or / Or its changes are optionally used as an alternative to the force or pressure of contact on the touch sensitive surface. In some embodiments, the alternative measurement for contact force or pressure is used directly to determine if the intensity threshold is exceeded (eg, the intensity threshold is the unit corresponding to the alternative measurement). Explained). In some embodiments, alternative measurements for contact force or pressure are converted to estimated force or pressure and used to determine if the estimated force or pressure exceeds the intensity threshold. (For example, the intensity threshold is a pressure threshold measured in units of pressure). By using the strength of contact as an attribute of user input, to display affordances (eg, on a touch-sensitive display) and / or to receive user input (eg, touch-sensitive display, touch-sensitive). Additional devices that may not be separately accessible by the user on a surface, or a device of reduced size that is limited in area (via physical / mechanical controls such as knobs or buttons). Allows user access to features.

本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの前の位置に対するデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)のデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又はデバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素がタッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況において、物理的変位によって生成された触知出力は、デバイス又はデバイスの構成要素の物理的特性における認識された変化に相当する触感として、ユーザによって解釈される。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、任意選択的に、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として解釈される。いくつかの場合、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の実施例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。よって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」、「ダウンクリック」、「粗さ」)に対応するものとして説明されるとき、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの説明された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。 As used herein and in the claims, the term "tactile output" is the physical displacement of the device with respect to the position in front of the device, the configuration of the device, which will be detected by the user by the user's tactile sensation. Refers to the physical displacement of an element (eg, a touch-sensitive surface) with respect to another component (eg, housing) of the device, or the displacement of the component with respect to the mass center of the device. For example, a tactile output generated by physical displacement in a situation where the device or a component of the device is in contact with a touch-sensitive user's surface (eg, the finger, palm, or other part of the user's hand). Is interpreted by the user as a tactile sensation that corresponds to a perceived change in the physical properties of the device or its components. For example, the movement of a touch-sensitive surface (eg, a touch-sensitive display or trackpad) is optionally interpreted by the user as a "down-click" or "up-click" of a physical actuator button. In some cases, the user "down-clicks" or "up-clicks" even when there is no physical actuator button movement associated with the touch-sensitive surface physically pressed (eg, displaced) by the user's actions. I feel the tactile sensation. As another embodiment, the movement of the touch-sensitive surface is optionally interpreted or sensed by the user as the "roughness" of the touch-sensitive surface, even if the smoothness of the touch-sensitive surface does not change. Will be done. The interpretation of touches by such users depends on the user's personal sensory perception, but there are many sensory perceptions common to the majority of users. Thus, when the tactile output is described as corresponding to a particular sensory perception of the user (eg, "up-click", "down-click", "roughness"), it was generated unless otherwise stated. The tactile output corresponds to a device that produces a typical (or average) user's described sensory cognition, or the physical displacement of a component of the device.

デバイス100は、ポータブル多機能デバイスの一実施例に過ぎず、デバイス100は、示されているものよりも多くの構成要素又は少ない構成要素を任意選択的に有し、2つ以上の構成要素を任意選択的に組み合わせて、又は構成要素の異なる構成若しくは配置を任意選択的に有することを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア又はハードウェア及びソフトウェアの双方の組み合わせで実装される。 The device 100 is merely an embodiment of a portable multifunctional device, wherein the device 100 optionally has more or fewer components than those shown, and has two or more components. It should be understood that they may be arbitrarily combined or have different configurations or arrangements of components. The various components shown in FIG. 1A are implemented in hardware, software or a combination of hardware and software, including one or more signal processing circuits and / or application-specific integrated circuits.

メモリ102は、高速ランダムアクセスメモリを任意選択的に含み、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリもまた任意選択的に含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。 The memory 102 optionally includes high speed random access memory and also optionally includes non-volatile memory such as one or more magnetic disk storage devices, flash memory devices or other non-volatile solid state memory devices. The memory controller 122 optionally controls access to the memory 102 by other components of the device 100.

周辺機器インターフェース118を使用して、本デバイスの入力及び出力周辺機器を、CPU120及びメモリ102に接続することができる。1つ以上のプロセッサ120は、デバイス100のための様々な機能を実行するため並びにデータを処理するために、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる、又は実行する。いくつかの実施形態では、周辺機器インターフェース118、CPU120及びメモリコントローラ122は、チップ104などの単一チップ上に任意選択的に実装される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。 The peripheral device interface 118 can be used to connect the input and output peripheral devices of the device to the CPU 120 and the memory 102. One or more processors 120 operate or execute various software programs and / or instruction sets stored in memory 102 to perform various functions for device 100 and to process data. .. In some embodiments, the peripheral interface 118, CPU 120 and memory controller 122 are optionally mounted on a single chip such as chip 104. In some other embodiments, they are optionally mounted on separate chips.

RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、これらの機能を実行するための周知の回路を任意選択的に含み、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、メモリなどが挙げられるが、これらに限定されない。RF回路108は任意選択で、ワールドワイドウェブ(World Wide Web、WWW)とも称されるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、他のデバイスと無線通信によって通信する。RF回路108は、近距離通信無線などによる近距離通信(NFC)(near field communication)フィールドを検出するための周知の回路を任意選択的に含む。無線通信は、複数の通信規格、通信プロトコル、及び通信技術のうちのいずれかを、任意選択的に使用し、それらの通信規格、通信プロトコル、及び通信技術としては、移動通信用のグローバルシステム(Global System for Mobile Communications、GSM(登録商標))、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケット接続(high-speed downlink packet access、HSDPA)、高速アップリンクパケット接続(high-speed uplink packet access、HSUPA)、Evolution,Data-Only(EV-DO)、HSPA、HSPA+、2重セルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離無線通信(near field communication、NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetooth Low Energy(BTLE)、Wireless Fidelity(Wi-Fi)(登録商標)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/又はIEEE 802.11ac)、ボイスオーバーインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX、電子メール用のプロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/又はポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能メッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンス利用拡張向けセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、及び/又はショートメッセージサービス(Short Message Service、SMS)、あるいは本文書の出願日現在までにまだ開発されていない通信プロトコルを含めた任意の他の好適な通信プロトコルが挙げられるが、これらに限定されない。 The RF (radio frequency) circuit 108 transmits and receives RF signals, also called electromagnetic signals. The RF circuit 108 converts an electric signal into an electromagnetic signal or converts an electromagnetic signal into an electric signal and communicates with a communication network and other communication devices via the electromagnetic signal. The RF circuit 108 optionally includes well-known circuits for performing these functions, such as an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, and a CODEC. Examples include, but are not limited to, chipsets, subscriber identification module (SIM) cards, memory, and the like. The RF circuit 108 is optional and is also referred to as the World Wide Web (WWW) Internet, intranet, and / or cellular telephone network, wireless local area network (LAN) and / or metropolitan area network. It communicates with a network such as a wireless network such as (metropolitan area network, MAN) by wireless communication with other devices. The RF circuit 108 optionally includes a well-known circuit for detecting a near field communication (NFC) (near field communication) field, such as by near field communication radio. Wireless communication arbitrarily uses any one of a plurality of communication standards, communication protocols, and communication technologies, and the communication standards, communication protocols, and communication technologies are global systems for mobile communication (these communication standards, communication protocols, and communication technologies). Global System for Mobile Communications, GSM®, Enhanced Data GSM Environment, EDGE, high-speed downlink packet access, HSDPA, high-speed downlink packet access, high- speed uplink packet access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA +, double cell HSPA (Dual-Cell HSPA, DC-HSPDA), long term evolution (LTE), near Near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access , TDMA), Bluetooth®, Bluetooth Low Energy (BTLE), Wireless Fidelity (Wi-Fi)® (eg, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, IE , And / or IEEE 802.11ac), voice over Internet Protocol (VoIP), Wi-MAX, protocols for e-mail (eg, Internet message access protocol (IMAP) and / or Post office protocol (POP), instant messaging (eg, extensible messagi) ng and presence protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS), and / Or any other suitable communication protocol, including but not limited to Short Message Service (SMS), or communication protocols that have not yet been developed to date as of the filing date of this document.

オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインターフェースを提供する。オーディオ回路110は、周辺機器インターフェース118からオーディオデータを受信し、そのオーディオデータを電気信号に変換し、その電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。オーディオ回路110はまた、マイクロフォン113により音波から変換された電気信号を受信する。オーディオ回路110は、電気信号を音声データに変換し、音声データを処理のために周辺機器インターフェース118に送信する。音声データは任意選択で、周辺機器インターフェース118によって、メモリ102及び/若しくはRF回路108から取得され、並びに/又はメモリ102及び/若しくはRF回路108へ送信される。一部の実施形態では、オーディオ回路110はヘッドセットジャック(例えば、図2の212)を更に備える。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば、片耳又は両耳用のヘッドホン)及び入力(例えば、マイクロフォン)の双方を有するヘッドセットなどの、取り外し可能なオーディオ入出力周辺機器と、の間のインターフェースを提供する。 The audio circuit 110, the speaker 111, and the microphone 113 provide an audio interface between the user and the device 100. The audio circuit 110 receives audio data from the peripheral device interface 118, converts the audio data into an electric signal, and transmits the electric signal to the speaker 111. The speaker 111 converts an electrical signal into a human audible sound wave. The audio circuit 110 also receives an electrical signal converted from sound waves by the microphone 113. The audio circuit 110 converts the electrical signal into voice data and transmits the voice data to the peripheral interface 118 for processing. The audio data is optionally acquired from the memory 102 and / or the RF circuit 108 by the peripheral interface 118 and / or transmitted to the memory 102 and / or the RF circuit 108. In some embodiments, the audio circuit 110 further comprises a headset jack (eg, 212 in FIG. 2). The headset jack is a removable audio input / output peripheral such as an audio circuit 110 and an output-only headphone or a headset that has both an output (eg, headphones for one or both ears) and an input (eg, a microphone). Provides an interface between and.

I/Oサブシステム106は、周辺機器インターフェース118に、タッチスクリーン112及び他の入力制御デバイス116などのデバイス100の入出力周辺機器を結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力若しくは制御デバイスのための1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、電気信号を、他の入力制御デバイス116から受信/他の入力制御デバイス116に送信する。他の入力制御デバイス116は、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイアル、スライダースイッチ、ジョイスティック、クリックホイールなどを任意選択的に含む。いくつかの代替的実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに連結される(又は、いずれにも連結されない)。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロフォン113の音量調節のためのアップ/ダウンボタンを任意選択的に含む。1つ以上のボタンは、プッシュボタン(例えば、図2の206)を任意選択的に含む。 The I / O subsystem 106 couples the input / output peripherals of the device 100, such as the touch screen 112 and other input control devices 116, to the peripheral interface 118. The I / O subsystem 106 optionally includes a display controller 156, an optical sensor controller 158, an intensity sensor controller 159, a haptic feedback controller 161 and one or more input controllers 160 for other input or control devices. include. One or more input controllers 160 receive electrical signals from the other input control device 116 and transmit them to the other input control device 116. The other input control device 116 optionally includes physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, and the like. In some alternative embodiments, the input controller (s) 160 is optionally coupled (or optionally) to any of pointer devices such as keyboards, infrared ports, USB ports, and mice. Not linked to either). One or more buttons (eg, 208 in FIG. 2) optionally include up / down buttons for volume control of the speaker 111 and / or the microphone 113. The one or more buttons optionally include a push button (eg, 206 in FIG. 2).

2005年12月23日に出願された、米国特許第7,657,849号である米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」(この特許は、その全体が本明細書において参照により組み込まれる)に記載されているように、任意選択的に、プッシュボタンの素早い押圧により、タッチスクリーン112のロックを解除するか、又はデバイスのロック解除にタッチスクリーン上のジェスチャを用いる処理を任意選択的に開始する。プッシュボタン(例えば、206)をより長く押圧することにより、任意選択的にデバイス100の電源をオンオフする。ボタンのうちの1つ以上の機能は、任意選択的に、ユーザカスタマイズ可能である。タッチスクリーン112は、仮想ボタン又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。 U.S. Patent Application No. 7,657,849, filed December 23, 2005, U.S. Patent Application No. 11 / 322,549, "Unlocking a Device by Performances on an Unlock Image" (this patent is: As described in its entirety (incorporated by reference herein), optionally, a quick press of a push button unlocks the touch screen 112 or touch screen to unlock the device. The process using the above gesture is arbitrarily started. By pressing the push button (for example, 206) for a longer period of time, the device 100 is optionally turned on and off. The function of one or more of the buttons is optional and user customizable. The touch screen 112 is used to implement virtual buttons or soft buttons and one or more soft keyboards.

タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インターフェース及び出力インターフェースを提供する。ディスプレイコントローラ156は、電気信号を、タッチスクリーン112から受信かつ/又はタッチスクリーン112に送信する。タッチスクリーン112は、ユーザに視覚出力を表示する。視覚出力は、グラフィック、テキスト、アイコン、ビデオ及びこれらの任意の組み合わせ(総称して「グラフィック」と称する)を任意選択的に含む。一部の実施形態では、任意選択的に、視覚出力の一部又はすべてはユーザインターフェースオブジェクトに対応する。 The touch-sensitive display 112 provides an input interface and an output interface between the device and the user. The display controller 156 receives and / or transmits an electrical signal from the touch screen 112 to the touch screen 112. The touch screen 112 displays a visual output to the user. The visual output optionally includes graphics, text, icons, videos and any combination thereof (collectively referred to as "graphics"). In some embodiments, optionally, some or all of the visual output corresponds to a user interface object.

タッチスクリーン112は、触覚及び/又は触感の接触に基づくユーザからの入力を受け付けるタッチ感知面、センサ、若しくはセンサのセットを有している。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)、タッチスクリーン112上で接触(及び任意の接触の移動又は中断)を検出し、その検出された接触をタッチスクリーン112上に表示されたユーザインターフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)との対話に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。 The touch screen 112 comprises a touch sensing surface, a sensor, or a set of sensors that accept input from the user based on tactile and / or tactile contact. The touch screen 112 and the display controller 156 (along with any relevant module and / or instruction set in memory 102) detect a contact (and any movement or interruption of contact) on the touch screen 112 and the detected contact. To interact with a user interface object (eg, one or more softkeys, icons, web pages or images) displayed on the touch screen 112. In an exemplary embodiment, the point of contact between the touch screen 112 and the user corresponds to the user's finger.

タッチスクリーン112は任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術が使用される。タッチスクリーン112及びディスプレイコントローラ156は、静電容量技術、抵抗性技術、赤外線技術、及び表面超音波技術、並びに、タッチスクリーン112との1つ以上の接触点を判定するための他の近接センサアレイ又は他の要素を含むが、これらに限定されない、現在公知の若しくは後日に開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及び任意の移動又はその中断を、任意選択的に検出する。例示的な実施形態では、California州CupertinoのApple Inc.によるiPhone(登録商標)及びiPod Touch(登録商標)において見られるような、投影型相互静電容量感知技術が使用されている。 The touch screen 112 optionally uses LCD (Liquid Crystal Display) technology, LPD (Light Emitting Polymer Display) technology or LED (Light Emitting Diode) technology, but in other embodiments, other display technologies are used. The touch screen 112 and display controller 156 include capacitance technology, resistance technology, infrared technology, and surface ultrasonic technology, as well as other proximity sensor arrays for determining one or more points of contact with the touch screen 112. Contact and any movement or interruption thereof are optional, including, but not limited to, using any of a number of currently known or later developed touch sensing techniques, including, but not limited to, other elements. To detect. In an exemplary embodiment, Apple Inc. of Cupertino, Calif. Projection-type mutual capacitance sensing technology is used, as seen in iPhone® and iPod Touch®.

タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、任意選択的に、以下の米国特許、第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/又は第6,677,932号(Westerman)、及び/又は米国特許出願公開第2002/0015024(A1)号に記載されているマルチタッチ感知タッチパッドに類似する。これらの文献は、それぞれその全体が本明細書において参照により組み込まれている。しかし、タッチスクリーン112は、デバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは、視覚出力を提供しない。 The touch-sensitive displays in some embodiments of the touchscreen 112 optionally include the following US Pat. Nos. 6,323,846 (Westerman et al.), 6,570,557 (Westerman et al.), And. / Or similar to the multi-touch sensing touchpad described in Nos. 6,677,932 (Westerman) and / or US Patent Application Publication No. 2002/0015024 (A1). Each of these documents is incorporated herein by reference in its entirety. However, the touch screen 112 displays the visual output from the device 100, whereas the touch-sensitive touchpad does not provide the visual output.

タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、以下の出願で説明されている。(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の同第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の同第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の同第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の同第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の同第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の同第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の同第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の同第11/367,749号、「Multi-Functional Hand-Held Device」。これらの出願のすべては、全体が参照により本明細書に組み込まれる。 The touch-sensitive display in some embodiments of the touch screen 112 is described in the following application. (1) US Patent Application No. 11 / 381,313 filed May 2, 2006, "Multipoint Touch Surface Controller", (2) No. 10 / 840,862 filed May 6, 2004, " "Multipoint Touchscreen", (3) No. 10 / 903,964, filed July 30, 2004, "Gestures For Touch Sensitive Input Devices", (4) No. 11/048, filed January 31, 2005, No. 264, "Gestures For Touch Sensitive Input Devices", (5) No. 11 / 038,590 filed on January 18, 2005, "Mode-Based Graphical User Interfaces For Devices, For Unit6" No. 11 / 228,758 filed on September 16, 2005, "Visual Input Device Placement On A Touch Panel User Interface", (7) No. 11 / 228,700 filed on September 16, 2005, " Operation Of A Computer With A Touch Screen Interface ”, (8) No. 11 / 228,737 of the same file filed on September 16, 2005,“ Activating Virtual Keys Of A Touch-Screen 6 Year ” No. 11 / 367,749, filed March 3, "Multi-Functional Hand-Held Device". All of these applications are incorporated herein by reference in their entirety.

タッチスクリーン112は、任意選択的に、100dpiを超える映像解像度を有する。一部の実施形態では、タッチスクリーンは約160dpiのビデオ解像度を有する。ユーザは、スタイラス、指などの任意の好適な物体又は付属器を使用して、タッチスクリーン112と任意選択的に接触する。一部の実施形態では、ユーザインターフェースは、主として指に基づく接触及びジェスチャによって機能するように設計され、タッチスクリーン上の指の接触面積がより広いことにより、スタイラスに基づく入力よりも精度が低いことがある。一部の実施形態では、デバイスは、指に基づく粗い入力を正確なポインタ/カーソル位置又はユーザの望むアクションを実行するためのコマンドに変換する。 The touch screen 112 optionally has a video resolution of greater than 100 dpi. In some embodiments, the touch screen has a video resolution of about 160 dpi. The user optionally contacts the touch screen 112 using any suitable object or accessory such as a stylus or finger. In some embodiments, the user interface is designed to function primarily with finger-based contacts and gestures, and is less accurate than stylus-based input due to the larger finger contact area on the touch screen. There is. In some embodiments, the device translates a rough finger-based input into a precise pointer / cursor position or a command to perform the action desired by the user.

いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを任意選択的に含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面又はタッチスクリーンによって形成されたタッチ感知面の拡張部である。 In some embodiments, in addition to the touch screen, the device 100 optionally includes a touchpad for activating or deactivating certain functions. In some embodiments, the touchpad, unlike a touchscreen, is a touch-sensitive area of the device that does not display visual output. The touchpad is optionally a touch sensing surface separate from the touch screen 112 or an extension of the touch sensing surface formed by the touch screen.

デバイス100はまた、様々な構成要素に電力を供給するための電力システム162を含む。電力システム162は任意選択で、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配と関連付けられた任意の他の構成要素を含む。 The device 100 also includes a power system 162 for supplying power to various components. The power system 162 is an optional power management system, one or more power sources (eg, battery, alternating current (AC)), recharge system, power failure detection circuit, power converter or inverter, power status indicator (eg, light emitting diode (eg, light emitting diode). LED)), as well as any other components associated with power generation, management, and distribution within portable devices.

デバイス100はまた任意選択で、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に接続された光センサを示す。光センサ164は、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを、任意選択的に含む。光センサ164は、1つ以上のレンズを通して投影された、環境からの光を受光し、その光を、画像を表現するデータに変換する。撮像モジュール143(カメラモジュールとも称する)と併用して、光センサ164は、静止画像又はビデオを任意選択的にキャプチャする。一部の実施形態では、タッチスクリーンディスプレイを静止画像及び/又は映像取得のためのビューファインダとして有効化するように、光センサは、デバイスの前面のタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。一部の実施形態では、任意選択的に、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ながら、そのユーザの画像をテレビ会議のために得るように、デバイスの前面に光センサが配置されている。一部の実施形態では、光センサ164の位置は、ユーザによって(例えば、デバイス筐体内のレンズ及びセンサを回転させることによって)変更することができ、それにより、テレビ会議並びに静止画像及び/又はビデオ画像の取得の双方のために、単一の光センサ164を、タッチスクリーンディスプレイと共に使用する。 The device 100 also optionally includes one or more photosensors 164. FIG. 1A shows an optical sensor connected to an optical sensor controller 158 in the I / O subsystem 106. The photosensor 164 optionally comprises a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS) phototransistor. The photosensor 164 receives light from the environment projected through one or more lenses and converts the light into data representing an image. In combination with the imaging module 143 (also referred to as the camera module), the optical sensor 164 optionally captures a still image or video. In some embodiments, the optical sensor is on the opposite side of the touch screen display 112 on the front of the device, such as enabling the touch screen display as a viewfinder for still image and / or video acquisition, device 100. It is located on the back of the. In some embodiments, an optical sensor is optionally placed on the front of the device so that the user can obtain an image of the user for the video conference while viewing the other video conference participants on the touch screen display. Have been placed. In some embodiments, the position of the light sensor 164 can be changed by the user (eg, by rotating the lens and sensor in the device housing), thereby contingent with video conferencing and still images and / or video. A single optical sensor 164 is used with the touch screen display for both image acquisition.

デバイス100はまた、1つ以上の深度カメラセンサ175を任意選択的に含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された、深度カメラセンサを示す。深度カメラセンサ175は、データを環境から受信して、視点(例えば、深度カメラセンサ)からのシーン内のオブジェクト(例えば、顔)の三次元モデルを作成する。いくつかの実施形態では、撮像モジュール143(カメラモジュールとも呼ばれる)と共に、深度カメラセンサ175が任意選択的に使用されて、撮像モジュール143によってキャプチャされた画像の様々な部分の深度マップを決定する。いくつかの実施形態では、深度カメラセンサがデバイス100の前面に配置されており、それによって、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ながら、深度マップデータを含む自撮り画像をキャプチャするために、深度情報を含むユーザの画像がテレビ会議のために任意選択的に取得されるようにする。いくつかの実施形態では、深度カメラセンサ175は、デバイスの背面、又はデバイス100の背面及び前面に配置される。いくつかの実施形態では、深度カメラセンサ175の位置を、ユーザによって(例えば、デバイス筐体内のレンズ及びセンサを回転させることによって)変更することができ、それによって、テレビ会議並びに静止画像及び/又はビデオ画像の取得の両方のために、深度カメラセンサ175が、タッチスクリーンディスプレイと共に使用されるようにする。 The device 100 also optionally includes one or more depth camera sensors 175. FIG. 1A shows a depth camera sensor coupled to a depth camera controller 169 in the I / O subsystem 106. The depth camera sensor 175 receives data from the environment and creates a three-dimensional model of an object (eg, face) in the scene from a viewpoint (eg, depth camera sensor). In some embodiments, a depth camera sensor 175 is optionally used with the imaging module 143 (also referred to as a camera module) to determine depth maps of various parts of the image captured by the imaging module 143. In some embodiments, a depth camera sensor is located in front of the device 100 so that the user can view other video conference participants on a touch screen display while taking a self-portrait image containing depth map data. Allow the user's image, including depth information, to be optionally captured for the video conference for capture. In some embodiments, the depth camera sensor 175 is located on the back of the device, or on the back and front of the device 100. In some embodiments, the position of the depth camera sensor 175 can be changed by the user (eg, by rotating the lens and sensor in the device housing), thereby contingent with video conferencing and still images and / or. The depth camera sensor 175 is to be used with the touch screen display for both video image acquisition.

いくつかの実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ、光センサ、深度カメラセンサ)からのシーン内のオブジェクトの距離に関連する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、対応する二次元ピクセルが配置されている視点のZ軸での位置を定義する。いくつかの実施形態では、深度マップは、各ピクセルが値(例えば、0~255)によって定義されているピクセルから成る。例えば、「0」の値は、「三次元」シーン内の最も遠い場所に配置されているピクセルを表し、「255」の値は、「三次元」シーン内の視点(例えば、カメラ、光センサ、深度カメラセンサ)の最も近くに配置されているピクセルを表す。他の実施形態では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。いくつかの実施形態では、深度マップは、深度カメラの視野内の対象のオブジェクトの様々な特徴の相対的な深さ(例えば、ユーザの顔の目、鼻、口、耳の相対的な深さ)に関する情報を含む。いくつかの実施形態では、深度マップは、デバイスがZ方向での対象のオブジェクトの輪郭を決定できるようにする情報を含む。 In some embodiments, the depth map (eg, depth map image) contains information (eg, values) related to the distance of objects in the scene from a viewpoint (eg, camera, light sensor, depth camera sensor). .. In one embodiment of the depth map, each depth pixel defines a position on the Z axis of the viewpoint in which the corresponding 2D pixel is located. In some embodiments, the depth map consists of pixels where each pixel is defined by a value (eg 0-255). For example, a value of "0" represents the farthest pixel located in the "three-dimensional" scene, and a value of "255" is a viewpoint in the "three-dimensional" scene (eg, camera, optical sensor). , Depth camera sensor) represents the closest pixel. In another embodiment, the depth map represents the distance between an object in the scene and the plane of the viewpoint. In some embodiments, the depth map is the relative depth of various features of the object in the field of view of the depth camera (eg, the relative depth of the eyes, nose, mouth, ears of the user's face). ) Includes information about. In some embodiments, the depth map contains information that allows the device to determine the contour of the object of interest in the Z direction.

デバイス100はまた、1つ以上の接触強度センサ165を任意選択的に含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された、接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に含む。接触強度センサ165は、周辺環境から接触強度情報(例えば、圧力情報又は圧力情報の代用物)を受信する。一部の実施形態において、少なくとも1つの接触強度センサが、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又は、それに近接している。いくつかの実施形態では、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 The device 100 also optionally includes one or more contact strength sensors 165. FIG. 1A shows a contact strength sensor coupled to a strength sensor controller 159 in the I / O subsystem 106. The contact strength sensor 165 is one or more piezo resistance strain gauges, capacitive force sensors, electrical forces sensors, pressure power sensors, optical force sensors, capacitive touch sensing surfaces or other intensity sensors (eg, on touch sensing surfaces). Sensors used to measure the contact force (or pressure) of the are optionally included. The contact strength sensor 165 receives contact strength information (eg, pressure information or a substitute for pressure information) from the surrounding environment. In some embodiments, at least one contact strength sensor is located on or in close proximity to a touch-sensitive surface (eg, touch-sensitive display system 112). In some embodiments, at least one contact strength sensor is located on the back of the device 100, opposite the touch screen display 112 located on the front of the device 100.

デバイス100はまた、1つ以上の近接センサ166を任意選択的に含む。図1Aは、周辺機器インターフェース118と結合された近接センサ166を示す。あるいは、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に接続される。近接センサ166は、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、同第11/240,788号、「Proximity Detector In Handheld Device」、同第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、同第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されているように、任意選択的に実行し、これらは、その全体が参照によって本明細書に組み込まれている。一部の実施形態において、多機能デバイスがユーザの耳の近くに配置されている場合(例えば、ユーザが電話通話を行っている場合)、近接センサは、タッチスクリーン112をオフにし無効にする。 The device 100 also optionally includes one or more proximity sensors 166. FIG. 1A shows a proximity sensor 166 coupled with a peripheral interface 118. Alternatively, the proximity sensor 166 is optionally connected to the input controller 160 in the I / O subsystem 106. Proximity sensor 166 is described in US Patent Application No. 11 / 241,839, "Proximity Detector In Handheld Device", No. 11/240, 788, "Proximity Detector In Handheld Device", No. 11/620, 702. "Using Ambient Light Sensor To Augment Proximity Sensor Output", No. 11 / 586,862, "Automated Response To And Sensing Of UserS1 Performed arbitrarily, as described in "Automatic Configuration Of Peripherals", which are incorporated herein by reference in their entirety. In some embodiments, the proximity sensor turns off and disables the touch screen 112 when the multifunction device is located close to the user's ear (eg, when the user is making a phone call).

デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に連結された触知出力生成器を示す。触知出力生成器167は、スピーカ又は他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などの、エネルギを直線運動に変換する電気機械デバイスを、任意選択的に含む。接触強度センサ165は、触覚フィードバックモジュール133から触覚フィードバック生成命令を受信し、デバイス100のユーザが感知できる触知出力をデバイス100上で生成する。一部の実施形態において、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は横方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。一部の実施形態において、少なくとも1つの触知出力生成器センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 The device 100 also optionally includes one or more tactile output generators 167. FIG. 1A shows a tactile output generator coupled to a tactile feedback controller 161 in the I / O subsystem 106. The tactile output generator 167 is one or more electroacoustic devices such as speakers or other audio components and / or motors, solenoids, electroactive polymers, piezoelectric actuators, electrostatic actuators or other tactile output generator configurations. It optionally includes electromechanical devices that convert energy into linear motion, such as elements (eg, components that convert electrical signals to tactile outputs on the device). The contact strength sensor 165 receives a tactile feedback generation command from the tactile feedback module 133 and generates a tactile output perceptible to the user of the device 100 on the device 100. In some embodiments, the at least one tactile output generator is located on or in close proximity to a touch-sensitive surface (eg, touch-sensitive display system 112) and optionally the touch-sensitive surface. Is moved vertically (eg, inside / outside the surface of the device 100) or laterally (eg, back and forth in the same plane as the surface of the device 100) to generate a tactile output. In some embodiments, at least one tactile output generator sensor is located on the back of the device 100, opposite to the touch screen display 112 located on the front of the device 100.

デバイス100はまた、1つ以上の加速度計168を任意選択的に含む。図1Aは、周辺機器インターフェース118に結合された加速度計168を示す。あるいは、加速度計168は、I/Oサブシステム106内の入力コントローラ160に任意選択的に結合される。加速度計168は、任意選択的に、米国特許出願公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び同第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」で説明されるように機能するものであり、これらの文献の双方は、全体が参照により本明細書に組み込まれる。一部の実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、縦長表示又は横長表示でタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の位置及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。 The device 100 also optionally includes one or more accelerometers 168. FIG. 1A shows an accelerometer 168 coupled to the peripheral interface 118. Alternatively, the accelerometer 168 is optionally coupled to the input controller 160 in the I / O subsystem 106. The accelerometer 168 is optionally included in U.S. Patent Application Publication No. 20050190059, "Acceleration-based Theft Detection System for Portable Electronic Devices," and No. 20060017692, "Method Both of these documents are incorporated herein by reference in their entirety. In some embodiments, the information is displayed on the touch screen display in portrait or landscape display based on the analysis of data received from one or more accelerometers. The device 100, in addition to the accelerometer (s) 168, is a GPS (or GLONASS or other global navigation) for acquiring information about the position and orientation (eg, vertical or horizontal) of the accelerometer and device 100. System) Including receivers arbitrarily.

いくつかの実施形態では、メモリ102に記憶されたソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System)(GPS)モジュール(又は命令セット)135及びアプリケーション(又は命令セット)136を含む。更に、一部の実施形態において、図1A及び図3に示すように、メモリ102(図1A)又はメモリ370(図3)は、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、以下の1つ以上を含む:現在アクティブ状態のアプリケーションがある場合、どのアプリケーションがアクティブかを示す、アクティブアプリケーション状態、どのアプリケーション、ビュー又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占領しているかを示す、表示状態、デバイスの様々なセンサ及び入力制御デバイス116から取得される情報を含む、センサ状態、並びに、デバイスの位置及び/又は姿勢に関する位置情報。 In some embodiments, the software components stored in the memory 102 are the operating system 126, the communication module (or instruction set) 128, the contact / motion module (or instruction set) 130, the graphic module (or instruction set) 132. , Text input module (or instruction set) 134, Global Positioning System (GPS) module (or instruction set) 135 and application (or instruction set) 136. Further, in some embodiments, memory 102 (FIG. 1A) or memory 370 (FIG. 3) stores device / global internal state 157, as shown in FIGS. 1A and 3. The device / global internal state 157 includes one or more of the following: if there is an currently active application, the active application state, which application, view or other information indicates which application is active on the touch screen display 112. Sensor state, including information obtained from the display state, various sensors of the device and the input control device 116, and position information regarding the position and / or orientation of the device, indicating whether it occupies various areas of the device.

オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するための様々なソフトウェアコンポーネント及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。 Operating system 126 (eg, Darwin®, RTXC®, LINUX®, UNIX®, OS X®, iOS®, WINDOWS®, or Embedded operating systems such as VxWorks® include various software components and / or drivers for controlling and managing common system tasks (eg, memory management, storage device control, power management, etc.). Facilitates communication between various hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えば、ユニバーサルシリアルバス(Universal Serial Bus)(USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えば、インターネット、無線LANなど)を通して間接的に、他のデバイスに連結するように適応している。一部の実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じか、若しくは同様のマルチピン(例えば、30ピン)コネクタ、及び/又は互換性のあるマルチピン(例えば、30ピン)コネクタである。 The communication module 128 also facilitates communication with other devices via one or more external ports 124 and also includes various software components for processing the data received by the RF circuit 108 and / or the external port 124. include. External ports 124 (eg, Universal Serial Bus (USB), FIREWIRE®, etc.) can be used directly or indirectly through a network (eg, Internet, wireless LAN, etc.) to other devices. Adapted to connect to. In some embodiments, the external port is a multi-pin (eg, 30-pin) connector that is the same as or similar to the 30-pin connector used on iPod® (Apple Inc.) devices, and / Or a compatible multi-pin (eg, 30-pin) connector.

接触/動きモジュール130は、(ディスプレイコントローラ156と連携して)タッチスクリーン112及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を任意選択的に検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したか否かを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データにより表される接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、並びに/又は加速度(大きさ及び/又は方向における変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。 The contact / motion module 130 optionally detects contact with the touch screen 112 and other touch sensing devices (eg, touchpad or physical click wheel) (in conjunction with the display controller 156). The contact / movement module 130 determines if a contact has occurred (eg, detecting a finger-lowering event), the strength of the contact (eg, the force or pressure of the contact, or an alternative to the force or pressure of the contact). To determine (object), to determine if a contact movement is present, to track movement across the touch-sensitive surface (eg, to detect one or more finger dragging events), and Includes various software components to perform various actions related to contact detection, such as determining if a contact has stopped (eg, detecting a finger raising event or contact interruption). .. The contact / motion module 130 receives contact data from the touch sensing surface. Determining the movement of a contact point represented by a series of contact data is optionally the speed (magnitude), velocity (magnitude and direction), and / or acceleration (magnitude and /) of the contact point. Or change in direction). These actions are optionally applied to a single contact (eg, one-finger contact) or multiple simultaneous contacts (eg, "multi-touch" / multiple finger contacts). In some embodiments, the contact / motion module 130 and the display controller 156 detect contact on the touchpad.

いくつかの実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するために(例えば、ユーザがアイコン上で「クリック」したか否かを判定するために)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、少なくとも強度閾値のサブセットは、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されず、デバイス100の物理ハードウェアを変更することなく調整され得る)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイのハードウェアを変更することなく、広範囲の予め定義された閾値のうちのいずれかに設定され得る。加えて、一部の実装形態では、デバイスのユーザは、強度閾値の集合のうちの1つ以上を調整するためのソフトウェア設定が提供される(例えば、個々の強度閾値を調整することによって、及び/又はシステムレベルのクリック「強度」パラメータで一度に複数の強度閾値を調整することによって)。 In some embodiments, the contact / motion module 130 determines if an action has been performed by the user (eg, to determine if the user has "clicked" on an icon). Use one or more sets of intensity thresholds. In some embodiments, at least a subset of intensity thresholds are determined according to software parameters (eg, intensity thresholds are not determined by the activation threshold of a particular physical actuator and modify the physical hardware of device 100. Can be adjusted without). For example, the mouse "click" threshold of a trackpad or touchscreen display can be set to any of a wide range of predefined thresholds without changing the hardware of the trackpad or touchscreen display. In addition, in some embodiments, the user of the device is provided with software settings for adjusting one or more of a set of intensity thresholds (eg, by adjusting individual intensity thresholds, and / Or by adjusting multiple intensity thresholds at once with the system-level click "intensity" parameter).

接触/動きモジュール130は、ユーザによるジェスチャ入力を任意選択的に検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターン(例えば、検出される接触の異なる動き、タイミング、及び/又は強度)を有する。したがって、ジェスチャは、特定の接触パターンの検出によって任意選択的に検出される。例えば、指のタップジェスチャを検出することは、(例えば、アイコンの位置での)指を下ろすイベントを検出し、続いてその指を下ろすイベントと同じ位置(又は、実質的に同じ位置)で指を上げる(リフトオフ)イベントを検出することを含む。別の実施例として、タッチ感知面上での指のスワイプジェスチャを検出することは、指を下ろすイベントを検出し、続いて、1つ以上の、指をドラッグするイベントを検出し、その後、続いて指を上げる(リフトオフ)イベントを検出することを含む。 The contact / motion module 130 optionally detects the gesture input by the user. Different gestures on the touch-sensitive surface have different contact patterns (eg, different movements, timings, and / or intensities of detected contacts). Therefore, the gesture is optionally detected by the detection of a specific contact pattern. For example, detecting a finger tap gesture detects a finger lowering event (eg, at the icon position) and then the finger at the same position (or substantially the same position) as the finger lowering event. Includes detecting lift-off events. As another embodiment, detecting a finger swipe gesture on a touch-sensitive surface detects a finger-down event, followed by one or more finger-drag events, and then continues. Includes detecting a lift-off event.

グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、様々な既知のソフトウェア構成要素を含む。本明細書で使用されるとき、用語「グラフィック」は、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインターフェースオブジェクトなど)、デジタル画像、ビデオ、及びアニメーションなどを含むがこれらに限定されない、ユーザに対して表示することができるいずれかのオブジェクトを含む。 The graphic module 132 includes components for changing the visual effect of the displayed graphic (eg, brightness, transparency, saturation, contrast, or other visual characteristics) on the touch screen 112 or other display. Includes various known software components for rendering and displaying graphics in. As used herein, the term "graphic" includes, but is not limited to, text, web pages, icons (such as user interface objects including softkeys), digital images, videos, and animations. Contains any object that can be displayed against.

いくつかの実施形態では、グラフィックモジュール132は、使用されることとなるグラフィックを表すデータを記憶する。各グラフィックは任意選択で、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データと共に表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次いで、ディスプレイコントローラ156に出力するスクリーンの画像データを生成する。 In some embodiments, the graphic module 132 stores data representing the graphic to be used. Each graphic is optional and a corresponding code is assigned. The graphic module 132 receives, if necessary, one or more codes specifying a graphic to be displayed together with coordinate data and other graphic characteristic data from an application or the like, and then outputs the code to the display controller 156. Generate screen image data.

触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、デバイス100上の1つ以上の位置で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。 The tactile feedback module 133 is used by the tactile output generator (s) 167 to generate tactile outputs at one or more locations on the device 100 in response to user interaction with the device 100. Includes various software components for generating instructions.

テキスト入力モジュール134は任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。 The text input module 134 is optionally a component of the graphic module 132 and is a variety of applications such as contacts 137, email 140, IM141, browser 147, and any other application that requires text input. ) Provides a soft keyboard for entering text.

GPSモジュール135は、デバイスの位置を判定し、この情報を、様々なアプリケーションでの使用のために提供する(例えば、位置に基づく電話での使用のために電話138へ、写真/ビデオメタデータとしてカメラ143へ、並びに、天気ウィジェット、ローカルイエローページウィジェット及び地図/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションへ)。 The GPS module 135 determines the location of the device and provides this information for use in various applications (eg, to telephone 138 for use in location-based telephones, as photo / video metadata. To camera 143 and to applications that provide location-based services such as weather widgets, local yellow page widgets and map / navigation widgets).

アプリケーション136は、以下のモジュール(若しくは命令セット)、又はそれらのサブセット若しくはスーパーセットを任意選択的に含む。
●連絡先モジュール137(場合により、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●天気ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェット作成モジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを統合した、ビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154及び/又は
●オンラインビデオモジュール155。
Application 136 optionally includes the following modules (or instruction sets), or subsets or supersets thereof.
● Contact Module 137 (sometimes also called an address book or contact list),
Telephone module 138,
Video Conference Module 139,
Email client module 140,
● Instant messaging (IM) module 141,
Training support module 142,
Camera module 143 for still and / or video images,
Image management module 144,
● Video player module,
● Music player module,
Browser module 147,
Calendar module 148,
● Of the weather widget 149-1, stock price widget 149-2, computer widget 149-3, alarm clock widget 149-4, dictionary widget 149-5 and other widgets acquired by the user, and user-created widget 149-6. Widget module 149, which optionally contains one or more of
Widget creation module 150 for creating user-created widget 149-6,
Search module 151,
● Video and music player module 152, which integrates video player module and music player module,
Memo module 153,
Map module 154 and / or ● Online video module 155.

任意選択的にメモリ102内に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。 Examples of other applications 136 that are optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA® compatible applications, encryption, digital. Examples include copyright management, voice recognition, and voice duplication.

タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、連絡先モジュール137は、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレスブック又は連絡先リストを管理するために任意選択的に用いられ、それには、アドレスブックに名前(単数又は複数)を加えること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前と関連付けること、画像を名前と関連付けること、名前を分類及び並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始する及び/又は容易にすること、などが含まれる。 The contact module 137, along with the touch screen 112, the display controller 156, the contact module 130, the graphic module 132, and the text input module 134, stores in the application internal state 192 of the contact module 137 in memory 102 or memory 370 (eg, memory 102 or memory 370). It is optionally used to maintain an address book or contact list, including adding names (s) to the address book and removing names (s) from the address book. , Phone number (s), email address (s), address (s), or other information associated with a name, image associated with a name, classify and sort names, telephone It includes providing a number or email address to initiate and / or facilitate communication by telephone 138, video conferencing module 139, email 140, or IM 141, and the like.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電話モジュール138は、任意選択的に、電話番号に対応する一連の文字を入力し、連絡先モジュール137内の1つ以上の電話番号にアクセスし、入力された電話番号を変更し、対応する電話番号をダイアルし、会話を行い、そして、会話が完了した際に接続を切るか又は電話を切るために、使用する。上述のように、無線通信は、複数の通信規格、プロトコル、及び技術のうちのいずれかを任意選択的に使用する。 In cooperation with the RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, contact / motion module 130, graphic module 132, and text input module 134, the telephone module 138 is optional. Enter a series of characters corresponding to the phone number to access one or more phone numbers in the contact module 137, change the entered phone number, dial the corresponding phone number, and have a conversation. , And used to hang up or hang up when the conversation is complete. As mentioned above, wireless communication optionally uses any of a plurality of communication standards, protocols, and techniques.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連携して、テレビ会議モジュール139は、ユーザの指示に従って、ユーザと1人以上の他の参加者との間のテレビ会議を開始し、遂行し、終了するための、実行可能な命令を含む。 RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, optical sensor 164, optical sensor controller 158, contact / motion module 130, graphic module 132, text input module 134, contact module 137. , And in conjunction with the telephone module 138, the video conferencing module 139, according to the user's instructions, initiates, executes, and executes a video conferencing between the user and one or more other participants. Includes possible instructions.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電子メールクライアントモジュール140は、ユーザの指示に応じて、電子メールを作成し、送信し、受信し、管理するための、実行可能な命令を含む。画像管理モジュール144と連携して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールを作成及び送信することを非常に容易にする。 In cooperation with the RF circuit 108, the touch screen 112, the display controller 156, the contact / motion module 130, the graphic module 132, and the text input module 134, the email client module 140 creates an email according to the user's instructions. Includes executable instructions for sending, receiving, and managing. In conjunction with the image management module 144, the email client module 140 makes it very easy to create and send an email with a still or video image taken by the camera module 143.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字列を入力したり、入力済みの文字を修正したり、(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、若しくはIMPSを使用して)対応するインスタントメッセージを送信したり、インスタントメッセージを受信したり、及び受信したインスタントメッセージを閲覧したりする、実行可能な命令を含む。一部の実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるような、グラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書において使用するとき、「インスタントメッセージング」とは、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)の双方を指す。 In cooperation with the RF circuit 108, the touch screen 112, the display controller 156, the contact / motion module 130, the graphic module 132, and the text input module 134, the instant messaging module 141 inputs a character string corresponding to an instant message. Correct the characters you have typed (eg, using the Short Message Service (SMS) or Multimedia Message Service (MMS) protocol for phone-based instant messaging, or the Internet. Executable instructions to send the corresponding instant message (using XMPP, SIMPLE, or IMPS for the base instant message), receive the instant message, and view the received instant message. include. In some embodiments, the transmitted and / or received instant message is optionally a graphic, photo, audio file such that it is supported by MMS and / or Enhanced Messaging Service (EMS). , Video files, and / or other attachments. As used herein, "instant messaging" is the use of telephone-based messages (eg, messages sent using SMS or MMS) and Internet-based messages (eg, XMPP, SIMPLE, or IMPS). Refers to both of the messages sent by.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154及び音楽プレーヤモジュールと連携して、トレーニングサポートモジュール142は、(例えば、時間、距離及び/又はカロリー消費目標を有する)トレーニングを作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択して再生し、トレーニングデータを表示、記憶、及び送信する、実行可能な命令を含む。 In cooperation with the RF circuit 108, touch screen 112, display controller 156, contact / motion module 130, graphic module 132, text input module 134, GPS module 135, map module 154 and music player module, the training support module 142 has ( For example, create training (with time, distance and / or calorie consumption targets), communicate with training sensors (sports devices), receive training sensor data, calibrate sensors used to monitor training, and so on. Includes actionable instructions to select and play music for training and display, store, and transmit training data.

タッチスクリーン112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連携して、カメラモジュール143は、静止画像若しくは(ビデオストリームを含む)ビデオをキャプチャしてメモリ102にそれらを記憶する、静止画像若しくはビデオの特性を変更する、又はメモリ102から静止画像若しくはビデオを削除する、実行可能な命令を含む。 In cooperation with the touch screen 112, display controller 156, optical sensor (s) 164, optical sensor controller 158, contact / motion module 130, graphic module 132, and image management module 144, the camera module 143 may be a still image or Includes executable instructions to capture video (including video streams) and store them in memory 102, change the characteristics of still images or videos, or delete still images or videos from memory 102.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134及びカメラモジュール143と連携して、画像管理モジュール144は、静止画像及び/又はビデオ画像を配置し、変更し(例えば、編集し)又は別の方法で操作し、ラベルを付け、削除し、(例えば、デジタルスライドショー又はアルバムにおいて)提示し、記憶するための、実行可能な命令を含む。 In cooperation with the touch screen 112, display controller 156, contact / motion module 130, graphic module 132, text input module 134 and camera module 143, the image management module 144 arranges and modifies still and / or video images. Includes actionable instructions to (eg, edit) or otherwise manipulate, label, delete, present (eg, in a digital slideshow or album), and store.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及び、テキスト入力モジュール134と連携して、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページにリンクされた添付及び他のファイルを検索し、リンク付けし、受信し、表示することを含むユーザの指示に従い、インターネットを閲覧する実行可能な命令を含む。 In conjunction with the RF circuit 108, touch screen 112, display controller 156, contact / motion module 130, graphic module 132, and text input module 134, the browser module 147 can be used on web pages or parts thereof, as well as on web pages. Includes actionable instructions to browse the Internet according to user instructions, including searching, linking, receiving, and displaying linked attachments and other files.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、カレンダモジュール148は、ユーザの指示に従い、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダ項目、to doリストなど)を作成し、表示し、変更し、記憶する実行可能な命令を含む。 In cooperation with the RF circuit 108, touch screen 112, display controller 156, contact / motion module 130, graphic module 132, text input module 134, email client module 140, and browser module 147, the calendar module 148 is instructed by the user. Includes executable instructions to create, display, modify, and store modules and data associated with modules (eg, module items, to-do lists, etc.) according to.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、ウィジェットモジュール149は、ユーザによって任意選択的にダウンロードされて使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language)(ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets)(カスケーディングスタイルシート)ファイル及びJavaScriptファイルを含む。いくつかの実施形態では、ウィジェットは、XML(拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。 In cooperation with the RF circuit 108, the touch screen 112, the display controller 156, the contact / motion module 130, the graphic module 132, the text input module 134, and the browser module 147, the widget module 149 is optionally downloaded by the user. Mini-applications used (eg, Meteorological Widget 149-1, Stock Price Widget 149-2, Computer Widget 149-3, Alarm Clock Widget 149-4, and Dictionary Widget 149-5), or user-created mini-applications (eg). For example, a user-created widget 149-6). In some embodiments, the widget includes an HTML (Hypertext Markup Language) file, a CSS (Cascading Style Sheets) file, and a Javascript file. In some embodiments, the widget includes an XML (Extensible Markup Language) file and a Javascript file (eg, Yahoo! Widget).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、ウィジェット作成モジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定箇所をウィジェットに変える)ために、ユーザによって使用する。 In cooperation with the RF circuit 108, the touch screen 112, the display controller 156, the contact / motion module 130, the graphic module 132, the text input module 134, and the browser module 147, the widget creation module 150 arbitrarily creates a widget. Used by the user to do (eg, turn a user-specified part of a web page into a widget).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、検索モジュール151は、ユーザの指示に従い、1つ以上の検索基準(例えば、1つ以上のユーザ指定の検索語句)と一致する、メモリ102内のテキスト、音楽、音、画像、ビデオ、及び/又は他のファイルを検索するための、実行可能な命令を含む。 In conjunction with the touch screen 112, display controller 156, contact / motion module 130, graphic module 132, and text input module 134, the search module 151 follows one or more search criteria (eg, one or more) according to user instructions. Contains executable instructions for searching for text, music, sounds, images, videos, and / or other files in memory 102 that match the user-specified search term).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びにビデオを(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示又は別の方法で再生するための実行可能な命令を含む。いくつかの実施形態では、デバイス100は、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を任意選択的に含む。 In cooperation with the touch screen 112, display controller 156, contact / motion module 130, graphic module 132, audio circuit 110, speaker 111, RF circuit 108 and browser module 147, the video and music player module 152 can be an MP3 or AAC file, etc. Executable instructions that allow the user to download and play recorded music and other sound files stored in one or more file formats, as well as video (on the touch screen 112 or via an external port 124). Includes actionable instructions to display, present, or otherwise play (on a connected external display). In some embodiments, the device 100 optionally includes features of an MP3 player such as an iPod (a trademark of Apple Inc.).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、メモモジュール153は、ユーザの指示に従って、メモ、to doリストなどを作成し、管理するための実行可能な命令を含む。 In cooperation with the touch screen 112, the display controller 156, the contact / movement module 130, the graphic module 132 and the text input module 134, the memo module 153 creates and manages memos, to-do lists, etc. according to the user's instructions. Includes executable instructions for.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、地図モジュール154は、任意選択的に、ユーザの指示に従い、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の位置又はその近くの店舗及びその他の見所のデータ、並びに他の位置ベースのデータ)を受信し、表示し、変更し、及び記憶するために、使用する。 In cooperation with the RF circuit 108, the touch screen 112, the display controller 156, the contact / motion module 130, the graphic module 132, the text input module 134, the GPS module 135, and the browser module 147, the map module 154 is optionally Receive, display, and modify maps and data associated with maps (eg, driving directions, data for stores and other attractions at or near a particular location, and other location-based data) as directed by the user. And use to remember.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140及びブラウザモジュール147と連携して、オンラインビデオモジュール155は、ユーザがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、閲覧し、(例えば、ストリーミング及び/又はダウンロードにより)受信し、(例えば、タッチスクリーン上で又は外部ポート124を介して接続された外部のディスプレイ上で)再生し、特定のオンラインビデオへのリンクを含む電子メールを送信し、別の方法で管理することが可能となる命令を含む。一部の実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションの追加の説明は、2007年6月20日に出願された米国特許仮出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日に出願された米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」に見出すことができ、これらの出願の内容はその全体が本明細書において参照により組み込まれている。 Online video in cooperation with touch screen 112, display controller 156, contact / motion module 130, graphic module 132, audio circuit 110, speaker 111, RF circuit 108, text input module 134, email client module 140 and browser module 147. Module 155 can be configured by the user as H.D. Access, view, receive (eg, by streaming and / or download) online video in one or more file formats, such as 264, and externally connected (eg, on a touch screen or through an external port 124). Includes instructions that allow you to play (on your display), send an email containing a link to a particular online video, and manage it in another way. In some embodiments, an instant messaging module 141 is used instead of an email client module 140 to send a link to a particular online video. An additional description of the online video application is provided in US Patent Application No. 60 / 936,562, filed June 20, 2007, "Portable Multifunction Device, Method, and Graphical User Interface for Playing Online" US Patent Application No. 11 / 968,067, filed December 31, 2014, "Portable Graphical Function Device, Method, and Graphical User Interface for Playing Online Video" can be found in all of these applications. Is incorporated herein by reference.

上記で特定されたモジュール及びアプリケーションのそれぞれは、1つ以上の上記の機能を実行する実行可能な命令セット及び本出願に記載の方法(例えば、コンピュータにより実装される方法及び本明細書に記載の他の情報処理方法)に対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、それゆえ、様々な実施形態では、任意選択的に、これらのモジュールの様々な部分集合を組み合わせるか、又は他の方式で再編成する。例えば、ビデオ再生モジュールは、任意選択的に、音楽プレーヤモジュールと組み合わせて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)とする。いくつかの実施形態では、メモリ102は、上記で特定されたモジュール及びデータ構造のサブセットを任意選択的に記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the modules and applications identified above is an executable instruction set that performs one or more of the above functions and the methods described in this application (eg, methods implemented by a computer and described herein. Other information processing methods). These modules (eg, instruction sets) do not need to be implemented as separate software programs, procedures, or modules, and therefore, in various embodiments, optionally, various subsets of these modules. Are combined or reorganized in other ways. For example, the video playback module may optionally be combined with the music player module into a single module (eg, the video and music player module 152 of FIG. 1A). In some embodiments, the memory 102 optionally stores a subset of the modules and data structures identified above. Further, the memory 102 optionally stores additional modules and data structures not described above.

一部の実施形態では、デバイス100は、デバイス上で予め定義された機能の集合の動作がタッチスクリーン及び/又はタッチパッドを通じて排他的に実行されるデバイスである。デバイス100の動作のための主要な入力制御デバイスとしてタッチスクリーン及び/又はタッチパッドを使用することによって、デバイス100上の物理的な入力制御デバイス(プッシュボタン、ダイアルなど)の数が任意選択で削減される。 In some embodiments, the device 100 is a device in which the operation of a set of predefined functions on the device is performed exclusively through the touch screen and / or the touch pad. By using the touch screen and / or touchpad as the primary input control device for the operation of the device 100, the number of physical input control devices (push buttons, dials, etc.) on the device 100 is optionally reduced. Will be done.

タッチスクリーン及び/又はタッチパッドを通じて排他的に実行される予め定義された機能の集合は任意選択で、ユーザインターフェース間のナビゲーションを含む。一部の実施形態では、タッチパッドは、ユーザによってタッチされるとき、デバイス100上で表示される任意のユーザインターフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。そのような実施形態では、「メニューボタン」はタッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドの代わりに、物理プッシュボタン又は他の物理入力制御デバイスである。 A set of predefined functions performed exclusively through the touch screen and / or touchpad is optional and includes navigation between user interfaces. In some embodiments, the touchpad navigates the device 100 from any user interface displayed on the device 100 to the main menu, home menu, or root menu when touched by the user. In such an embodiment, the "menu button" is implemented using a touchpad. In some other embodiments, the menu button is a physical push button or other physical input control device instead of a touchpad.

図1Bは、いくつかの実施形態に従った、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又はメモリ370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)及び対応するアプリケーション136-1(例えば、上述のアプリケーション137~151、155、380~390のうちのいずれか)を含む。 FIG. 1B is a block diagram showing exemplary components for event processing, according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or memory 370 (FIG. 3) is an event sorter 170 (eg, in operating system 126) and a corresponding application 136-1 (eg, applications 137-151, described above). 155, 380 to 390).

イベントソート部170は、イベント情報を受信し、イベント情報が配信されるアプリケーション136-1及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソート部170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1には、アプリケーションがアクティブ又は実行中のとき、タッチ感知ディスプレイ112上に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192が含まれる。いくつかの実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーション(単数又は複数)が現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。 The event sort unit 170 receives the event information and determines the application view 191 of the application 136-1 and the application 136-1 to which the event information is distributed. The event sort unit 170 includes an event monitor 171 and an event dispatcher module 174. In some embodiments, application 136-1 includes an application internal state 192 showing the current application view (s) displayed on the touch-sensitive display 112 when the application is active or running. Is done. In some embodiments, device / global internal state 157 is used by the event sorter 170 to determine which application (s) are currently active, and application internal state 192 is event information. Used by the event sorter 170 to determine the application view 191 to which to deliver.

いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用される再開情報、アプリケーション136-1によって表示されているか又は表示の準備がされている情報を示すユーザインターフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを可能にするための状態待ち行列、及びユーザが行った前のアクションのリドゥ/アンドゥ待ち行列、のうちの1つ以上などの追加の情報を含む。 In some embodiments, application internal state 192 indicates resumption information used when application 136-1 resumes execution, information displayed or ready to be displayed by application 136-1. One of a user interface state information, a state queue to allow the user to return to the previous state or view of application 136-1, and a redo / undo queue for previous actions taken by the user. Includes additional information such as the above.

イベントモニタ171は、周辺機器インターフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイ112上のユーザタッチ)に関する情報を含む。周辺機器インターフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を通じて)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インターフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。 The event monitor 171 receives event information from the peripheral device interface 118. Event information includes information about sub-events (eg, user touches on the touch-sensitive display 112 as part of a multi-touch gesture). Peripheral device interface 118 transmits information received from sensors such as the I / O subsystem 106, or proximity sensor 166, accelerometer (s) 168, and / or microphone 113 (through audio circuit 110). The information received by the peripheral interface 118 from the I / O subsystem 106 includes information from the touch-sensitive display 112 or the touch-sensitive surface.

いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インターフェース118に要求を送信する。それに応じて、周辺機器インターフェース118はイベント情報を送信する。他の実施形態では、周辺機器インターフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回るかつ/又は所定の期間よりも長い入力を受信すること)が存在するときのみ、イベント情報を送信する。 In some embodiments, the event monitor 171 sends a request to the peripheral interface 118 at predetermined intervals. Accordingly, the peripheral interface 118 transmits event information. In another embodiment, the peripheral interface 118 transmits event information only when a significant event (eg, receiving an input that exceeds a predetermined noise threshold and / or receives an input longer than a predetermined period) is present. ..

いくつかの実施形態では、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベントレコグナイザ判定モジュール173を含む。 In some embodiments, the event sorter 170 also includes a hit view determination module 172 and / or an active event recognizer determination module 173.

ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示した際に、1つ以上のビュー内のどこにおいてサブイベントが発生したかを判定するためのソフトウェア手続きを提供する。ビューは、制御部及びユーザがディスプレイ上で見ることが可能な他の要素で構成される。 The hit view determination module 172 provides a software procedure for determining where in one or more views a sub-event has occurred when the touch-sensitive display 112 displays two or more views. The view consists of a control unit and other elements that the user can see on the display.

アプリケーションに関連付けられたユーザインターフェースの別の態様は、本明細書においてアプリケーションビュー又はユーザインターフェースウィンドウと呼ばれる場合があるビューのセットであり、それらの中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに任意選択的に対応する。例えば、タッチが検出される最下位レベルのビューは任意選択で、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントの集合は任意選択で、タッチに基づくジェスチャを開始する初期のタッチのヒットビューに少なくとも部分的に基づいて判定される。 Another aspect of the user interface associated with an application is a set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and touch-based gestures occur. The application view (for each application) for which touch is detected optionally corresponds to the program hierarchy of the application or the program level within the view hierarchy. For example, the lowest level view where a touch is detected is optional and is called a hit view, and the set of events that are recognized as appropriate input is optional and the initial touch to initiate a touch-based gesture. Judgment is based at least in part on the hit view of.

ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層において編成された複数のビューを有するとき、ヒットビュー判定モジュール172は、サブイベントを処理するべき階層内の最下位のビューとしてヒットビューを特定する。ほとんどの状況では、ヒットビューは、最初のサブイベント(例えば、イベント又は潜在的なイベントを形成するサブイベントのシーケンスにおける最初のサブイベント)が発生する最下位レベルのビューである。ヒットビューがヒットビュー判定モジュール172によって特定されると、ヒットビューは、それがヒットビューとして特定された、同じタッチ又は入力ソースに関連するすべてのサブイベントを一般的に受信する。 The hit view determination module 172 receives information related to touch-based gesture sub-events. When the application has multiple views organized in the hierarchy, the hit view determination module 172 identifies the hit view as the lowest view in the hierarchy to handle the subevent. In most situations, a hit view is the lowest level view where the first subevent (eg, the first subevent in a sequence of events or subevents that form a potential event) occurs. When a hit view is identified by the hit view determination module 172, the hit view generally receives all sub-events associated with the same touch or input source it is identified as a hit view.

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含むすべてのビューはアクティブに関わっているビューであると判定し、したがって、すべてのアクティブに関わっているビューは、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントがある特定のビューに関連付けられた領域に完全に限定されたとしても、階層の上位のビューは、依然としてアクティブに関わっているビューであり続ける。 The active event recognition unit determination module 173 determines which view (s) in the view hierarchy should receive a particular sequence of sub-events. In some embodiments, the active event recognizer determination module 173 determines that only the hit view should receive a particular sequence of sub-events. In another embodiment, the active event recognizer determination module 173 determines that all views, including the physical position of the sub-event, are views involved in the active, and thus all views involved in the active. Determines that a particular sequence of subevents should be received. In other embodiments, even if the touch subevent is completely confined to the area associated with a particular view, the view above the hierarchy remains the view that is actively involved.

イベントディスパッチャモジュール174は、イベント情報をイベントレコグナイザ(例えば、イベントレコグナイザ180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、対応するイベント受信部182により取得されるイベント情報をイベント待ち行列に記憶する。 The event dispatcher module 174 dispatches event information to an event recognizer (eg, event recognizer 180). In the embodiment including the active event recognition unit determination module 173, the event dispatcher module 174 distributes event information to the event recognition unit determined by the active event recognition unit determination module 173. In some embodiments, the event dispatcher module 174 stores event information acquired by the corresponding event receiver 182 in the event queue.

いくつかの実施形態では、オペレーティングシステム126は、イベントソート部170を含む。あるいは、アプリケーション136-1が、イベントソータ170を含む。更に他の実施形態では、イベントソート部170は、独立型のモジュール、又は接触/動きモジュール130などの、メモリ102に記憶された別のモジュールの一部である。 In some embodiments, the operating system 126 includes an event sorter 170. Alternatively, application 136-1 includes an event sorter 170. In yet another embodiment, the event sorter 170 is part of a stand-alone module or another module stored in memory 102, such as a contact / motion module 130.

いくつかの実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインターフェースの対応するビュー内で発生するタッチイベントを処理する命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1のそれぞれのアプリケーションビュー191は、1つ以上のイベントレコグナイザ180を含む。一般的には、対応するアプリケーションビュー191は、複数のイベントレコグナイザ180を含む。他の実施形態では、イベントレコグナイザ180のうちの1つ以上は、ユーザインターフェースキット又はアプリケーション136-1がメソッド及び他の性質をそれから継承する上位レベルのオブジェクトなどの、別々のモジュールの一部である。いくつかの実施形態では、対応するイベントハンドラ190は、データ更新部176、オブジェクト更新部177、GUI更新部178及び/又はイベントソータ170から受信されたイベントデータ179、のうちの1つ以上を含む。イベント処理部190は、アプリケーション内部状態192を更新するために、データ更新部176、オブジェクト更新部177、又はGUI更新部178を任意選択的に、利用若しくは呼び出す。あるいは、アプリケーションビュー191のうちの1つ以上は、1つ以上の対応するイベントハンドラ190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177及びGUI更新部178のうちの1つ以上は、対応するアプリケーションビュー191に含まれる。 In some embodiments, application 136-1 has a plurality of event handlers 190 and one or more application views 191 each containing instructions for handling touch events that occur within the corresponding views of the application's user interface. include. Each application view 191 of application 136-1 includes one or more event recognizers 180. Generally, the corresponding application view 191 includes a plurality of event recognizers 180. In other embodiments, one or more of the event recognizers 180 are part of a separate module, such as a user interface kit or a higher level object from which application 136-1 inherits methods and other properties. Is. In some embodiments, the corresponding event handler 190 includes one or more of event data 179 received from data update unit 176, object update unit 177, GUI update unit 178 and / or event sorter 170. .. The event processing unit 190 arbitrarily uses or calls the data update unit 176, the object update unit 177, or the GUI update unit 178 in order to update the application internal state 192. Alternatively, one or more of the application views 191 includes one or more corresponding event handlers 190. Further, in some embodiments, one or more of the data update unit 176, the object update unit 177, and the GUI update unit 178 are included in the corresponding application view 191.

対応するイベントレコグナイザ180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、イベント情報からイベントを特定する。イベントレコグナイザ180は、イベント受信部182及びイベント比較部184を含む。一部の実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択でサブイベント配信命令を含む)の少なくともサブセットも含む。 The corresponding event recognizer 180 receives event information (for example, event data 179) from the event sorter 170 and identifies an event from the event information. The event recognizer 180 includes an event receiving unit 182 and an event comparing unit 184. In some embodiments, the event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188, optionally including sub-event delivery instructions.

イベント受信部182は、イベントソート部170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの動きに関する情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択で、サブイベントの速さ及び方向を含む。一部の実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへの、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ばれる)についての対応する情報を含む。 The event receiving unit 182 receives event information from the event sorting unit 170. Event information includes information about sub-events, such as touches or touch movements. Depending on the sub-event, the event information also contains additional information such as the location of the sub-event. When a sub-event involves a touch movement, the event information is also optional and includes the speed and direction of the sub-event. In some embodiments, the event comprises rotating the device from one orientation to another (eg, from portrait to landscape or vice versa), and the event information is the current orientation of the device (eg, vice versa). Contains corresponding information about (also called device orientation).

イベント比較部184は、イベント情報を予め定義されたイベント又はサブイベント定義と比較し、比較に基づいて、イベント又はサブイベントを判定し、又はイベント若しくはサブイベントの状態を判定若しくは更新する。一部の実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えば、イベント1(187-1)、イベント2(187-2)などのイベントの定義(例えば、予め定義された一連のサブイベント)を含む。いくつかの実施形態では、イベント187におけるサブイベントは、例えば、タッチの始め、タッチの終わり、タッチの移動、タッチの停止及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階の間の表示されたオブジェクト上の第1のタッチ(タッチの開始)、所定の段階の間の第1のリフトオフ(タッチの終了)、所定の段階の間の表示オブジェクト上の第2のタッチ(タッチの開始)、及び所定の段階の間の第2のリフトオフ(タッチの終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグ操作である。このドラッグ操作は、例えば、予め定められた段階の間の表示オブジェクト上のタッチ(又は、接触)、タッチ感知ディスプレイ112を横断するタッチの移動、及びタッチのリフトオフ(タッチの終了)を含む。一部の実施形態において、イベントはまた、1つ以上の関連付けられたイベント処理部190に関する情報も含む。 The event comparison unit 184 compares the event information with the predefined event or sub-event definition, determines the event or sub-event based on the comparison, or determines or updates the state of the event or sub-event. In some embodiments, the event comparison unit 184 includes an event definition 186. Event definition 186 includes, for example, event definitions such as event 1 (187-1), event 2 (187-2) (eg, a predefined set of sub-events). In some embodiments, the sub-event in event 187 includes, for example, the beginning of a touch, the end of a touch, the movement of a touch, the stop of a touch, and a plurality of touches. In one embodiment, the definition for event 1 (187-1) is a double tap on the displayed object. Double tapping is, for example, a first touch on a displayed object during a predetermined stage (start of touch), a first lift-off between predetermined stages (end of touch), between predetermined stages. Includes a second touch on the display object (start of touch) and a second lift-off (end of touch) during a given stage. In another embodiment, the definition of event 2 (187-2) is a drag operation on the displayed object. This drag operation includes, for example, touching (or touching) on the display object during predetermined stages, moving the touch across the touch-sensitive display 112, and lifting off the touch (end of touch). In some embodiments, the event also includes information about one or more associated event processors 190.

一部の実施形態において、イベント定義187は、それぞれのユーザインターフェースオブジェクトに関するイベントの定義を含む。一部の実施形態において、イベント比較部184は、サブイベントに関連付けられたユーザインターフェースオブジェクトを判定するヒットテストを実行する。例えば、3つのユーザインターフェースオブジェクトがタッチ感知ディスプレイ112上に表示されるアプリケーションビューにおいて、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、3つのユーザインターフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定するためのヒットテストを行う。表示されたそれぞれのオブジェクトが、対応するイベントハンドラ190と関連付けられている場合、イベント比較部は、ヒットテストの結果を使用して、どのイベントハンドラ190がアクティブ化されるべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトと関連付けられたイベントハンドラを選択する。 In some embodiments, the event definition 187 includes an event definition for each user interface object. In some embodiments, the event comparison unit 184 performs a hit test to determine the user interface object associated with the subevent. For example, in an application view in which three user interface objects are displayed on the touch-sensitive display 112, when a touch is detected on the touch-sensitive display 112, the event comparison unit 184 determines which of the three user interface objects. Perform a hit test to determine if it is associated with a touch (sub-event). If each displayed object is associated with a corresponding event handler 190, the event comparison unit uses the results of the hit test to determine which event handler 190 should be activated. For example, the event comparison unit 184 selects an event handler associated with a subevent and an object that triggers a hit test.

いくつかの実施形態では、対応するイベント(187)についての定義はまた、一連のサブイベントがイベントレコグナイザのイベントタイプに対応するか否かが判定される後まで、イベント情報の配信を遅延させる遅延アクションを含む。 In some embodiments, the definition for the corresponding event (187) also delays the delivery of event information until it is determined whether the set of subevents corresponds to the event type of the event recognizer. Includes delayed actions to cause.

対応するイベントレコグナイザ180が、一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断したとき、対応するイベントレコグナイザ180は、イベント不可能、イベント失敗又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベントレコグナイザがもしあれば、そのイベントレコグナイザが進行中のタッチに基づくジェスチャのサブイベントの追跡及び処理を続行する。 When the corresponding event recognizer 180 determines that a series of subevents does not match any of the events in event definition 186, the corresponding event recognizer 180 is placed in an event impossible, event failure, or event termination state. Enter, then ignore the next subevent of the touch-based gesture. In this situation, if there is another event recognizer that remains active for the hit view, that event recognizer will continue to track and process sub-events of gestures based on the touch in progress.

いくつかの実施形態では、対応するイベントレコグナイザ180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベントレコグナイザに示す構成可能なプロパティ、フラグ及び/又はリストを有するメタデータ183を含む。一部の実施形態では、メタデータ183は、イベント認識部が相互にどのように対話するか又は対話することが可能とされているかについて示す構成可能なプロパティ、フラグ、及び/又はリストを含む。一部の実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。 In some embodiments, the corresponding event recognizer 180 presents configurable properties, flags, and configurable properties to the event recognizer that is actively involved in how the event delivery system should perform subevent delivery. / Or contains metadata 183 with a list. In some embodiments, the metadata 183 includes configurable properties, flags, and / or lists that indicate how event recognizers interact with each other or are allowed to interact with each other. In some embodiments, the metadata 183 includes configurable properties, flags, and / or lists indicating whether subevents are delivered to various levels in the view hierarchy or program hierarchy.

一部の実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントと関連付けられたイベントハンドラ190をアクティブ化する。一部の実施形態では、それぞれのイベント認識部180は、イベントと関連付けられたイベント情報をイベントハンドラ190に配信する。イベントハンドラ190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。一部の実施形態では、イベント認識部180は、認識されたイベントと関連付けられたフラグを投入し、フラグと関連付けられたイベントハンドラ190は、フラグを捕らえ、予め定義された処理を実行する。 In some embodiments, each event recognizer 180 activates an event handler 190 associated with an event when one or more specific sub-events of the event are recognized. In some embodiments, each event recognition unit 180 distributes event information associated with the event to the event handler 190. Activating the event handler 190 is separate from sending (and deferring) subevents to each hit view. In some embodiments, the event recognition unit 180 inputs a flag associated with the recognized event, and the event handler 190 associated with the flag captures the flag and executes a predefined process.

一部の実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベントハンドラに、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベントに又はアクティブに関与しているビューと関連付けられたイベントハンドラは、イベント情報を受信し、予め定義された処理を実行する。 In some embodiments, the event delivery instruction 188 includes a sub-event delivery instruction that delivers event information about the sub-event without activating the event handler. Instead, the sub-event delivery instruction delivers event information to the event handler associated with the set of sub-events, or to the views that are actively involved. The event handler associated with the view involved in the set of sub-events or actively participates in the event information and performs the predefined processing.

いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新するか、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。一部の実施形態において、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新たなユーザインターフェースオブジェクトを作成する、又はユーザインターフェースオブジェクトの位置を更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。 In some embodiments, the data updater 176 creates and updates the data used in application 136-1. For example, the data update unit 176 updates the telephone number used in the contact module 137 or stores the video file used in the video player module. In some embodiments, the object updater 177 creates and updates the objects used in application 136-1. For example, the object update unit 177 creates a new user interface object or updates the position of the user interface object. The GUI update unit 178 updates the GUI. For example, the GUI update unit 178 prepares the display information and sends the display information to the graphic module 132 for display on the touch-sensitive display.

いくつかの実施形態では、イベントハンドラ(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含むか又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, the event handler (s) 190 includes or has access to a data update unit 176, an object update unit 177, and a GUI update unit 178. In some embodiments, the data update unit 176, the object update unit 177, and the GUI update unit 178 are included in a single module of each application 136-1 or application view 191. In other embodiments, they are included in two or more software modules.

タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の議論はまた、入力デバイスで多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、そのすべてがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、単一若しくは複数のキーボードの押圧若しくは保持に任意選択的に適合されたマウスの移動及びマウスボタンの押圧、タッチパッド上でのタップ、ドラッグ、スクロールなどの接触移動、ペンスタイラス入力、デバイスの移動、口頭による指示検出された眼球運動、バイオメトリック入力、並びに/又はそれらのいずれかの組み合わせは、任意選択的に、認識されることになるイベントを定義するサブイベントに対応する入力として利用される。 The above discussion of user touch event handling on touch-sensitive displays also applies to other forms of user input for operating the multifunction device 100 on the input device, all on the touch screen. Please understand that it is not started. For example, mouse movement and mouse button press, touch movement such as tapping, dragging, scrolling, etc. on the touchpad, pen stylus input, device Movement, verbal instructions, detected eye movements, biometric inputs, and / or combinations thereof are optionally used as inputs corresponding to sub-events that define the event to be recognized. To.

図2は、いくつかの実施形態に従った、タッチスクリーン112を有するポータブル多機能デバイス100を示している。タッチスクリーンは、ユーザインターフェース(user interface)(UI)200内に1つ以上のグラフィックを、任意選択的に表示する。本実施形態、並びに後述する実施形態において、ユーザは、例えば、1本以上の指202(図には、正確な縮尺率では描かれていない)又は1つ以上のスタイラス203(図には、正確な縮尺率では描かれていない)を用いて、グラフィック上でジェスチャを行うことにより、グラフィックのうちの1つ以上を選択することができる。一部の実施形態では、ユーザが1つ以上のグラフィックとの接触を断った際に、その1つ以上のグラフィックの選択が生じる。一部の実施形態では、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上方向へ及び/又は下方向へ)、並びに/又は、デバイス100と接触した指のローリング(右から左へ、左から右へ、上方向へ及び/若しくは下方向へ)を、任意選択的に含む。いくつかの実現形態又は状況では、グラフィックとの不測の接触は、グラフィックを選択しない。例えば、選択に対応するジェスチャがタップであるとき、アプリケーションアイコンの上をスイープするスワイプジェスチャは任意選択で、対応するアプリケーションを選択しない。 FIG. 2 shows a portable multifunction device 100 with a touch screen 112, according to some embodiments. The touch screen optionally displays one or more graphics within the user interface (UI) 200. In this embodiment, as well as the embodiments described below, the user may see, for example, one or more fingers 202 (not drawn at the exact scale in the figure) or one or more stylus 203 (accurate in the figure). You can select one or more of the graphics by making a gesture on the graphic using (not drawn at a good scale). In some embodiments, when the user breaks contact with one or more graphics, the selection of one or more graphics occurs. In some embodiments, the gesture is one or more taps, one or more swipes (left to right, right to left, up and / or down), and / or with the device 100. Includes rolling of touching fingers (right-to-left, left-to-right, upward and / or downward), optionally. In some embodiments or situations, unforeseen contact with the graphic does not select the graphic. For example, when the gesture corresponding to the selection is a tap, the swipe gesture that sweeps over the application icon is optional and does not select the corresponding application.

デバイス100はまた、「ホーム」又はメニューボタン204などの、1つ以上の物理ボタンも任意選択的に含む。前述のように、メニューボタン204は、デバイス100上で任意選択的に、実行するアプリケーションのセット内の任意のアプリケーション136へのナビゲーションに任意選択的に、使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112に表示されたGUIにおけるソフトキーとして実装されている。 The device 100 also optionally includes one or more physical buttons, such as the "home" or menu button 204. As mentioned above, the menu button 204 is optionally used on the device 100 to optionally navigate to any application 136 within the set of applications to be executed. Alternatively, in some embodiments, the menu button is implemented as a softkey in the GUI displayed on the touch screen 112.

一部の実施形態において、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスへの電源をオン/オフしてデバイスをロックするためのプッシュボタン206、音量調整ボタン(単数又は複数)208、加入者識別モジュール(subscriber identity module、SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、ボタンを押し下げて、既定の時間にわたってボタンを押し下げた状態で保持することによってデバイス上の電源をオン/オフし、ボタンを押し下げて、既定の時間が経過する前にボタンを解放することによってデバイスをロックし、及び/又は、デバイスのロックを解除する、若しくは、ロック解除処理を開始するように、任意選択的に用いられる。代替実施形態では、デバイス100はまた、マイクロフォン113を通して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力を受ける。デバイス100はまた、タッチスクリーン112上の接触の強度を検出するための1つ以上の接触強度センサ165、及び/又は、デバイス100のユーザに対する触知出力を生成するための1つ以上の触知出力生成器167も、任意選択的に含む。 In some embodiments, the device 100 includes a touch screen 112, a menu button 204, a push button 206 for turning the device on and off to lock the device, a volume control button (s) 208, and a subscription. Includes a subscriber identity module (SIM) card slot 210, a headset jack 212, and an external docking / charging port 124. The push button 206 powers on / off the device by pushing down the button and holding it down for a specified amount of time, pressing down the button and releasing the button before the specified time elapses. It is optionally used to lock the device and / or unlock the device or initiate the unlocking process. In an alternative embodiment, the device 100 also receives verbal input through the microphone 113 to activate or deactivate some functions. The device 100 also has one or more contact strength sensors 165 for detecting the strength of the contact on the touch screen 112 and / or one or more tactile outputs for generating a tactile output to the user of the device 100. The output generator 167 is also optionally included.

図3は、いくつかの実施形態に従った、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク若しくは他の通信インターフェース360、メモリ370、及びこれらの構成要素を相互接続するための1つ以上の通信バス320を一般的に含む。通信バス320は、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることがある)を、任意選択的に含む。デバイス300は、一般的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インターフェース330を含む。I/Oインターフェース330はまた、キーボード及び/又はマウス(又は他のポインティングデバイス)350並びにタッチパッド355、デバイス300上に触知出力を生成するための(例えば、図1Aを参照して上述された触知出力生成器(単数又は複数)167と同様の)触知出力生成器357、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ及び/又は図1Aを参照して上述された接触強度センサ(単数又は複数)165と同様の接触強度センサ)を任意選択的に含む。メモリ370は、DRAM、SRAM、DDR RAM又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、また、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを任意選択的に含む。メモリ370は、CPU(単数又は複数)310からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102に記憶されたプログラム、モジュール及びデータ構造、又はそれらのサブセットに類似する、プログラム、モジュール及びデータ構造を記憶する。更に、メモリ370は任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388及び/又はスプレッドシートモジュール390を任意選択的に記憶するが、一方でポータブル多機能デバイス100(図1A)のメモリ102は、これらのモジュールを任意選択的に記憶しない。 FIG. 3 is a block diagram of an exemplary multifunction device with a display and a touch sensitive surface, according to some embodiments. The device 300 does not have to be portable. In some embodiments, the device 300 is a laptop computer, desktop computer, tablet computer, multimedia playback device, navigation device, educational device (such as a child's learning toy), gaming system, or control device (eg, home). Computer for business use or business use). The device 300 typically includes one or more processing units (CPUs) 310, one or more networks or other communication interfaces 360, memory 370, and one or more communication buses 320 for interconnecting these components. Including. The communication bus 320 optionally includes circuits (sometimes referred to as chipsets) that interconnect and control communication between system components. The device 300 includes an input / output (I / O) interface 330, including a display 340, which is generally a touch screen display. The I / O interface 330 has also been described above for generating tactile outputs on the keyboard and / or mouse (or other pointing device) 350 as well as the touchpad 355, device 300 (eg, with reference to FIG. 1A). Tactile output generator (similar to one or more) 167 Tactile output generator 357, sensor 359 (eg, optical sensor, accelerometer, proximity sensor, touch sensing sensor and / or described above with reference to FIG. 1A. The contact strength sensor (s) similar to the contact strength sensor (s) 165) is optionally included. Memory 370 includes high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory devices and also includes one or more magnetic disk storage devices, optical disk storage devices, flash memory devices or other non-volatile devices. Optionally includes non-volatile memory such as solid state storage devices. The memory 370 optionally includes one or more storage devices located remotely from the CPU (s) 310. In some embodiments, memory 370 stores programs, modules and data structures stored in memory 102 of portable multifunction device 100 (FIG. 1A), or similar to a subset thereof, programs, modules and data structures. do. Further, the memory 370 optionally stores additional programs, modules, and data structures that do not exist in the memory 102 of the portable multifunction device 100. For example, the memory 370 of the device 300 optionally stores the drawing module 380, the presentation module 382, the word processing module 384, the website creation module 386, the disk authoring module 388 and / or the spreadsheet module 390, on the other hand. The memory 102 of the portable multifunction device 100 (FIG. 1A) does not optionally store these modules.

上記で特定された図3の要素のそれぞれは任意選択的に、前述のメモリデバイスのうち1つ以上に記憶される。上記で特定されたモジュールのうちのそれぞれは、上述した機能を実行する命令セットに対応する。上記で特定されたモジュール又はプログラム(例えば、命令セット)は、任意選択的に、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、それゆえ、様々な実施形態では、これらのモジュールの様々なサブセットを組み合わせるか、又は他の方式で再編成する。いくつかの実施形態では、メモリ370は、上記で特定されたモジュール及びデータ構造のサブセットを任意選択的に記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the elements of FIG. 3 identified above is optionally stored in one or more of the aforementioned memory devices. Each of the modules identified above corresponds to an instruction set that performs the functions described above. The modules or programs identified above (eg, instruction sets) need not optionally be implemented as separate software programs, procedures, or modules, and therefore, in various embodiments, these modules. Combine or otherwise reorganize various subsets of. In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. Further, the memory 370 optionally stores additional modules and data structures not described above.

次に、例えば、任意選択的に、ポータブル多機能デバイス100上に実装するユーザインターフェースの実施形態に注意を向ける。 Next, for example, attention is paid to an embodiment of a user interface mounted on the portable multifunctional device 100, for example, optionally.

図4Aは、一部の実施形態に係る、ポータブル多機能デバイス100上のアプリケーションのメニューに関する例示的なユーザインターフェースを示す。同様のユーザインターフェースは、デバイス300上に任意選択的に実装される。一部の実施形態では、ユーザインターフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー及びWi-Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●下記などの、頻繁に利用されるアプリケーション用のアイコンを含むトレー408、
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされる、ブラウザモジュール147用のアイコン420、及び
○「iPod」とラベル付けされる、iPod(Apple Inc.の商標)モジュール152とも称されるビデオ及び音楽プレーヤモジュール152用のアイコン422、及び
●下記などの、その他のアプリケーション用のアイコン、
○「メッセージ」とラベル付けされるIMモジュール141のためのアイコン424、
○「カレンダ」とラベル付けされる、カレンダモジュール148用のアイコン426、
○「写真」とラベル付けされる、画像管理モジュール144用のアイコン428、
○「カメラ」とラベル付けされる、カメラモジュール143用のアイコン430、
○「オンラインビデオ」とラベル付けされる、オンラインビデオモジュール155用のアイコン432、
○「株価」とラベル付けされる、株価ウィジェット149-2用のアイコン434、
○「地図」とラベル付けされる、地図モジュール154用のアイコン436、
○「天気」とラベル付けされる、天気ウィジェット149-1用のアイコン438、
○「時計」とラベル付けされる、アラーム時計ウィジェット149-4用のアイコン440、
○「トレーニングサポート」とラベル付けされる、トレーニングサポートモジュール142用のアイコン442、
○「メモ」とラベル付けされる、メモモジュール153用のアイコン444、及び
○デバイス100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、「設定」とラベル付けされる、設定アプリケーション若しくはモジュール用のアイコン446。
FIG. 4A shows an exemplary user interface for a menu of applications on a portable multifunction device 100, according to some embodiments. A similar user interface is optionally implemented on the device 300. In some embodiments, the user interface 400 includes the following elements, or a subset or superset thereof.
● Signal strength indicator (s) 402, for wireless communication (s) such as cellular and Wi-Fi signals
Time 404,
Bluetooth indicator 405,
Battery status indicator 406,
Tray 408, which contains icons for frequently used applications, such as:
○ Icon 416 for the telephone module 138, labeled "telephone", optionally including an indicator 414 for the number of missed calls or voice mail messages,
418, an icon for email client module 140, labeled "mail", optionally including an indicator 410 for the number of unread emails.
○ Icon 420 for browser module 147, labeled “Browser”, and ○ For video and music player module 152, also known as iPod (Apple Inc. trademark) module 152, labeled “iPod”. Icon 422, and ● Icons for other applications, such as:
Icon 424 for IM module 141 labeled "Message",
Icon 426 for calendar module 148, labeled "calendar",
Icon 428 for image management module 144, labeled "Photo",
Icon 430 for camera module 143, labeled "Camera",
Icon 432 for online video module 155, labeled "online video",
Icon 434 for Stock Widget 149-2, labeled "Stock Price",
○ Icon 436 for map module 154, labeled "Map",
Icon 438 for weather widget 149-1, labeled "weather",
Icon 440 for alarm clock widget 149-4, labeled "Clock",
○ Icon 442 for training support module 142, labeled "Training Support",
Icon 444 for memo module 153, labeled “Memo”, and ○ Configuration application or module labeled “Settings”, which provides access to settings for device 100 and its various applications 136. Icon for 446.

図4Aに示されるアイコンのラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152用のアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる。他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。一部の実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。 Note that the icon label shown in FIG. 4A is merely exemplary. For example, the icon 422 for the video and music player module 152 is labeled as "music" or "music player". Other labels are optionally used for various application icons. In some embodiments, the label for each application icon includes the name of the application corresponding to each application icon. In some embodiments, the label of a particular application icon is different from the name of the application that corresponds to the particular application icon.

図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を備えるデバイス(例えば、図3のデバイス300)上の、例示的なユーザインターフェースを示す。デバイス300はまた、タッチ感知面451上の接触の強度を検出するための1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)及び/又はデバイス300のユーザに対して触知出力を生成するための1つ以上の触知出力生成器357を任意選択的に含む。 FIG. 4B is an illustration on a device (eg, device 300 of FIG. 3) having a touch sensing surface 451 (eg, tablet or touchpad 355 of FIG. 3) separate from the display 450 (eg, touch screen display 112). User interface is shown. The device 300 is also tactile to one or more contact strength sensors (eg, one or more of the sensors 359) for detecting the strength of contact on the touch sensing surface 451 and / or the user of the device 300. Optionally include one or more tactile output generators 357 for producing outputs.

以下の実施例のうちのいくつかはタッチスクリーンディスプレイ112上での入力(タッチ感知面とディスプレイとが組み合わされている場合)を参照して説明されるが、一部の実施形態では、デバイスは、図4Bに示されるように、ディスプレイとは別個のタッチ感知面上での入力を検出する。一部の実施形態では、このタッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bの453)に対応する主軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、タッチ感知面451との接触(例えば、図4Bの460及び462)を、ディスプレイ上のそれぞれの場所に対応する場所(例えば、図4Bでは、460は468に対応し、462は470に対応する)にて検出する。このように、タッチ感知面がディスプレイとは別個のものである場合、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されたユーザ入力(例えば、接触460及び462、並びにそれらの移動)が、多機能デバイスのディスプレイ(例えば、図4Bでの450)上のユーザインターフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインターフェースに任意選択的に使用されることを理解されたい。 Some of the following examples will be described with reference to inputs on the touch screen display 112 (when the touch sensitive surface and the display are combined), but in some embodiments the device will. , As shown in FIG. 4B, detects an input on a touch sensing surface separate from the display. In some embodiments, the touch sensitive surface (eg, 451 in FIG. 4B) corresponds to a spindle on a display (eg, 450) (eg, 453 in FIG. 4B) (eg, 452 in FIG. 4B). Have. According to these embodiments, the device makes contact with the touch sensing surface 451 (eg, 460 and 462 in FIG. 4B) at a location corresponding to each location on the display (eg, in FIG. 4B, 460 is 468). 462 corresponds to 470). Thus, when the touch-sensitive surface is separate from the display, user inputs (eg, contacts 460 and 462, and their movements) detected by the device on the touch-sensitive surface (eg, 451 in FIG. 4B). ) Is used by the device to operate the user interface on the display of the multifunction device (eg, 450 in FIG. 4B). It should be appreciated that similar methods are optionally used for the other user interfaces described herein.

更に加えて、以下の実施例は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャ)を参照して説明されるが、いくつかの実施形態では、それらの指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスに基づく入力又はスタイラス入力)で置き換えられることを理解されたい。例えば、スワイプジェスチャは、マウスクリックと任意選択的に置き換えられ(例えば、接触の代わりに)、その後、スワイプの経路に沿って(例えば、接触の移動の代わりに)カーソルの移動が行われる。別の例として、タップジェスチャは任意選択で、カーソルがタップジェスチャの位置の上に位置する間のマウスクリックと置き換えられる(例えば、接触の検出、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスは任意選択で同時に使用され、又はマウス及び指の接触が任意選択で同時に使用されることを理解されたい。 In addition, the following examples will be described primarily with reference to finger input (eg, finger contact, finger tap gesture, finger swipe gesture), but in some embodiments, those fingers. It should be appreciated that one or more of the inputs will be replaced by inputs from another input device (eg, mouse-based input or stylus input). For example, a swipe gesture is optionally replaced with a mouse click (eg, instead of a contact), after which the cursor is moved along the swipe path (eg, instead of a touch move). As another example, the tap gesture is optional and is replaced with a mouse click while the cursor is hovering over the position of the tap gesture (for example, instead of stopping contact detection followed by contact detection). Similarly, it should be understood that when multiple user inputs are detected simultaneously, multiple computer mice may be used simultaneously in an optional manner, or mouse and finger contact may be used simultaneously in an optional manner.

図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~図4B)に関して記載した特徴のうちの一部又はすべてを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以後、タッチスクリーン504とする、を有する。タッチスクリーン504の代わりに、又はそれに追加して、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及びデバイス300と同様に、一部の実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出するための1つ以上の強度センサを有する。タッチスクリーン504(又は、タッチ感知面)の1つ以上の強度センサは、タッチの強度を表現する出力データを提供することができる。デバイス500のユーザインターフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチは、デバイス500上で異なるユーザインターフェース動作を呼び出すことができることを意味する。 FIG. 5A shows an exemplary personal electronic device 500. The device 500 includes a main body 502. In some embodiments, the device 500 can include some or all of the features described for the devices 100 and 300 (eg, FIGS. 1A-4B). In some embodiments, the device 500 has a touch-sensitive display screen 504, hereafter referred to as a touch screen 504. Instead of or in addition to the touch screen 504, the device 500 has a display and a touch sensing surface. Similar to the device 100 and the device 300, in some embodiments, the touch screen 504 (or touch sensing surface) is optionally one for detecting the strength of the contact (eg, touch) being applied. It has one or more strength sensors. One or more intensity sensors on the touch screen 504 (or touch sensing surface) can provide output data representing the intensity of the touch. The user interface of the device 500 can respond to touches based on the intensity of the touch, which means that touches of different intensities can invoke different user interface actions on the device 500.

タッチ強度を検出して処理するための例示的な技術は、例えば、関連出願である、2013年5月8日出願の「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」と題された国際特許出願第PCT/US2013/040061号(国際公開第2013/169849号として公開)、及び2013年11月11日出願の「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」と題された同第PCT/US2013/069483号(国際公開第2014/105276号として公開)に見られ、これらの文献のそれぞれは、全体が参照により本明細書に組み込まれる。 An exemplary technique for detecting and processing touch intensities is, for example, a related application, "Device, Method, and Graphical User Interface for Displaying User Interface Actions Conducts Corporation", filed May 8, 2013. International Patent Application No. PCT / US2013 / 040061 (published as International Publication No. 2013/169849) entitled "Device, Method, and Graphical User Interface for Transitioning Beijing Touch" filed on November 11, 2013. Seen in the same PCT / US2013 / 069483 (published as International Publication No. 2014/105276) entitled "Display Method Methods", each of these documents is incorporated herein by reference in its entirety.

一部の実施形態では、デバイス500は、1つ以上の入力機構506及び入力機構508を有する。入力機構506及び508は、含まれる場合には、物理的なものとすることができる。物理入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。かかるアタッチメント機構は、含まれる場合には、例えば、デバイス500を、帽子、アイウェア、イヤリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計バンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどに、取り付けることを可能に得る。これらのアタッチメント機構は、ユーザによってデバイス500が着用されることを可能にする。 In some embodiments, the device 500 has one or more input mechanisms 506 and input mechanism 508. The input mechanisms 506 and 508, if included, can be physical. Examples of physical input mechanisms include push buttons and rotatable mechanisms. In some embodiments, the device 500 has one or more attachment mechanisms. Such attachment mechanisms, when included, include, for example, the device 500 in hats, eyewear, earrings, necklaces, shirts, jackets, bracelets, watch bands, chains, trousers, belts, shoes, wallets, backpacks and the like. Get possible to install. These attachment mechanisms allow the device 500 to be worn by the user.

図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、図1A、図1B及び図3に関して記載した構成要素の一部又はすべてを含むことができる。デバイス500は、I/O部514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/O部514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に、強度センサ524(例えば、接触強度センサ)と、を有し得る。更に、I/O部514は、Wi-Fi、Bluetooth、近距離通信(NFC)、セルラー及び/又は他の無線通信技術を使用して、アプリケーション及びオペレーティングシステムのデータを受信するための通信ユニット530に接続し得る。デバイス500は、入力機構506及び/又は入力機構508を含むことができる。入力機構506は、任意選択的に、例えば、回転可能入力デバイス、又は押下可能かつ回転可能な入力デバイスである。入力機構508は、任意選択的に、一部の実施例では、ボタンである。 FIG. 5B shows an exemplary personal electronic device 500. In some embodiments, the device 500 can include some or all of the components described with respect to FIGS. 1A, 1B and 3. The device 500 has a bus 512 that operably couples the I / O unit 514 to one or more computer processors 516 and memory 518. The I / O unit 514 can be connected to the display 504, which may include a touch sensing component 522 and optionally an intensity sensor 524 (eg, a contact intensity sensor). In addition, the I / O unit 514 is a communication unit 530 for receiving application and operating system data using Wi-Fi, Bluetooth, Near Field Communication (NFC), cellular and / or other wireless communication technologies. Can connect to. The device 500 can include an input mechanism 506 and / or an input mechanism 508. The input mechanism 506 is optionally, for example, a rotatable input device or a pushable and rotatable input device. The input mechanism 508 is optionally a button in some embodiments.

入力機構508は、任意選択的に、一部の実施例では、マイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538及び/又はこれらの組み合わせなどの、様々なセンサを含むものであり、それらのすべては、I/O部514に動作可能に接続できる。 The input mechanism 508 is optionally a microphone in some embodiments. The personal electronic device 500 optionally includes various sensors such as a GPS sensor 532, an accelerometer 534, a direction sensor 540 (eg, a compass), a gyroscope 536, a motion sensor 538 and / or a combination thereof. All of them can be operably connected to the I / O section 514.

パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶するための1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、それらの命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、コンピュータプロセッサに、プロセス700、900、1000、1100、1200、及び1400(図7、図9A、図9B、図10A、図10B、図11A、図11B、図12A、図12B、図14A、及び図14B)を含む、以下に説明する技術を実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置若しくはデバイスによって、又はこれらと関連して使用するためのコンピュータ実行可能命令を有形的に収容又は記憶することができる、任意の媒体とすることができる。いくつかの例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体には、磁気的記憶装置、光学的記憶装置及び/又は半導体記憶装置を挙げることができるが、これらに限定されない。そのような記憶装置の例には、磁気ディスク、CD、DVD又はBlu-ray技術に基づく光ディスク、及び、フラッシュ、ソリッドステートドライブなどの永続的ソリッドステートメモリが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の構成要素又は追加的構成要素を、複数の構成で含み得る。 The memory 518 of the personal electronic device 500 may include one or more non-temporary computer-readable storage media for storing computer executable instructions, the instructions being executed by one or more computer processors 516. Then, for example, in a computer processor, processes 700, 900, 1000, 1100, 1200, and 1400 (FIG. 7, FIG. 9A, FIG. 9B, FIG. 10A, FIG. 10B, FIG. 11A, FIG. 11B, FIG. 12A, FIG. 12B, The techniques described below, including FIGS. 14A and 14B), can be performed. The computer-readable storage medium can be any medium that can tangibly contain or store computer-executable instructions for use by, or in connection with, an instruction execution system, device or device. In some examples, the storage medium is a temporary computer-readable storage medium. In some examples, the storage medium is a non-temporary computer-readable storage medium. Non-temporary computer-readable storage media include, but are not limited to, magnetic storage devices, optical storage devices and / or semiconductor storage devices. Examples of such storage devices include magnetic disks, CDs, DVDs or optical discs based on Blu-ray technology, and persistent solid state memories such as flash and solid state drives. The personal electronic device 500 is not limited to the components and configurations of FIG. 5B, and may include other components or additional components in a plurality of configurations.

本明細書において使用するとき、用語「アフォーダンス」は、デバイス100、300及び/又は500(図1A、図3及び図5A~図5B)のディスプレイ画面上に任意選択的に表示されるユーザ対話式のグラフィカルユーザインターフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン及びテキスト(例えば、ハイパーリンク)はそれぞれ、任意選択的に、アフォーダンスを構成する。 As used herein, the term "affordance" is a user-interactive expression that is optionally displayed on the display screens of devices 100, 300 and / or 500 (FIGS. 1A, 3 and 5A-5B). Refers to a graphical user interface object of. For example, images (eg, icons), buttons and text (eg, hyperlinks) each optionally constitute an affordance.

本明細書において使用するとき、用語「フォーカスセレクタ」は、ユーザが対話しているユーザインターフェースの現在の部分を示す入力要素を指す。カーソル又は他の位置マーカを含む一部の実現例において、タッチ感知面(例えば、図3のタッチパッド355、又は図4Bのタッチ感知面451)上で入力(例えば、押圧入力)が検出されたときに、カーソルが特定のユーザインターフェース要素(例えば、ボタン、ウィンドウ、スライダー、又は他のユーザインターフェース要素)の上にある間に、カーソルは「フォーカスセレクタ」として機能し、特定のユーザインターフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインターフェース要素との直接的な対話を可能にする、タッチスクリーンディスプレイ(例えば、図1Aでのタッチ感知ディスプレイシステム112、又は図4Aでのタッチスクリーン112)を含む一部の実現例では、タッチスクリーン上で検出される接触が「フォーカスセレクタ」としての役割を果たすことにより、入力(例えば、接触による押圧入力)が、タッチスクリーンディスプレイ上の特定のユーザインターフェース要素(例えば、ボタン、ウィンドウ、スライダー、又は他のユーザインターフェース要素)の場所で検出されると、その特定のユーザインターフェース要素が、検出された入力に従って調節される。いくつかの実現形態では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、(例えば、タブキー又は矢印キーを使用してフォーカスを1つのボタンから別のボタンに移動させることによって)ユーザインターフェースの1つの領域からユーザインターフェースの別の領域にフォーカスが移動され、これらの実現形態では、フォーカスセレクタは、ユーザインターフェースの異なる領域の間のフォーカスの移動に従って移動する。フォーカスセレクタによってとられる具体的な形態とは関わりなく、フォーカスセレクタは、全般的に、ユーザの意図したユーザインターフェースとの対話を通信するために(例えば、ユーザが対話することを意図しているユーザインターフェースの要素をデバイスに示すことによって)、ユーザによって制御されるユーザインターフェース要素(又はタッチスクリーンディスプレイ上の接触)である。例えば、押圧入力がタッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で検出された間に、対応するボタンの上にあるフォーカスセレクタ(例えば、カーソル、接触又は選択ボックス)の位置は、(デバイスのディスプレイ上に示されている他のユーザインターフェース要素ではなく)対応するボタンをユーザがアクティブ化しようとしていることを示すものである。 As used herein, the term "focus selector" refers to an input element that indicates the current part of the user interface with which the user is interacting. In some implementations including a cursor or other position marker, an input (eg, a pressing input) was detected on the touch sensing surface (eg, touchpad 355 in FIG. 3 or touch sensing surface 451 in FIG. 4B). Sometimes, while the cursor is over a particular user interface element (eg, a button, window, slider, or other user interface element), the cursor acts as a "focus selector" and the particular user interface element is. Adjusted according to the detected input. Some implementations including a touch screen display (eg, touch-sensitive display system 112 in FIG. 1A, or touch screen 112 in FIG. 4A) that allows direct interaction with user interface elements on the touch screen display. In the example, the contact detected on the touch screen acts as a "focus selector" so that the input (eg, touch-pressed input) is a specific user interface element on the touch screen display (eg, a button, etc.). When detected at the location of a window, slider, or other user interface element), that particular user interface element is adjusted according to the detected input. In some embodiments, without moving the corresponding cursor or touch on the touchscreen display (eg, by using the tab key or arrow keys to move the focus from one button to another). Focus is moved from one area of the user interface to another area of the user interface, and in these embodiments, the focus selector moves according to the movement of focus between different areas of the user interface. Regardless of the specific form taken by the focus selector, the focus selector is generally intended to communicate the interaction with the user's intended user interface (eg, the user the user intends to interact with). A user interface element (or contact on a touchscreen display) controlled by the user (by showing the element of the interface to the device). For example, while a press input is detected on a touch-sensitive surface (eg, touchpad or touchscreen), the position of the focus selector (eg, cursor, touch or selection box) above the corresponding button is (device). Indicates that the user is trying to activate the corresponding button (rather than the other user interface elements shown on the display).

本明細書及び特許請求の範囲において使用するとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく接触の特性を指す。一部の実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、予め定義された数の強度サンプル、あるいは予め定義されたイベントに対する(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度における増大を検出する前若しくは後、及び/又は接触の強度における減少を検出する前若しくは後)予め定められた時間期間の間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)に収集された強度サンプルのセットに任意選択的に基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均値(mean value)、接触の強度の平均値(average value)、接触の強度の上位10%値、接触の強度の最大値の半分の値、接触の強度の最大値の90%の値など、のうちの1つ以上に基づく。いくつかの実施形態では、特性強度を判定するために、(例えば、特性強度が経時的な接触の強度の平均であるとき)接触の持続期間が使用される。一部の実施形態では、動作がユーザによって実行されたか否かを判定するために、特性強度を1つ以上の強度閾値のセットと比較する。例えば、1つ以上の強度閾値のセットは、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この実施例では、第1の閾値を越えない特性強度を有する接触の結果として第1の動作が実行され、第1の強度閾値を越え、第2の強度閾値を越えない特性強度を有する接触の結果として第2の動作が実行され、第2の閾値を越える特性強度を有する接触の結果として第3の動作が実行される。一部の実施形態では、特性強度と1つ以上の閾値との間の比較が、第1の動作又は第2の動作のいずれを実行するかを判定するために使用されるのではなく、1つ以上の動作を実行するか否か(例えば、各動作を実行するのか、又は各動作の実行を見合わせるのか)を判定するために使用される。 As used herein and in the claims, the term "characteristic strength" of a contact refers to the characteristic of the contact based on one or more strengths of the contact. In some embodiments, the characteristic intensities are based on a plurality of intensity samples. The characteristic intensity is for a predefined number of intensity samples, or for a predefined event (eg, after detecting a contact, before detecting a lift-off of a contact, before or after detecting the start of movement of a contact, or after contact. Before detecting the end of, before or after detecting an increase in contact strength, and / or before or after detecting a decrease in contact strength) for a predetermined time period (eg, 0.05, 0). 1. Optional based on a set of intensity samples collected at 1, 0.2, 0.5, 1, 2, 5, 10 seconds). The contact characteristic strengths are optionally the maximum value of the contact strength, the mean value of the contact strength, the average value of the contact strength, the top 10% value of the contact strength, and the contact. Based on one or more of, such as half the maximum strength of, 90% of the maximum contact strength, and so on. In some embodiments, the duration of contact is used to determine the characteristic strength (eg, when the characteristic strength is the average of the contact intensities over time). In some embodiments, characteristic intensities are compared to one or more sets of intensity thresholds to determine if the operation was performed by the user. For example, a set of one or more intensity thresholds optionally includes a first intensity threshold and a second intensity threshold. In this embodiment, the first operation is performed as a result of the contact having the characteristic strength not exceeding the first threshold value, and the contact having the characteristic strength exceeding the first intensity threshold value and not exceeding the second intensity threshold value. As a result, the second operation is performed, and as a result of the contact having the characteristic strength exceeding the second threshold value, the third operation is executed. In some embodiments, the comparison between the characteristic intensity and one or more thresholds is not used to determine whether to perform a first motion or a second motion, but 1 It is used to determine whether to perform one or more actions (eg, whether to perform each action or to suspend the execution of each action).

いくつかの実施形態では、特性強度を判定する目的で、ジェスチャの一部が特定される。例えば、タッチ感知面は、任意選択的に、接触の強度が増加する、開始位置から遷移して終了位置まで達する連続的なスワイプ接触を受け取る。この実施例では、終了位置における接触の特性強度は、任意選択的に、連続的なスワイプ接触全体ではなく、そのスワイプ接触の一部分のみ(例えば、終了位置におけるスワイプ接触の部分のみ)に基づく。一部の実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムをそのスワイプ接触の強度に適用する。例えば、平滑化アルゴリズムは任意選択で、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。一部の状況では、これらの平滑化アルゴリズムは、特性強度を判定する目的で、スワイプ接触の強度における小幅な上昇又は低下を除去する。 In some embodiments, some gestures are identified for the purpose of determining characteristic strength. For example, the touch-sensitive surface optionally receives a continuous swipe contact that transitions from the start position to the end position, where the strength of the contact increases. In this embodiment, the characteristic strength of the contact at the end position is optionally based on only a portion of the swipe contact (eg, only the portion of the swipe contact at the end position) rather than the entire continuous swipe contact. In some embodiments, a smoothing algorithm is optionally applied to the strength of the swipe contact before determining the characteristic strength of the contact. For example, the smoothing algorithm is optional and includes one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and / or an exponential smoothing algorithm. In some situations, these smoothing algorithms remove a small increase or decrease in the strength of the swipe contact for the purpose of determining the characteristic intensity.

タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押圧強度閾値、深い押圧強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けする。いくつかの実施形態では、軽い押圧強度閾値は、物理マウスのボタン又はトラックパッドをクリックすることと一般的に関連付けられた操作をデバイスが実行する強度に対応する。一部の実施形態では、深い押圧強度閾値は、物理マウスのボタン又はトラックパッドをクリックすることと典型的に関連付けられた操作とは異なる操作をデバイスが実行する強度に対応する。一部の実施形態では、軽い押圧強度閾値を下回る(例えば、かつ、それを下回ると接触がもはや検出されないわずかな接触検出強度閾値を上回る)特性強度で接触が検出される場合、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従って、フォーカスセレクタを移動させる。全般的には、特に明記しない限り、これらの強度閾値は、ユーザインターフェース図の異なるセット間でも一貫している。 The strength of the contact on the touch-sensitive surface is optionally set to one or more strength thresholds such as a touch detection strength threshold, a light pressure strength threshold, a deep pressure strength threshold, and / or one or more other strength thresholds. Characterize against. In some embodiments, the light press intensity threshold corresponds to the intensity with which the device performs an operation commonly associated with clicking a button or trackpad on a physical mouse. In some embodiments, the deep press intensity threshold corresponds to the intensity with which the device performs an operation different from the operation typically associated with clicking a physical mouse button or trackpad. In some embodiments, the device is light if the contact is detected at a characteristic intensity below a light pressing intensity threshold (eg, above a slight contact detection intensity threshold below which the contact is no longer detected). The focus selector is moved according to the movement of contact on the touch-sensitive surface without performing the action associated with the press intensity threshold or the deep press intensity threshold. In general, these intensity thresholds are consistent across different sets of user interface diagrams, unless otherwise stated.

軽い押圧強度閾値を下回る強度から、軽い押圧強度閾値と深い押圧強度閾値との間の強度への接触の特性強度の増大は、「軽い押圧」入力と呼ばれる場合がある。深い押圧強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への接触の特性強度の増大は、「深い押圧」入力と呼ばれる場合がある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれる場合がある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれる場合がある。いくつかの実施形態では、接触検出強度閾値はゼロである。いくつかの実施形態では、接触検出強度閾値はゼロより大きい。 Increasing the characteristic intensity of contact from an intensity below the light pressing intensity threshold to the intensity between the light pressing intensity threshold and the deep pressing intensity threshold is sometimes referred to as a "light pressing" input. Increasing the characteristic strength of contact from an intensity below the deep pressing intensity threshold to an intensity above the deep pressing intensity threshold is sometimes referred to as a "deep pressing" input. An increase in the characteristic strength of contact from an intensity below the contact detection intensity threshold to an intensity between the contact detection intensity threshold and the light pressing intensity threshold may be referred to as contact detection on the touch surface. The decrease in the characteristic strength of the contact from the strength above the contact detection strength threshold to the strength below the contact detection strength threshold may be referred to as the detection of lift-off of contact from the touch surface. In some embodiments, the contact detection intensity threshold is zero. In some embodiments, the contact detection intensity threshold is greater than zero.

本明細書で説明される一部の実施形態では、1つ以上の操作は、それぞれの押圧入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(又は、複数の接触)で実行されるそれぞれの押圧入力を検出したことに応じて実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は、複数の接触)の強度における増大を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押圧入力強度閾値を上回る、それぞれの接触の強度の増大(例えば、それぞれの押圧入力の「ダウンストローク」)の検出に応じて実行される。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及び後続の押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、後続の押圧入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)の検出に応じて実行される。 In some embodiments described herein, one or more operations are performed in response to the detection of a gesture containing each press input, or at each contact (or multiple contacts). Each press input is executed in response to the detection of each press input, and each press input is at least partially based on the detection of an increase in the intensity of a contact (or multiple contacts) above the press input intensity threshold. Detected. In some embodiments, each action is performed in response to detection of an increase in the strength of each contact (eg, a "downstroke" of each press input) above the press input intensity threshold. In some embodiments, the press input comprises increasing the intensity of each contact above the press input intensity threshold and decreasing the intensity of the contact below the subsequent press input intensity threshold, and each action is a subsequent press. It is performed in response to the detection of a decrease in the strength of each contact below the input threshold (eg, the "upstroke" of each pressing input).

いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある不測の入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との予め定義された関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりもX強度単位低いか、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な比率である)。よって、いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及び後続の押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、そのヒステリシス強度閾値を下回る後続のそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)の検出に応じて実行される。同様に、いくつかの実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、ヒステリシス強度以下の強度への後続の接触の強度の減少を検出するときのみ検出され、それぞれの動作は、その押圧入力の検出(例えば、状況に応じて、接触の強度の増大、又は接触の強度の減少)に応じて実行される。 In some embodiments, the device employs intensity hysteresis to avoid unforeseen inputs, sometimes referred to as "jitter", and the device has a predefined relationship with the press input intensity threshold. Define or select a threshold (eg, the hysteresis intensity threshold is X intensity units lower than the press input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable ratio of the press input intensity threshold. ). Thus, in some embodiments, the press input comprises increasing the intensity of each contact above the press input intensity threshold and decreasing the intensity of the contact below the hysteresis intensity threshold corresponding to the subsequent press input intensity threshold. Each action is performed in response to the detection of a subsequent decrease in the strength of each contact below its hysteresis strength threshold (eg, the "upstroke" of each pressing input). Similarly, in some embodiments, the press input is such that the device increases the intensity of contact from an intensity below the hysteresis intensity threshold to an intensity above the press input intensity threshold, and optionally, an intensity below the hysteresis intensity. It is detected only when it detects a decrease in the strength of the subsequent contact to, and each action depends on the detection of its pressing input (eg, depending on the situation, an increase in the strength of the contact or a decrease in the strength of the contact). Is executed.

説明を容易にするために、押圧入力強度閾値と関連付けられた押圧入力に応じて、又は押圧入力を含むジェスチャに応じて実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応じてトリガされる。加えて、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて動作が実行されるとして説明される実施例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。 For ease of explanation, the description of the action performed in response to the press input associated with the press input intensity threshold or in response to a gesture involving the press input optionally exceeds the press input intensity threshold. Corresponds to increased contact strength, increased contact strength from below the hysteresis strength threshold to above the pressed input strength threshold, decreased contact strength below the pressed input strength threshold, and / or the pressed input strength threshold. Triggered in response to the detection of any decrease in contact strength below the hysteresis strength threshold. In addition, in the embodiment described as performing the action in response to detecting a decrease in contact intensity below the press input intensity threshold, the operation optionally corresponds to the press input intensity threshold. And it is executed in response to the detection of the decrease in the intensity of the contact below the hysteresis intensity threshold lower than that.

ここで、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実施されるユーザインターフェース(「UI」)及び関連処理の実施形態に着目する。 Here, attention is paid to an embodiment of a user interface (“UI”) and related processing implemented on an electronic device such as a portable multifunction device 100, a device 300, or a device 500.

図6A~図6ANは、いくつかの実施形態に従って、アプリケーション(例えば、メッセージングアプリケーション)内のアバター間をナビゲートする例示的なユーザインターフェースを示している。これらの図のユーザインターフェースは、図7の処理を含む、以下で説明される処理を示すために使用される。 6A-6AN show an exemplary user interface for navigating between avatars within an application (eg, a messaging application) according to some embodiments. The user interface in these figures is used to indicate the processes described below, including the process in FIG.

図6Aは、ディスプレイ601を有するデバイス600を示しており、ディスプレイ601は、一部の場合にはタッチ感知ディスプレイである。いくつかの実施形態では、デバイス600は、光スペクトル(例えば、可視光、赤外光、又は紫外光)の一部を表すデータをキャプチャできる画像センサを少なくとも含んでいる、カメラ602も含む。いくつかの実施形態では、カメラ602は、複数の画像センサ及び/又はその他の種類のセンサを含む。いくつかの実施形態では、感知された光を表すデータをキャプチャすることに加えて、カメラ602は、深度データなどの他の種類のデータをキャプチャすることができる。例えば、いくつかの実施形態では、カメラ602は、スペックル、飛行時間、視差、又はフォーカスに基づく技術も使用して、深度データをキャプチャする。カメラ602を使用してデバイス600がキャプチャする画像データは、カメラの視野内のシーンについての光スペクトルの一部に対応するデータを含む。また、いくつかの実施形態では、キャプチャされた画像データは、光データに関する深度データも含む。いくつかの他の実施形態では、キャプチャされた画像データは、光スペクトルの一部のデータに関する深度データを決定又は生成するのに十分なデータを含む。いくつかの実施形態では、デバイス600は、デバイス100、デバイス300、又はデバイス500の1つ以上の特徴を含む。 FIG. 6A shows a device 600 with a display 601 which, in some cases, is a touch-sensitive display. In some embodiments, the device 600 also includes a camera 602, which includes at least an image sensor capable of capturing data representing a portion of the light spectrum (eg, visible light, infrared light, or ultraviolet light). In some embodiments, the camera 602 includes a plurality of image sensors and / or other types of sensors. In some embodiments, in addition to capturing data representing the sensed light, the camera 602 can capture other types of data, such as depth data. For example, in some embodiments, the camera 602 also uses techniques based on speckle, flight time, parallax, or focus to capture depth data. The image data captured by the device 600 using the camera 602 includes data corresponding to a portion of the optical spectrum of the scene in the field of view of the camera. Also, in some embodiments, the captured image data also includes depth data with respect to the optical data. In some other embodiments, the captured image data contains sufficient data to determine or generate depth data for some data in the optical spectrum. In some embodiments, the device 600 comprises one or more features of the device 100, the device 300, or the device 500.

いくつかの例では、電子デバイス600は、赤外線カメラ、サーモグラフィカメラ、又はこれらの組み合わせなどの深度カメラを含む。いくつかの実施例では、デバイスは、IRフラッド光、構造化光プロジェクタ、又はそれらの組み合わせなどの発光デバイス(例えば、光プロジェクタ)を更に含む。発光デバイスは、可視光カメラ及び深度カメラ(例えば、IRカメラ)によって画像をキャプチャするときに被写体を照らすために、任意選択的に使用され、深度カメラ及び可視光カメラからの情報は、可視光カメラによってキャプチャされた被写体の様々な部分の深度マップを決定するために使用される。いくつかの実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ)からのシーン内のオブジェクトの距離に関連する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、対応する二次元ピクセルが配置されている視点のZ軸での位置を定義する。いくつかの例では、深度マップは、各ピクセルが値(例えば、0~255)によって定義されているピクセルから成る。例えば、「0」の値は、「三次元」シーン内の最も遠い場所に配置されているピクセルを表し、「255」の値は、「三次元」シーン内の視点(例えば、カメラ)の最も近くに配置されているピクセルを表す。他の例では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。いくつかの実施形態では、深度マップは、深度カメラの視野内の対象のオブジェクトの様々な特徴の相対的な深さ(例えば、ユーザの顔の目、鼻、口、耳の相対的な深さ)に関する情報を含む。いくつかの実施形態では、深度マップは、デバイスがZ方向での対象のオブジェクトの輪郭を決定できるようにする情報を含む。いくつかの実施形態では、本明細書に記載された照明効果は、背面画像用の2つのカメラ(例えば、2つの可視光カメラ)からの視差情報を使用し、前面画像(例えば、自撮り画像)用の可視光カメラからの画像データと組み合わせて深度カメラからの深度情報を使用して、表示される。いくつかの実施形態では、深度情報を決定するために2つの可視光カメラが使用されるとき、及び深度情報を決定するために深度カメラが使用されるときに、同じユーザインターフェースが使用され、照明効果を生成するときに使用される情報を著しく異なる技術を使用して決定する場合でも、一貫性のあるユーザエクスペリエンスをユーザに提供する。いくつかの実施形態では、デバイスは、照明効果のうちの1つが適用されたカメラユーザインターフェースを表示している間に、カメラ切り替えアフォーダンスの選択を検出し、照明効果を適用するためのユーザインターフェース制御の表示を維持しながら、前面カメラの視野の表示を背面カメラの視野に(又はその逆に)置き換えて、前面カメラ(例えば、深度カメラ及び可視光カメラ)から背面カメラ(例えば、互いに離れて間隔が空けられた2つの可視光カメラ)に(又はその逆に)切り替える。 In some examples, the electronic device 600 includes a depth camera such as an infrared camera, a thermography camera, or a combination thereof. In some embodiments, the device further comprises a light emitting device (eg, an optical projector) such as an IR flood light, a structured optical projector, or a combination thereof. The light emitting device is optionally used to illuminate the subject when capturing an image with a visible light camera and a depth camera (eg, an IR camera), and the information from the depth camera and the visible light camera is the visible light camera. Used to determine the depth map of various parts of the subject captured by. In some embodiments, the depth map (eg, depth map image) contains information (eg, values) related to the distance of the object in the scene from the viewpoint (eg, camera). In one embodiment of the depth map, each depth pixel defines a position on the Z axis of the viewpoint in which the corresponding 2D pixel is located. In some examples, the depth map consists of pixels where each pixel is defined by a value (eg 0-255). For example, a value of "0" represents the farthest pixel located in the "three-dimensional" scene, and a value of "255" is the most of the viewpoint (eg, camera) in the "three-dimensional" scene. Represents pixels that are placed close together. In another example, the depth map represents the distance between an object in the scene and the plane of view. In some embodiments, the depth map is the relative depth of various features of the object in the field of view of the depth camera (eg, the relative depth of the eyes, nose, mouth, ears of the user's face). ) Includes information about. In some embodiments, the depth map contains information that allows the device to determine the contour of the object of interest in the Z direction. In some embodiments, the illumination effects described herein use disparity information from two cameras for a rear image (eg, two visible light cameras) and a front image (eg, a self-portrait image). ) Is displayed using the depth information from the depth camera in combination with the image data from the visible light camera. In some embodiments, the same user interface is used and illuminated when two visible light cameras are used to determine depth information and when depth cameras are used to determine depth information. It provides users with a consistent user experience, even when the information used to generate the effect is determined using significantly different techniques. In some embodiments, the device detects a camera switching affordance selection and controls the user interface to apply the lighting effect while displaying the camera user interface to which one of the lighting effects is applied. Replacing the view of the front camera field with the view of the rear camera (or vice versa) while maintaining the display of the front camera (eg, depth camera and visible light camera) to the rear camera (eg, spaced apart from each other). Switch to (or vice versa) two visible light cameras that are vacant.

図6Aでは、デバイス600は、メッセージングアプリケーションのメッセージングユーザインターフェース603を表示している。メッセージングユーザインターフェース603は、メッセージ会話の参加者(受信者識別子606によって表される)に送信されたメッセージ605を含んでいるメッセージ表示領域604を含む。メッセージングユーザインターフェース603は、メッセージ会話の参加者に送信するための入力(例えば、テキスト入力、マルチメディア入力など)を表示するメッセージ作成フィールド608も含む。メッセージングユーザインターフェース603は、アプリケーションドックアフォーダンス610、キーボード表示領域612、及びテキスト候補領域614も含む。 In FIG. 6A, device 600 displays the messaging user interface 603 of the messaging application. The messaging user interface 603 includes a message display area 604 containing a message 605 sent to a participant in the message conversation (represented by the recipient identifier 606). The messaging user interface 603 also includes a message creation field 608 that displays inputs for transmission to participants in the message conversation (eg, text input, multimedia input, etc.). The messaging user interface 603 also includes an application dock affordance 610, a keyboard display area 612, and a text candidate area 614.

図6Bで、デバイス600は、アプリケーションドックアフォーダンス610に対応する位置で入力616(例えば、ディスプレイ601上のタッチ入力)を検出する。 In FIG. 6B, the device 600 detects an input 616 (eg, a touch input on the display 601) at a position corresponding to the application dock affordance 610.

図6Cで、デバイス600は、入力616を検出することに応じて、テキスト候補領域614を、様々なアプリケーションに対応するアプリケーションアフォーダンス620を有するアプリケーションドック618に置き換える。また、デバイス600は、キーボード表示領域612を、アプリケーションアフォーダンスのうちの選択された1つに対応するアプリケーションユーザインターフェースを表示するアプリケーション表示領域622に置き換える。 In FIG. 6C, the device 600 replaces the text candidate area 614 with an application dock 618 with application affordances 620 corresponding to various applications in response to detecting input 616. The device 600 also replaces the keyboard display area 612 with an application display area 622 that displays the application user interface corresponding to one of the selected application affordances.

図6Dで、デバイス600は、アプリケーションアフォーダンス620aを選択する入力624(例えば、アプリケーションアフォーダンス620aに対応する位置でのディスプレイ601上のタッチ入力)を検出する。 In FIG. 6D, the device 600 detects an input 624 that selects the application affordance 620a (eg, a touch input on the display 601 at a position corresponding to the application affordance 620a).

図6Eで、デバイス600は、入力624を検出することに応じて、アプリケーションドック618及びアプリケーション表示領域622を、例示的なアバター628を有するアバタースプラッシュスクリーン626に置き換える。例示的なアバターは、例示的なカスタマイズ可能なアバター628a及び例示的なカスタマイズ不可のアバター628bを含む。図6Eに示された実施形態では、カスタマイズ可能なアバター628aがカスタマイズ不可のアバター628bの上に配置されている。いくつかの実施形態では、アバタースプラッシュスクリーン626は、顔面表情を動かして変更し、互いに対話する(例えば、互いに話す、ウィンクする、笑う、ほほ笑むなどを行っているように見える)例示的なアバターの外観を与える、例示的なアバター628のアニメーション表示を含む。いくつかの実施形態では、デバイス600は、アプリケーションアフォーダンス620aが最初に選択されたとき、又はカスタマイズ可能なアバターが作成されていないときにのみ、アバタースプラッシュスクリーン626を表示する。いくつかの実施形態では、アバタースプラッシュスクリーン626が表示されていないときに、デバイス600は、例えば縮小されたアバター選択インターフェース668(図6L及び下の対応する説明を参照)などの、アバター選択インターフェースを任意選択的に表示する。 In FIG. 6E, the device 600 replaces the application dock 618 and the application display area 622 with an avatar splash screen 626 with an exemplary avatar 628 in response to detecting input 624. Exemplary avatars include exemplary customizable avatars 628a and exemplary non-customizable avatars 628b. In the embodiment shown in FIG. 6E, the customizable avatar 628a is placed on top of the non-customizable avatar 628b. In some embodiments, the avatar splash screen 626 is an exemplary avatar of an exemplary avatar that moves and modifies facial expressions and interacts with each other (eg, talking to each other, winking, laughing, smiling, etc.). Includes an animated display of an exemplary avatar 628 that gives the appearance. In some embodiments, the device 600 displays the avatar splash screen 626 only when the application affordance 620a is first selected or no customizable avatar has been created. In some embodiments, when the avatar splash screen 626 is not displayed, the device 600 provides an avatar selection interface, for example, a reduced avatar selection interface 668 (see FIG. 6L and the corresponding description below). Display arbitrarily.

いくつかの実施形態では、仮想アバターは、グラフィカルに描画され得るユーザの表現(例えば、ユーザのグラフィック表現)である。いくつかの実施形態では、仮想アバターは非写実的(例えば、漫画的)である。いくつかの実施形態では、仮想アバターは、1つ以上のアバター特徴部(例えば、アバター顔の特徴)を有するアバターの顔を含む。いくつかの実施形態では、アバター特徴部は、ユーザの物理的特徴の検出された(例えば、深度感知カメラなどのカメラに基づいて決定された)動きが、アバター特徴部に影響を与える(例えば、特徴のグラフィック表現に影響を与える)ように、ユーザの顔の1つ以上の物理的特徴に対応する(例えば、マッピングされる)。 In some embodiments, the virtual avatar is a representation of the user that can be graphically drawn (eg, a graphic representation of the user). In some embodiments, the virtual avatar is non-photorealistic (eg, cartoonish). In some embodiments, the virtual avatar comprises the face of an avatar having one or more avatar features (eg, avatar face features). In some embodiments, the avatar feature is affected by the detected (eg, camera-based) movement of the user's physical features (eg, based on a camera such as a depth sensing camera). Corresponds to one or more physical features of the user's face (eg, mapped) so as to affect the graphic representation of the features.

いくつかの例では、ユーザは、カメラセンサ(例えば、カメラモジュール143、光センサ164)、及び任意選択的に深度センサ(例えば、深度カメラセンサ175)を使用して、仮想アバターの特性又は特徴を操作することができる。ユーザの物理的特徴(顔の特徴など)及び位置(頭部の位置、頭部の回転、又は頭部の傾きなど)が変化したときに、電子デバイスはその変化を検出し、ユーザの物理的特徴及び位置の変化を反映するように仮想アバターの表示された画像を変更する。いくつかの実施形態では、ユーザの物理的特徴及び位置の変化は、様々な表情、感情、文脈、調子、又はその他の非言語的コミュニケーションを示す。いくつかの実施形態では、電子デバイスは、これらの表情、感情、文脈、調子、又はその他の非言語的コミュニケーションを表すように、仮想アバターの表示された画像を変更する。 In some examples, the user uses a camera sensor (eg, camera module 143, optical sensor 164), and optionally a depth sensor (eg, depth camera sensor 175) to characterize or characterize the virtual avatar. It can be operated. When the user's physical characteristics (such as facial features) and position (such as head position, head rotation, or head tilt) change, the electronic device detects the change and the user's physical characteristics. Change the displayed image of the virtual avatar to reflect changes in features and position. In some embodiments, changes in the user's physical characteristics and position indicate various facial expressions, emotions, contexts, tones, or other nonverbal communication. In some embodiments, the electronic device modifies the displayed image of the virtual avatar to represent these facial expressions, emotions, contexts, tones, or other nonverbal communications.

いくつかの実施形態では、カスタマイズ可能なアバターは、例えば望ましい外観を実現するために(例えば、ユーザに似るように)、ユーザによって選択してカスタマイズすることができる仮想アバターである。カスタマイズ可能なアバターは、動物又はその他の人間以外のオブジェクトの擬人化された構成などの人間以外のキャラクターではなく、人間のキャラクターの外観を通常は有する。更に、アバター特徴部は、所望であれば、アバター編集ユーザインターフェース(例えば、図8A~図8CFに関して下で説明されるアバター編集ユーザインターフェースなど)を使用して、作成又は変更され得る。いくつかの実施形態では、カスタマイズ可能なアバターは、カスタマイズされた外観、物理的構造、又はモデル化された挙動を実現するために、作成及び構成され得る。 In some embodiments, the customizable avatar is a virtual avatar that can be selected and customized by the user, eg, to achieve the desired appearance (eg, to resemble the user). Customizable avatars usually have the appearance of a human character rather than a non-human character, such as an anthropomorphic composition of an animal or other non-human object. Further, the avatar feature may be created or modified, if desired, using an avatar editing user interface (eg, the avatar editing user interface described below with respect to FIGS. 8A-8CF). In some embodiments, customizable avatars can be created and configured to achieve a customized look, physical structure, or modeled behavior.

いくつかの実施形態では、カスタマイズ不可のアバターは、ユーザによって選択することができるが、通常は基本的に構成可能ではなく、ただし、下で詳細に説明されているように、顔追跡によってそれらの外観を変更することができる。代わりに、カスタマイズ不可のアバターは、予め構成されており、ユーザによって変更可能な特徴構成要素を通常は有していない。いくつかの実施形態では、カスタマイズ不可のアバターは、動物又はその他の人間以外のオブジェクトの擬人化された構成などの、人間以外のキャラクターの外観を有する。カスタマイズ不可のアバターは、ユーザによって作成することができず、カスタマイズ不可のアバターの外観、物理的構造、又はモデル化された挙動の大幅な変更を実現するために、変更することもできない。 In some embodiments, non-customizable avatars can be selected by the user, but are usually basically non-configurable, but theirs by face tracking, as detailed below. You can change the appearance. Instead, non-customizable avatars are preconfigured and usually do not have feature components that can be modified by the user. In some embodiments, the non-customizable avatar has the appearance of a non-human character, such as an anthropomorphic composition of an animal or other non-human object. Non-customizable avatars cannot be created by the user and cannot be modified to achieve significant changes in the appearance, physical structure, or modeled behavior of non-customizable avatars.

図6Fで、デバイス600は、続行アフォーダンス632上の入力630(例えば、ディスプレイ601上のタッチジェスチャ)を検出する。 In FIG. 6F, the device 600 detects an input 630 on the continuation affordance 632 (eg, a touch gesture on the display 601).

図6Gで、デバイス600は、入力630を検出することに応じて、展開されたアバター選択インターフェース634を表示し、アバター選択インターフェース634は、メッセージングユーザインターフェース608のために(例えば、メッセージ会話の参加者に送信するために)選択できるアバターオプションの初期の集合を提供する。本明細書で説明される実施形態では、アバターは、(例えば、デバイスがユーザの顔の変化を検出することに応じて)変化を表示するようにアニメーション化され得る、仮想キャラクターの表現である。アバターは、そのアバターと同じ外観及び特性を有するアバターの静的表現である、アバターオプションに対応することができるが、通常はアニメーション化されない。アバターオプションは、通常はアバターの選択可能な表現である。アバターオプションが選択されたときに、多くの場合、対応するアバターが表示される。 In FIG. 6G, the device 600 displays the expanded avatar selection interface 634 in response to detecting the input 630, the avatar selection interface 634 for the messaging user interface 608 (eg, a participant in a message conversation). Provides an initial set of avatar options to choose from). In embodiments described herein, an avatar is a representation of a virtual character that can be animated to display changes (eg, in response to a device detecting changes in the user's face). Avatars can accommodate avatar options, which are static representations of avatars that have the same appearance and characteristics as their avatars, but are usually not animated. Avatar options are usually selectable representations of avatars. When the avatar option is selected, the corresponding avatar is often displayed.

展開されたアバター選択インターフェース634は、アバター表示領域636及びアバターオプション領域638を含む。アバターオプション領域638は、選択可能なアバターオプション640の集合を含む。選択されたアバターオプションは境界642によって示され、境界642は、図6Gでは、最初に選択されたサルアバターオプション640aの周囲に表示されている。選択されたアバターオプションは、アバター645としてアバター表示領域636内に表される(例えば、アバター645は、サルアバターオプション640aに対応するサルである)。各アバターオプション640は、個別のアバターオプションをタップすることによって選択され得る。これにより、デバイス600は、アバターオプション640のうちの異なる1つの選択を受信することに応じて、新しく選択されたアバターオプションを表すように、表示されたアバター645を変更し、境界642を選択されたアバターオプションに移動する。このようにして、デバイス600が一角獣アバターオプション640bの選択を検出した場合、デバイス600は、一角獣アバターオプション640bの周囲に境界642を表示し、一角獣アバターオプション640bに対応する一角獣として現れるように、アバター645を変更する。 The expanded avatar selection interface 634 includes an avatar display area 636 and an avatar option area 638. The avatar option area 638 contains a set of selectable avatar options 640. The selected avatar option is indicated by the boundary 642, which is displayed around the first selected monkey avatar option 640a in FIG. 6G. The selected avatar option is represented in the avatar display area 636 as an avatar 645 (eg, the avatar 645 is a monkey corresponding to the monkey avatar option 640a). Each avatar option 640 can be selected by tapping an individual avatar option. Thereby, the device 600 modifies the displayed avatar 645 to represent the newly selected avatar option in response to receiving a different selection of one of the avatar options 640, and the boundary 642 is selected. Go to Avatar Options. In this way, if the device 600 detects the selection of the unicorn avatar option 640b, the device 600 will display a boundary 642 around the unicorn avatar option 640b and appear as a unicorn corresponding to the unicorn avatar option 640b. Change 645.

アバター表示領域636はキャプチャアフォーダンス644も含んでおり、キャプチャアフォーダンス644は、メッセージ会話(メッセージングユーザインターフェース603を参照)の参加者に送信するためのアバター645の画像をキャプチャするために、選択され得る。いくつかの実施形態では、キャプチャされる画像は、キャプチャアフォーダンス644で検出されたジェスチャの種類に応じて、静止画像又はビデオ記録である。例えば、デバイス600がキャプチャアフォーダンス644でタップジェスチャを検出した場合、デバイス600は、タップジェスチャが発生したときに、アバター645の静止画像をキャプチャする。デバイス600がキャプチャアフォーダンス644でタップアンドホールドジェスチャを検出した場合、デバイス600は、タップアンドホールドジェスチャが持続する期間の間に、アバター645のビデオ記録をキャプチャする。いくつかの実施形態では、指がアフォーダンスから離れたときに、ビデオ記録が停止する。いくつかの実施形態では、アフォーダンスに対応する位置でその後の入力(例えば、タップ入力)が検出されるまで、ビデオ記録が継続する。いくつかの実施形態では、アバター645のキャプチャされた画像(例えば、静止画像又はビデオ記録)は、その後、メッセージ作成フィールド608に挿入された後、メッセージ会話の参加者に送信される。いくつかの実施形態では、アバター645のキャプチャされた画像は、キャプチャされた画像をメッセージ作成フィールド608に挿入することなく、メッセージ会話の参加者に直接送信される。 The avatar display area 636 also includes a capture affordance 644, which may be selected to capture an image of the avatar 645 for transmission to participants in a message conversation (see Messaging User Interface 603). In some embodiments, the captured image is a still image or video recording, depending on the type of gesture detected by the capture affordance 644. For example, if the device 600 detects a tap gesture on the capture affordance 644, the device 600 captures a still image of the avatar 645 when the tap gesture occurs. If the device 600 detects a tap-and-hold gesture on the capture affordance 644, the device 600 captures the video recording of the avatar 645 for the duration of the tap-and-hold gesture. In some embodiments, video recording stops when the finger leaves the affordance. In some embodiments, video recording continues until subsequent inputs (eg, tap inputs) are detected at positions corresponding to affordances. In some embodiments, the captured image of Avatar 645 (eg, still image or video recording) is then inserted into the message composition field 608 and then sent to the participants in the message conversation. In some embodiments, the captured image of Avatar 645 is sent directly to the participants in the message conversation without inserting the captured image into the message composition field 608.

いくつかの実施形態では、デバイス600は、カメラ(例えば、カメラ602)の視野内に配置されたユーザの顔の移動及び位置(例えば、回転移動及び/又は並進移動)を追跡し、それに応じて、検出されたユーザの顔における変化に基づいてアバター645の外観を更新する(多くの場合、本明細書では「顔追跡」機能と呼ばれる)。例えば、図6Hに示されているように、デバイス600は、ユーザの顔における変化を(例えば、カメラ602を使用して)検出することに応じて、アバター645の外観を更新する。図6Hの例では、アバター645は、口を開き、目を広げて、傾いて表示されており、カメラ602の視野内に配置されたユーザの顔に類似する表情及び位置を反映している。アバター645に対するそのような変更は、キャプチャアフォーダンス644を使用してキャプチャされ、図6Aに示されているメッセージ会話の参加者に任意選択的に送信され得る。図6Hに示されているアバター645はカスタマイズ不可のアバターであるが、デバイス600は、同様の方法でカスタマイズ可能なアバターを変更することができる。 In some embodiments, the device 600 tracks the movement and position (eg, rotational movement and / or translational movement) of the user's face placed within the field of view of the camera (eg, camera 602) and accordingly. , Update the appearance of the avatar 645 based on the detected changes in the user's face (often referred to herein as the "face tracking" feature). For example, as shown in FIG. 6H, device 600 updates the appearance of Avatar 645 in response to detecting changes in the user's face (eg, using camera 602). In the example of FIG. 6H, the avatar 645 is displayed with its mouth open, its eyes wide open, and tilted, reflecting a facial expression and position similar to the user's face placed in the field of view of the camera 602. Such changes to Avatar 645 may be captured using Capture Affordance 644 and optionally transmitted to participants in the message conversation shown in FIG. 6A. Although the avatar 645 shown in FIG. 6H is a non-customizable avatar, the device 600 can change the customizable avatar in a similar manner.

図6G~図6Iに示されている展開されたアバター選択インターフェースでは、アバターオプション領域638に表示されているすべてのアバターオプション640は、ユーザの即時選択のために予め構成されているカスタマイズ不可のアバターである。これは、カスタマイズ可能なアバターが作成されていないからである。しかし、図6Iに示されているように、デバイス600は、アバター作成アイコン648を選択するようユーザに促すために、アバター作成アイコン648から広がるアバター作成プロンプト646を表示し、ユーザがアバター作成アイコン648を選択すると、デバイス600は新しいカスタマイズ可能なアバターを作成する処理を開始し、その後、作成されたカスタマイズ可能なアバターは、アバターオプション領域638に追加することができ、任意選択的に、メッセージングユーザインターフェース603で使用することができる。アバター作成プロンプト646及びアバター作成アイコン648(図6Iでは「+」形状を有している)の表示された組み合わせは、ユーザが、アバター作成アイコン648を選択することによって、展開されたアバター選択インターフェース634及び図6Uのライブラリインターフェース686に追加され得るカスタマイズされたアバターを作成できるということを、ユーザに知らせる。 In the expanded avatar selection interface shown in FIGS. 6G-6I, all avatar options 640 displayed in the avatar option area 638 are non-customizable avatars preconfigured for immediate user selection. Is. This is because no customizable avatar has been created. However, as shown in FIG. 6I, the device 600 displays an avatar creation prompt 646 extending from the avatar creation icon 648 to prompt the user to select the avatar creation icon 648, and the user displays the avatar creation icon 648. When selected, the device 600 begins the process of creating a new customizable avatar, after which the created customizable avatar can be added to the avatar option area 638 and optionally the messaging user interface. It can be used in 603. The displayed combination of the avatar creation prompt 646 and the avatar creation icon 648 (having a "+" shape in FIG. 6I) is the avatar selection interface 634 expanded by the user selecting the avatar creation icon 648. And inform the user that a customized avatar that can be added to the library interface 686 of FIG. 6U can be created.

いくつかの実施形態では、アバター作成プロンプト646はわずかな遅延の後に現れ、出現する様々なカスタマイズ可能なアバターの例のアニメーションを表示し、例えば顔面表情を変化させる。例えば、図6Iでは、アバター作成プロンプト646は、帽子及び眼鏡を着用している男性の外観を有し、微笑している顔面表情を有する例示的なカスタマイズ可能なアバター646aを表示している。図6Jでは、アバター作成プロンプト646は、黒い毛髪を中央で分けた女性の外観を有し、完全に笑っている顔面表情を有する例示的なカスタマイズ可能なアバター646bを表示することに移行している。 In some embodiments, the avatar creation prompt 646 appears after a slight delay, displaying animations of various customizable avatar examples that appear, eg, changing facial expressions. For example, in FIG. 6I, the avatar creation prompt 646 has the appearance of a man wearing a hat and eyeglasses and displays an exemplary customizable avatar 646a with a smiling facial expression. In FIG. 6J, the avatar creation prompt 646 shifts to displaying an exemplary customizable avatar 646b with a female appearance with black hair centrally divided and a fully smiling facial expression. ..

いくつかの実施形態では、デバイス600は、アバター作成アイコン648を選択した後に作成されたアバターなどの、新しいカスタマイズ可能なアバターを表示し、それらのアバターは、アバターオプション領域638内の、どの2つのカスタマイズ不可のアバターの間でもない、アバターオプション640の集合の端に現れる。例えば、新しく作成されたすべてのカスタマイズ可能なアバターは、アバターの集合の後端(例えば、一角獣アバターオプション640bの後、ただし、一角獣アバターオプション640bと鶏アバターオプション640cの間ではない)又はアバターの集合の先端(例えば、アバター作成アイコン648の次、又はアバター作成アイコン648とサルアバターオプション640aの間)に表示され得る。このようにして、カスタマイズ可能なすべてのアバターが一緒にグループ化されて表示され、カスタマイズ不可のアバターから離される(例えば、分離又は区別される)。カスタマイズ可能なすべてのアバターとカスタマイズ不可のアバターのこの分離は、図6A~図6ANに関して説明されている様々なユーザインターフェースにおいて維持される。 In some embodiments, the device 600 displays new customizable avatars, such as avatars created after selecting the avatar creation icon 648, which two are in the avatar option area 638. Appears at the end of a set of avatar options 640, not among non-customizable avatars. For example, all newly created customizable avatars are the trailing edge of a set of avatars (eg, after the one-horn beast avatar option 640b, but not between the one-horn beast avatar option 640b and the chicken avatar option 640c) or the set of avatars. Can be displayed at the tip of (eg, next to the avatar creation icon 648, or between the avatar creation icon 648 and the sal avatar option 640a). In this way, all customizable avatars are grouped together and displayed and separated from non-customizable avatars (eg, separated or distinguished). This separation of all customizable and non-customizable avatars is maintained in the various user interfaces described with respect to FIGS. 6A-6AN.

図6Jで、デバイス600は、アバター作成アイコン648に対応する位置で入力650(例えば、ディスプレイ601上のタップジェスチャ)を検出する。 In FIG. 6J, the device 600 detects an input 650 (eg, a tap gesture on the display 601) at a position corresponding to the avatar creation icon 648.

図6Kで、デバイス600は、入力650を検出することに応じて、キャンセルアフォーダンス654及び完了アフォーダンス666を有するアバター編集ユーザインターフェース652を表示する。アバター編集ユーザインターフェース652は、図8Aに示されているアバター編集ユーザインターフェース801に類似している。アバター編集ユーザインターフェース652を使用して、図8A~図8CFに関して下で提供されている開示に従って、カスタマイズ可能なアバターを作成することができる。簡潔にするために、アバターの作成及び編集に関する詳細は、ここでは繰り返されないが、本開示(例えば、図8A~図8CE及び関連する開示)において後述される。 In FIG. 6K, the device 600 displays an avatar editing user interface 652 with a cancel affordance 654 and a complete affordance 666 in response to detecting the input 650. The avatar editing user interface 652 is similar to the avatar editing user interface 801 shown in FIG. 8A. The avatar editing user interface 652 can be used to create customizable avatars according to the disclosure provided below with respect to FIGS. 8A-8CF. For the sake of brevity, details regarding the creation and editing of avatars will not be repeated here, but will be described later in this disclosure (eg, FIGS. 8A-8CE and related disclosures).

ユーザがアバター編集ユーザインターフェース652においてアバターをカスタマイズした後に、ユーザは、完了アフォーダンス652を選択して、そのアバターを新しいカスタマイズされたアバター(カスタマイズ可能な女性アバター670として図6Lに示されている)として保存することができる。デバイス600は、完了アフォーダンス652の選択を検出することに応じて、新しいカスタマイズされたアバターを保存し、図6Lに示されているように、縮小されたアバター選択インターフェース668を有するメッセージングユーザインターフェース603を表示する。代替的に、ユーザは、キャンセルアフォーダンス654を選択して、新しいカスタマイズされたアバターを破棄し、図6Hに示されている展開されたアバター選択インターフェース634に戻ることができる。デバイス600が新しいカスタマイズされたアバターを保存した後に、下で説明されているように、展開されたアバター選択インターフェース634に戻ることによって、そのアバターを展開されたアバター選択インターフェース634に表示することができる。新しいカスタマイズされたアバターは、カスタマイズ不可のアバターではなくカスタマイズ可能なアバターであるため、新しいカスタマイズされたアバターを展開されたアバター選択インターフェース634に表示したときに、そのアバターは、カスタマイズ不可のアバターから分離されて配置され(例えば、アバターオプション640の集合の端の、ただしどの2つのカスタマイズ不可のアバターの間でもない位置に配置され)、他のカスタマイズ可能なアバターと共にグループ化される。 After the user customizes the avatar in the avatar editing user interface 652, the user selects Completion Affordance 652 to make the avatar a new customized avatar (shown in FIG. 6L as a customizable female avatar 670). Can be saved. The device 600 stores a new customized avatar in response to detecting the selection of the completed affordance 652 and provides a messaging user interface 603 with a reduced avatar selection interface 668 as shown in FIG. 6L. indicate. Alternatively, the user can select Cancel Affordance 654 to discard the new customized avatar and return to the expanded avatar selection interface 634 shown in FIG. 6H. After the device 600 saves a new customized avatar, the avatar can be displayed in the expanded avatar selection interface 634 by returning to the expanded avatar selection interface 634 as described below. .. The new customized avatar is a customizable avatar, not a non-customizable avatar, so when a new customized avatar is displayed in the expanded avatar selection interface 634, it will be separated from the non-customizable avatar. And placed (eg, at the edge of the set of avatar options 640, but not between any two non-customizable avatars) and grouped with other customizable avatars.

図6Lで、デバイス600は、展開されたアバター選択インターフェース634に表示されているアバターオプション(例えば、アバターオプション640)のクローズアップ表示を提供する、縮小されたアバター選択インターフェース668を表示している。縮小されたアバター選択インターフェース668は、ユーザ選択に使用可能なアバターのスクロール可能なリスト675(アバターオプション640に対応する)を含む。デバイス600は、現在選択されているアバター(例えば、図6Lの女性アバター670)を、縮小されたアバター選択インターフェース668内の中心位置に表示する。現在選択されテイルアバターがカスタマイズ可能なアバター(例えば、女性アバター670)である場合、デバイス600は、オプションメニュー(図6Wに関して下で説明される)を表示するために選択できるオプションアフォーダンス674も表示する。縮小されたアバター選択インターフェース668では、下で更に詳細に説明されているように、アバターを中心位置に配置することによって、異なるアバターを選択することができる。 In FIG. 6L, device 600 displays a reduced avatar selection interface 668 that provides a close-up display of the avatar option (eg, avatar option 640) displayed in the expanded avatar selection interface 634. The reduced avatar selection interface 668 includes a scrollable list of avatars 675 available for user selection (corresponding to avatar option 640). The device 600 displays the currently selected avatar (eg, the female avatar 670 in FIG. 6L) at a central position within the reduced avatar selection interface 668. If the currently selected tail avatar is a customizable avatar (eg, female avatar 670), the device 600 also displays an option affordance 674 that can be selected to display an option menu (discussed below with respect to FIG. 6W). .. The reduced avatar selection interface 668 allows different avatars to be selected by centering the avatar, as described in more detail below.

図6Lで、縮小されたアバター選択インターフェース668は、メッセージングユーザインターフェース603内の、以前はテキスト候補領域614及びキーボード表示領域612によって占められていた位置に表示される。アプリケーションドック618は、縮小されたアバター選択インターフェース668の下部に任意選択的に表示され、境界672によって示された選択済みのアプリケーションアフォーダンス620aを表示している。縮小されたアバター選択インターフェース668をメッセージングユーザインターフェース603に表示することによって、デバイス600は、メッセージ会話の参加者に(例えば、ステッカー、アバターの画像、又はアバターの記録として)送信するためのアバターを選択するのに便利なアクセスを、ユーザに提供する。 In FIG. 6L, the reduced avatar selection interface 668 is displayed in the messaging user interface 603 at a position previously occupied by the text candidate area 614 and the keyboard display area 612. The application dock 618 is optionally displayed at the bottom of the reduced avatar selection interface 668, displaying the selected application affordance 620a indicated by the boundary 672. By displaying the reduced avatar selection interface 668 on the messaging user interface 603, the device 600 selects an avatar to send to the participants in the message conversation (eg, as a sticker, an image of the avatar, or a record of the avatar). Provide users with convenient access to do so.

デバイス600は、表示されたカスタマイズされたアバター及びカスタマイズされていないアバターを種類別にグループ化し、一方向のスクロールが一種類のアバター(例えば、カスタマイズされていないアバター)へのアクセスを提供し、反対方向のスクロールが異なる種類のアバター(例えば、カスタマイズされたアバター)へのアクセスを提供するように、それらのグループを連続して配置する。 The device 600 groups the displayed customized and non-customized avatars by type, and one-way scrolling provides access to one type of avatar (eg, non-customized avatar) in the opposite direction. Arrange those groups in succession so that scrolling provides access to different types of avatars (eg, customized avatars).

デバイス600は、カスタマイズ可能な女性アバター670を、縮小されたアバター選択領域668の中央の、カスタマイズ可能なアバターとカスタマイズ不可のアバターの間の境界領域に表示する(例えば、カスタマイズ可能なアバターが女性アバター670の片側に存在し、カスタマイズ不可のアバターが女性アバター670の反対側に存在する(図6AE~図6AGも参照))。したがって、アバター675の表示されたリストを一方向にスクロールすることによって、カスタマイズ不可のアバターを表示し、反対方向にスクロールすることによって、カスタマイズ可能なアバターを表示する。いくつかの実施形態では、アバター675のリストをスクロールして、カスタマイズ不可のアバターの反対側のカスタマイズ可能なアバターの端に配置されたアバター作成アフォーダンス669(機能においてアバター作成アイコン648に類似している)を表示することができ、アバター作成アフォーダンス669がカスタマイズ可能なアバターのグループの一方の端に配置され、カスタマイズ不可のアバターのグループが、カスタマイズ可能なアバターのグループの反対の端に配置されるようにする。そのような実施形態では、アバター作成アフォーダンス669を選択して、図6I~図6Kに関して前述した方法と同様の方法で、新しいカスタマイズ可能なアバターを作成することができる。 The device 600 displays the customizable female avatar 670 in the center of the reduced avatar selection area 668, in the boundary area between the customizable avatar and the non-customizable avatar (eg, the customizable avatar is a female avatar). An avatar that exists on one side of the 670 and cannot be customized is on the other side of the female avatar 670 (see also FIGS. 6AE-6AG). Therefore, scrolling the displayed list of avatars 675 in one direction will display non-customizable avatars, and scrolling in the opposite direction will display customizable avatars. In some embodiments, the list of avatars 675 is scrolled to the avatar creation affordance 669 (similar to the avatar creation icon 648 in function) placed on the edge of the customizable avatar on the opposite side of the non-customizable avatar. ) Can be displayed, the avatar creation affordance 669 will be placed on one end of the customizable group of avatars, and the non-customizable group of avatars will be placed on the other end of the customizable group of avatars. To. In such an embodiment, the avatar creation affordance 669 can be selected to create a new customizable avatar in the same manner as described above for FIGS. 6I-6K.

図6M~図6Rに示されているように、デバイス600は、顔において検出された変化に応じて、縮小されたアバター選択インターフェース668に表示されたアバター(例えば、カスタマイズ可能な女性アバター670)を変更する。参考のために、図6M~図6Rは、カメラ(例えば、602)の視野内で検出された顔673の表現を含んでいる。図6M~図6Rは、顔673において検出された変化に応じて、表示されたアバター(例えば、カスタマイズ可能なアバター670及びカスタマイズ不可のアバター671)に対する変更を示している。いくつかの実施形態では、図6M~図6Rでの顔673の表示は、顔673を向いて配置されたデバイスの視点から表示されている。したがって、表示されたアバターに対する対応する変化が、顔673の動きに関して反映されて、図6M~図6Rに示されている。 As shown in FIGS. 6M-6R, the device 600 displays an avatar displayed on the reduced avatar selection interface 668 (eg, a customizable female avatar 670) in response to changes detected in the face. change. For reference, FIGS. 6M-6R include representations of the face 673 detected within the field of view of the camera (eg, 602). 6M-6R show changes to the displayed avatars (eg, customizable avatars 670 and non-customizable avatars 671) in response to changes detected in face 673. In some embodiments, the display of face 673 in FIGS. 6M-6R is displayed from the perspective of a device placed facing the face 673. Therefore, the corresponding changes to the displayed avatar are reflected with respect to the movement of face 673 and are shown in FIGS. 6M-6R.

図6Mで、デバイス600は、唇673-1を下に曲げ、眉673-2にしわを寄せ、目673-3をわずかに細めて、不機嫌そうな表情を作っている傾いた顔673を検出する。それに応じて、デバイス600は、同じ顔面表情(例えば、不機嫌そうな表情を伴って傾いた頭部)を有するように、表示されたアバター(カスタマイズ可能なアバター670)を変更する。 In FIG. 6M, the device 600 detects a tilted face 673 with the lips 673-1 bent down, the eyebrows 673-2 wrinkled, and the eyes 673-3 slightly narrowed, creating a moody look. do. Accordingly, the device 600 modifies the displayed avatar (customizable avatar 670) to have the same facial expression (eg, a tilted head with a moody facial expression).

図6M~図6Oで、デバイス600は、アバター675のリストの右側から開始して、アバター675のリストの左側に向かって左に移動する、横方向のジェスチャ676(例えば、ディスプレイ601上のスワイプ又はタッチアンドドラッグ入力)を検出する。横方向のジェスチャ676を検出することに応じて、デバイス600は、横方向のジェスチャ676の大きさ(及び方向)に基づいて、左にスクロールするアバター675のリストを表示し、それによって、カスタマイズ可能な女性アバター670が左にスクロールされ、カスタマイズ不可のサルアバター671が縮小されたアバター選択インターフェース668の中央にスクロールされるようにする。 6M-6O, the device 600 starts from the right side of the list of avatars 675 and moves to the left towards the left side of the list of avatars 675, a lateral gesture 676 (eg, a swipe on display 601 or). Touch and drag input) is detected. In response to detecting the lateral gesture 676, the device 600 displays a list of avatars 675 that scrolls to the left based on the size (and orientation) of the lateral gesture 676, thereby being customizable. Female avatar 670 scrolls to the left and non-customizable monkey avatar 671 scrolls to the center of the reduced avatar selection interface 668.

女性アバター670が図6Mの中心位置から図6Oの左にずれた位置にスクロールされるときに、デバイス600は、図6Mでの3Dの顔追跡状態(アバター670が、顔673のポーズに一致するポーズを有する)から図6Oでの静的状態(アバター670が、顔673のポーズに基づいて決定されないデフォルトのポーズを有する)に移行する女性アバター670のアニメーションを表示する。デバイス600は、アニメーション化された移行を表示するときに、顔673に基づいて女性アバター670を変更するのを止める(ただし、顔673は、デバイス600によって引き続き任意選択的に追跡され得る)。例えば、顔673は、図6N及び図6Oではまだ不機嫌そうなポーズを有しているが、現在は頭部が傾いておらず、一方、女性アバター670は、図6N及び図6Oの両方で、顔673とは異なるポーズを有している。 When the female avatar 670 is scrolled to a position offset to the left of FIG. 6O from the center position of FIG. 6M, the device 600 is in a 3D face tracking state in FIG. 6M (Avatar 670 matches the pose of face 673). Shows an animation of the female avatar 670 transitioning from (having a pose) to the static state in FIG. 6O (avatar 670 has a default pose that is not determined based on the pose of face 673). The device 600 stops modifying the female avatar 670 based on the face 673 when displaying the animated transition (although the face 673 can still be optionally tracked by the device 600). For example, face 673 still has a moody pose in FIGS. 6N and 6O, but is not currently tilted, while female avatar 670 is in both FIGS. 6N and 6O. It has a different pose from the face 673.

図6Nは、図6Mの顔追跡状態から図6Oの静的状態に移行しているアバター670のアニメーションの中間状態を示している。図6Nで、デバイス600は、検出された顔673に基づいて女性アバター670を変更しておらず、代わりに、図6Mでの不機嫌なポーズから図6Oでの静的な笑っているポーズに移行している女性アバター670を表示している。具体的には、図6Nは、女性アバターの頭部が直立位置に移動されており、その口が不機嫌な顔と笑顔の間(例えば、検出された顔の口の位置と、静的なアバターの口の位置の間)の位置にあり、その眉にしわが寄っていないことを示している。 FIG. 6N shows the intermediate state of the animation of the avatar 670 transitioning from the face tracking state of FIG. 6M to the static state of FIG. 6O. In FIG. 6N, device 600 has not changed the female avatar 670 based on the detected face 673, instead transitioning from a moody pose in FIG. 6M to a static smiling pose in FIG. 6O. The female avatar 670 is displayed. Specifically, in FIG. 6N, the head of the female avatar has been moved to an upright position, and its mouth is between a moody face and a smile (for example, the position of the mouth of the detected face and the static avatar). It is located between the positions of the mouth and indicates that the eyebrows are not wrinkled.

また、図6Nは、サルアバター671が図6Mでの右にずれた位置から図6Oでの中心位置に向かって移動しているため、サルアバター671をわずかに中心からずれた位置に表示している。サルアバター671は、図6M~図6Oにおいて静的な笑顔のポーズを有している。 Further, in FIG. 6N, since the monkey avatar 671 is moving from the position shifted to the right in FIG. 6M toward the center position in FIG. 6O, the monkey avatar 671 is displayed at a position slightly shifted from the center. There is. The monkey avatar 671 has a static smiling pose in FIGS. 6M-6O.

図6Oでは、女性アバター670は、静的な笑顔のポーズを伴って左の位置に完全に移動されており、サルアバター671は中心位置にある。デバイス600は、検出された顔673に基づいてサルアバター671をまだ変更していない。いくつかの実施形態では、デバイス600は、触覚フィードバック(例えば、触知出力)を生成し、任意選択的に、スクロールされているアバター675が縮小されたアバター選択インターフェース668の中央に位置することを示すオーディオ出力を生成する。この触覚フィードバックは、横方向のジェスチャ676を解除することによってデバイス600がそのアバターを選択するというように、アバターが配置されたということを、ユーザに知らせる。 In FIG. 6O, the female avatar 670 has been completely moved to the left position with a static smile pose, and the monkey avatar 671 is in the central position. Device 600 has not yet modified the monkey avatar 671 based on the detected face 673. In some embodiments, the device 600 generates tactile feedback (eg, tactile output) and optionally causes the scrolled avatar 675 to be centered on the reduced avatar selection interface 668. Produce the audio output shown. This tactile feedback informs the user that the avatar has been placed, such that the device 600 selects the avatar by disengaging the lateral gesture 676.

サルが図6Oのスクリーンの中央に現れた後に、デバイス600は、入力676の終了を検出し、図6Pの検出された顔673に基づいて、中央に配置されたアバター(例えば、サルアバター671)の変更を再開する。したがって、図6Pで、サルアバター671は、顔673の不機嫌そうなポーズをとる(例えば、デバイス600は、静的なポーズから顔673のポーズに移行するように、サルアバター671を変更する)。 After the monkey appears in the center of the screen of FIG. 6O, the device 600 detects the end of input 676 and is a centered avatar (eg, monkey avatar 671) based on the detected face 673 of FIG. 6P. Resume changes to. Therefore, in FIG. 6P, the monkey avatar 671 takes a moody pose of the face 673 (eg, the device 600 modifies the monkey avatar 671 to transition from a static pose to a face 673 pose).

いくつかの実施形態では、ユーザがアバター675のリストをスクロールするときに、各アバターが縮小されたアバター選択インターフェース668の中心位置で停止すると、デバイス600は、顔673のポーズ(例えば、位置及び顔面表情)をとるように、そのアバターを変更する。これにより、ユーザは特定の顔面表情を保持することができ、デバイス600は、その顔面表情に一致するように中央のアバターを変更する。ユーザが顔面表情を保持して、別のアバターにスワイプするときに、デバイス600は、ユーザの顔の保持された顔面表情から静的なデフォルトのポーズに移行している現在選択されているアバターのアニメーションを表示し、一方、次のアバターが中心位置にスクロールされる。その後、デバイス600は、静的なポーズからユーザの保持された顔面表情に移行している次のアバターを表示する。いくつかの実施形態では、デバイス600は、アバターが中心位置で止まるまで、(検出された顔に応じて、又は追跡された顔から静的なポーズへのアニメーション化された移行として)縮小されたアバター選択インターフェース668の中央に配置されたアバターの変更を開始しない。したがって、ユーザがアバター675のリストを素早くスクロールする(例えば、アバターで止まらずに、アバターをスクロールする)ときに、デバイス600は、それらのスクロール中に、検出された顔に基づいてアバターをアニメーション化することも、変更することもない。 In some embodiments, when the user scrolls through the list of avatars 675 and each avatar stops at the center position of the reduced avatar selection interface 668, the device 600 poses face 673 (eg, position and face). Change the avatar to take a facial expression). This allows the user to retain a particular facial expression, and the device 600 modifies the central avatar to match that facial expression. When the user holds the facial expression and swipes to another avatar, the device 600 is transitioning from the retained facial expression of the user's face to the static default pose of the currently selected avatar. Shows the animation, while the next avatar scrolls to the center position. The device 600 then displays the next avatar transitioning from a static pose to the user's retained facial expression. In some embodiments, the device 600 has been scaled down (according to the detected face or as an animated transition from the tracked face to a static pose) until the avatar stops at the center position. Do not start changing the avatar placed in the center of the avatar selection interface 668. Thus, when the user quickly scrolls through the list of avatars 675 (eg, scrolling the avatars without stopping at the avatars), the device 600 animates the avatars based on the faces detected during those scrollings. It doesn't do or change.

図6Pで選択されたサルアバター671はカスタマイズ不可のアバターであるため、デバイス600は、オプションアフォーダンス674を表示しない。カスタマイズ可能なアバター及びカスタマイズ不可のアバターは、前述したようにグループ化されているため、左方向にスクロールし続けると、デバイス600はその他のカスタマイズ不可のアバター(例えば、ロボットアバター678など)を表示するが、カスタマイズ可能なアバターを表示しない。カスタマイズ可能なアバターは、図6Q及び図6Rに関して下で説明されているように、右方向にスクロールすることによって表示され得る。 Since the monkey avatar 671 selected in FIG. 6P is a non-customizable avatar, the device 600 does not display the option affordance 674. Customizable and non-customizable avatars are grouped as described above, so if you continue scrolling to the left, the device 600 will display other non-customizable avatars (eg, robot avatar 678). But don't show customizable avatars. Customizable avatars can be displayed by scrolling to the right, as described below for FIGS. 6Q and 6R.

図6Q及び図6Rで、デバイス600は、アバター675のリストの右側に向かって右に移動する、横方向のジェスチャ680(例えば、ディスプレイ601上のスワイプ又はタッチアンドドラッグ入力)を検出する。横方向のジェスチャ680を検出することに応じて、デバイス600は、横方向のジェスチャ680の大きさ(及び方向)に基づいて、右にスクロールするアバター675のリストを表示し、それによって、カスタマイズ不可のロボットアバター678がスクロールされてディスプレイ601から消え、サルアバター671が右にずれた位置にスクロールされ、カスタマイズ可能な女性アバター670がディスプレイの中央にスクロールされるようにする。カスタマイズ可能なアバター及びカスタマイズ不可のアバターは、前述したようにグループ化されているため、右方向にスクロールし続けると、デバイス600はその他のカスタマイズ可能なアバター(又は、任意選択的にアバター作成アフォーダンス669)を表示するが、カスタマイズ不可のアバターを表示しない。カスタマイズ不可のアバターは、前述したように、左方向にスクロールすることによって表示され得る。 In FIGS. 6Q and 6R, device 600 detects a lateral gesture 680 (eg, swipe or touch and drag input on display 601) that moves to the right towards the right side of the list of avatars 675. In response to detecting the lateral gesture 680, the device 600 displays a list of avatars 675 that scrolls to the right based on the size (and orientation) of the lateral gesture 680, thereby being non-customizable. The robot avatar 678 is scrolled and disappears from the display 601, the monkey avatar 671 is scrolled to the right offset position, and the customizable female avatar 670 is scrolled to the center of the display. Customizable and non-customizable avatars are grouped as described above, so if you continue scrolling to the right, the device 600 will open other customizable avatars (or optionally avatar creation affordances 669). ), But do not display non-customizable avatars. Non-customizable avatars can be displayed by scrolling to the left, as described above.

図6Q及び図6Rは、図6M~図6Pに関して前述したのと同様に、アニメーション化された移行を伴ってアバターをスクロールするが、逆方向には移動しないということも示している。図6Q及び図6Rで、アバターが右に移動するときに、デバイス600は、図6Pでの顔追跡状態から図6Rに示された静的状態へのサルアバター671の移行を、図6Qに示された過渡的な外観を伴ってアニメーション化する。例えば、図6Pで、デバイス600は、顔673に基づいてサルアバター671を変更している(例えば、サルアバター671は、顔673のポーズに一致するポーズを有する)。図6Q及び図6Rに示されているように、デバイス600は、顔673に基づいてサルアバター671を変更することを止め(例えば、顔673は不機嫌そうな表情を維持するが、サルアバター671は異なるポーズを有する)、図6Pのポーズから図6Rの静的な外観へ移行する、サルアバター671のアニメーション化された移行を表示する。図6Qは、アニメーション化された移行の中間状態を示しており、サルアバター671が不機嫌な顔と笑顔の間の位置にある口を有し、その眉がしわを寄せていない位置にある。女性アバター670は、わずかに右にずれており、静的なデフォルトの笑顔のポーズを維持しながら、中心位置に向かって移動している。 6Q and 6R also show that the avatar scrolls with an animated transition, but does not move in the opposite direction, as previously described for FIGS. 6M-6P. 6Q and 6R show the transition of the monkey avatar 671 from the face tracking state in FIG. 6P to the static state shown in FIG. 6R as the avatar moves to the right in FIG. 6Q. Animate with a transitional look. For example, in FIG. 6P, device 600 modifies the monkey avatar 671 based on the face 673 (eg, the monkey avatar 671 has a pose that matches the pose of the face 673). As shown in FIGS. 6Q and 6R, the device 600 stops modifying the monkey avatar 671 based on the face 673 (eg, the face 673 maintains a moody look, but the monkey avatar 671 Shows an animated transition of the monkey avatar 671 that transitions from the pose of FIG. 6P to the static appearance of FIG. 6R) (having different poses). FIG. 6Q shows an intermediate state of the animated transition, in which the monkey avatar 671 has a mouth located between a moody face and a smile, and its eyebrows are in a non-wrinkled position. The female avatar 670 is slightly offset to the right, moving towards the center position while maintaining the static default smiling pose.

図6Rで、女性アバター670は、静的な笑顔のポーズを伴って、縮小されたアバター選択インターフェース668の中央に配置されている。サルアバター671は、静的なポーズを伴って右にずれた位置にある(サルアバター671の静的なポーズも、女性アバター670の静的なポーズと同様に笑顔のポーズであるが、これらの静的なポーズはアバターごとに異なることが可能である)。顔673は、中立的なポーズに移行している(例えば、眉にしわが寄っていない微笑)。図6Rで、デバイス600は、検出された顔673に基づいて女性アバター670を変更していない。 In FIG. 6R, the female avatar 670 is centrally located in the reduced avatar selection interface 668, with a static smile pose. The monkey avatar 671 is displaced to the right with a static pose (the static pose of the monkey avatar 671 is also a smiling pose similar to the static pose of the female avatar 670, but these poses. Static poses can be different for each avatar). Face 673 has transitioned to a neutral pose (eg, a smile with no wrinkles on the eyebrows). In FIG. 6R, device 600 does not modify the female avatar 670 based on the detected face 673.

図6Sで、デバイス600は、縮小されたアバター選択インターフェース668の中央に配置されることによって選択された、カスタマイズ可能な女性アバター670を表示している。この場合も、女性アバター670がカスタマイズ可能なアバターであるため、デバイス600はオプションアフォーダンス674を表示する。デバイス600は、アバターのライブラリにアクセスするために選択できる編集アフォーダンス682も表示する。いくつかの実施形態では、デバイス600は、表示されたアバターがカスタマイズ可能であるか、又はカスタマイズ不可であるかに関わらず、編集アフォーダンス682を表示する。 In FIG. 6S, device 600 displays a customizable female avatar 670 selected by being centered on the reduced avatar selection interface 668. Again, since the female avatar 670 is a customizable avatar, the device 600 displays the option affordance 674. The device 600 also displays an edit affordance 682 that can be selected to access the library of avatars. In some embodiments, the device 600 displays an edit affordance 682 regardless of whether the displayed avatar is customizable or non-customizable.

図6Tで、デバイス600は、編集アフォーダンス682上の入力684(例えば、デバイス601上のタップジェスチャ)を検出する。入力684を検出することに応じて、デバイス600は、図6Uに示されているライブラリインターフェース686を表示する。 In FIG. 6T, the device 600 detects an input 684 on the edit affordance 682 (eg, a tap gesture on the device 601). In response to detecting input 684, device 600 displays the library interface 686 shown in FIG. 6U.

図6Uで、デバイス600は、編集アフォーダンス(例えば、編集アフォーダンス682)上のユーザ入力を検出することに応じて、ライブラリインターフェース686を表示する。図6Uに示された実施形態では、デバイス600は、女性アバターオプション670a及び新しいカスタマイズされた男性アバターオプション688aを有するライブラリインターフェース686を表示している。女性アバターオプション670aは女性アバター670に対応し、男性アバターオプション688aは男性アバター688(図6AEに示されている)に対応する。図6Uに示された実施形態では、カスタマイズされた男性アバターオプション688aは、図6I~図6Kに関して前述したステップに従って作成されたカスタマイズ可能な男性アバター(例えば、688)に対応する、カスタマイズ可能なアバターオプションである。簡潔にするために、これらのステップはここでは繰り返さない。デバイス600は、一緒にグループ化されて、カスタマイズ不可のアバターオプションとは区別された、男性アバターオプション668a及び女性アバターオプション670a(カスタマイズ可能なアバターオプション)を表示する。 In FIG. 6U, the device 600 displays the library interface 686 in response to detecting a user input on an edit affordance (eg, an edit affordance 682). In the embodiment shown in FIG. 6U, device 600 displays a library interface 686 with a female avatar option 670a and a new customized male avatar option 688a. The female avatar option 670a corresponds to the female avatar 670 and the male avatar option 688a corresponds to the male avatar 688 (shown in FIG. 6AE). In the embodiment shown in FIG. 6U, the customized male avatar option 688a corresponds to a customizable male avatar (eg, 688) created according to the steps described above with respect to FIGS. 6I-6K. It is an option. For the sake of brevity, these steps are not repeated here. The device 600 displays male avatar option 668a and female avatar option 670a (customizable avatar option), grouped together and distinguished from non-customizable avatar options.

図6Vで、デバイス600は、女性アバターオプション670aを選択する入力690(例えば、ディスプレイ601上のタッチ入力)を検出する。 In FIG. 6V, the device 600 detects an input 690 (eg, a touch input on the display 601) that selects the female avatar option 670a.

図6Wで、デバイス600は、女性アバターオプション670aを選択するための入力690を検出することに応じて、オプションメニュー692を表示する。デバイス600は、ライブラリインターフェース686から選択されたアバターオプション(例えば、女性アバターオプション670a)に対応するアバター(例えば、女性アバター670)、並びに編集オプション692a、複製オプション692b、及び削除オプション692cを有するオプションメニュー692を表示する。編集オプション、複製オプション、及び削除オプションはそれぞれ、ライブラリインターフェース686で選択されたアバターオプション(及び対応するアバター)を編集、複製、又は削除する各処理を開始するために、選択可能である。いくつかの実施形態では、デバイス600は、本明細書において説明された顔追跡機能に従って、オプションメニュー692に表示されたアバターを変更する。 In FIG. 6W, the device 600 displays an option menu 692 in response to detecting an input 690 for selecting the female avatar option 670a. The device 600 has an avatar (eg, female avatar 670) corresponding to the avatar option selected from the library interface 686 (eg, female avatar option 670a), as well as an option menu with edit option 692a, replication option 692b, and delete option 692c. Display 692. The edit option, duplicate option, and delete option are each selectable to initiate the process of editing, duplicating, or deleting the avatar option (and corresponding avatar) selected in library interface 686. In some embodiments, the device 600 modifies the avatar displayed in option menu 692 according to the face tracking features described herein.

図6Xで、デバイス600は、編集オプション692a上の入力693a(例えば、ディスプレイ601上のタッチ入力)を検出する。デバイス600は、入力693aを検出することに応じて、アバター編集ユーザインターフェース694(図6Zに示されている)を表示し、アバター編集ユーザインターフェース694はアバター編集ユーザインターフェース652に類似している(ただし、デフォルトの新しいアバターの代わりに、選択されたアバター670又は選択されたアバター670の複製を表示する)。 In FIG. 6X, device 600 detects input 693a on edit option 692a (eg, touch input on display 601). The device 600 displays the avatar editing user interface 694 (shown in FIG. 6Z) in response to detecting the input 693a, the avatar editing user interface 694 being similar to the avatar editing user interface 652 (provided that it is). , Display a duplicate of the selected avatar 670 or the selected avatar 670 instead of the default new avatar).

図6Yで、デバイス600は、複製オプション692b上の入力693b(例えば、ディスプレイ601上のタッチ入力)を検出する。デバイス600は、入力693bを検出することに応じて、ライブラリインターフェース686で選択されたアバターオプションの複製バージョン(例えば、女性アバター670aの複製)及び対応するアバター(例えば、女性アバター670)の複製バージョンを作成する。デバイス600は、複製されたアバターを有するアバター編集ユーザインターフェース694(図6Zに示されている)を表示する。 In FIG. 6Y, device 600 detects input 693b (eg, touch input on display 601) on replication option 692b. The device 600 receives a duplicate version of the avatar option selected in library interface 686 (eg, a duplicate of the female avatar 670a) and a duplicate version of the corresponding avatar (eg, the female avatar 670) in response to detecting input 693b. create. Device 600 displays an avatar editing user interface 694 (shown in FIG. 6Z) with duplicated avatars.

図6Zで、デバイス600は、入力693a又は693bを検出することに応じて、アバター編集ユーザインターフェース694を表示する。デバイス600が編集オプション692aで入力693aを検出した場合、デバイス600は、ライブラリインターフェース686で選択されたアバターオプションに対応するアバター(例えば、アバター670)を表示するアバター編集ユーザインターフェース694を表示する。しかし、デバイス600が複製オプション692bで入力693bを検出した場合、デバイス600は、選択されたアバターの複製(例えば、女性アバター670の複製)を作成し、その複製アバターをアバター編集ユーザインターフェース694に表示する。図6Zに示された実施形態では、デバイス600は複製アバター695を表示している。いくつかの実施形態では、デバイスは、入力693aを検出することに応じて、アバター編集ユーザインターフェースを表示するのではなく、複製アバターオプションを含むライブラリインターフェース686を表示する。 In FIG. 6Z, device 600 displays the avatar editing user interface 694 in response to detecting input 693a or 693b. If the device 600 detects the input 693a with the edit option 692a, the device 600 displays an avatar edit user interface 694 that displays the avatar (eg, avatar 670) corresponding to the avatar option selected in the library interface 686. However, if the device 600 detects the input 693b with the duplication option 692b, the device 600 creates a duplication of the selected avatar (eg, a duplication of the female avatar 670) and displays the duplication avatar in the avatar editing user interface 694. do. In the embodiment shown in FIG. 6Z, the device 600 displays the duplicate avatar 695. In some embodiments, the device displays a library interface 686 that includes a duplicate avatar option instead of displaying an avatar editing user interface in response to detecting input 693a.

アバター編集ユーザインターフェース694は、図8A~図8CFを参照して下で説明されているアバター編集ユーザインターフェースに類似している。簡潔にするために、アバター編集ユーザインターフェース694を使用したアバターの編集の詳細は繰り返されない。 The avatar editing user interface 694 is similar to the avatar editing user interface described below with reference to FIGS. 8A-8CF. For brevity, the details of editing an avatar using the avatar editing user interface 694 are not repeated.

図6AAで、デバイス600は、複製アバター695に対応する複製アバターオプション695a(アバター編集ユーザインターフェース694を使用して異なるアバター特徴部を選択することに基づいて、変更されて表示される)を有するライブラリインターフェース686を表示している。変更された複製アバター695を保存した(例えば、アバター編集ユーザインターフェース694で「完了」の選択を検出した)後に、デバイス600は、複製アバターオプション695aを、複製の作成元になった選択されたアバターオプションの隣の位置(例えば、アバターオプション670aの隣)に表示する。 In FIG. 6AA, device 600 has a library with duplicate avatar option 695a corresponding to duplicate avatar 695, modified and displayed based on selecting different avatar features using the avatar editing user interface 694. Interface 686 is displayed. After saving the modified duplicate avatar 695 (eg, detecting the "Done" selection in the avatar editing user interface 694), the device 600 sets the duplicate avatar option 695a to the selected avatar from which the duplicate was created. Display at the position next to the option (for example, next to the avatar option 670a).

図6ABは、アバターオプション670aが図6Vで選択された後の、オプションメニュー692を示している。デバイスは、削除オプション692cで入力693cを検出することに応じて、選択されたアバターオプション670aをライブラリインターフェース686から削除する。そのような場合、デバイス600は、例えば図6ACに示されているように、アバターオプション670aをライブラリインターフェースから除去する。しかし、デバイス600が入力693a~入力693cをいずれも検出せず、代わりにキャンセルアフォーダンス696の選択を検出した場合、オプションメニュー692が閉じられ、デバイス600は、図6ADに示されているように、男性アバターオプション688a及び女性アバターオプション670aを有するライブラリインターフェース686を表示する(図6Uに示されたライブラリインターフェース686の状態に類似している)。 FIG. 6AB shows the option menu 692 after the avatar option 670a is selected in FIG. 6V. The device deletes the selected avatar option 670a from the library interface 686 in response to detecting input 693c with delete option 692c. In such a case, the device 600 removes the avatar option 670a from the library interface, for example as shown in FIG. 6AC. However, if the device 600 does not detect any of inputs 693a to 693c and instead detects the selection of cancel affordance 696, the option menu 692 is closed and the device 600 is as shown in FIG. 6AD. Display library interface 686 with male avatar option 688a and female avatar option 670a (similar to the state of library interface 686 shown in FIG. 6U).

図6ADで、デバイス600は、完了アフォーダンス698上の入力697(例えば、ディスプレイ601上のタッチジェスチャ)を検出し、それに応じてライブラリインターフェース686を終了し、図6AEに示されているように、縮小されたアバター選択インターフェース668を表示する。縮小されたアバター選択インターフェース668は、男性アバター688、女性アバター670、及びカスタマイズ不可のアバター645を含んでいる。 In FIG. 6AD, the device 600 detects an input 697 on the completed affordance 698 (eg, a touch gesture on the display 601), exits the library interface 686 accordingly, and shrinks as shown in FIG. 6AE. The avatar selection interface 668 that has been created is displayed. The reduced avatar selection interface 668 includes a male avatar 688, a female avatar 670, and a non-customizable avatar 645.

図6AEでは、3つの別個のジェスチャが、縮小されたアバター選択インターフェース668上で表されている。下で説明されているように、デバイス600が特定の方向(例えば、左又は右)でジェスチャを検出した場合、デバイス600は、表示されたアバター(例えば、カスタマイズ可能な女性アバター670)を、ジェスチャの方向によって決定された特定の種類のアバターに置き換える。例えば、ジェスチャが左方向である場合、表示されたアバターは、第1の種類のアバター(例えば、カスタマイズ不可のアバター又は人間以外のキャラクターを表すようにモデル化されたアバター)に置き換えられる。反対に、ジェスチャが右方向である場合、表示されたアバターは、第2の種類のアバター(例えば、カスタマイズ可能なアバター又は人間を表すようにモデル化されたアバター)に置き換えられる。 In FIG. 6AE, three separate gestures are represented on the reduced avatar selection interface 668. As described below, if the device 600 detects a gesture in a particular direction (eg, left or right), the device 600 will gesture the displayed avatar (eg, a customizable female avatar 670). Replace with a specific type of avatar determined by the orientation of. For example, if the gesture is to the left, the displayed avatar is replaced with a first type of avatar (eg, a non-customizable avatar or an avatar modeled to represent a non-human character). Conversely, if the gesture is to the right, the displayed avatar is replaced with a second type of avatar (eg, a customizable avatar or an avatar modeled to represent a human).

例えば、図6AEで、デバイス600が左横方向のジェスチャ699a(例えば、ディスプレイ601上の左方向のスワイプ又はタッチアンドドラッグジェスチャ)を検出した場合、デバイス600は図6AFに示された実施形態を表示し、図6AFは、左に(縮小されたアバター選択インターフェース668の中央から離れた、例えば女性アバター670が選択されていないことを示す位置に)移動されたカスタマイズ可能な女性アバター670、及び縮小されたアバター選択インターフェース668の中央(例えば、サルアバター645が選択されていることを示す位置)に配置されたカスタマイズ不可のサルアバター645を示している。したがって、デバイス600は、左横方向のジェスチャ699aを検出することに応じて、カスタマイズ不可のアバターの選択を表示する。いくつかの実施形態では、左横方向のジェスチャ699aは、デバイス600に、縮小されたアバター選択インターフェース668をスクロールさせ、それによって、カスタマイズ可能な女性アバター670が完全にスクリーンの外に移動され、(例えば、図6Oに示されている実施形態と同様に)1つ以上のカスタマイズ不可のアバターのみが表示されるようにする。 For example, in FIG. 6AE, if the device 600 detects a left lateral gesture 699a (eg, a left swipe or touch and drag gesture on the display 601), the device 600 displays the embodiment shown in FIG. 6AF. And FIG. 6AF is a customizable female avatar 670 moved to the left (away from the center of the reduced avatar selection interface 668, eg, a position indicating that the female avatar 670 is not selected), and reduced. It shows a non-customizable sal avatar 645 located in the center of the avatar selection interface 668 (eg, a position indicating that the sal avatar 645 is selected). Therefore, the device 600 displays a selection of non-customizable avatars in response to detecting the left lateral gesture 699a. In some embodiments, the left lateral gesture 699a causes the device 600 to scroll the reduced avatar selection interface 668, whereby the customizable female avatar 670 is moved completely off the screen. Only one or more non-customizable avatars (as in the embodiment shown in FIG. 6O) are displayed.

デバイス600が右横方向のジェスチャ699b(例えば、ディスプレイ601上の右方向のスワイプ又はタッチアンドドラッグジェスチャ)を検出した場合、デバイス600は図6AGに示された実施形態を表示し、図6AGは、右に(縮小されたアバター選択インターフェース668の中央から離れた(例えば女性アバター670が選択されていないことを示す位置))に移動されたカスタマイズ可能な女性アバター670、及び縮小されたアバター選択インターフェース668の中央(例えば、男性アバター688が選択されていることを示す位置)に配置されたカスタマイズ可能な男性アバター688を示しており、任意選択的に、アバター作成アフォーダンス669を示している。したがって、デバイス600は、右横方向のジェスチャ699bを検出することに応じて、カスタマイズ不可のアバターを表示せずに、カスタマイズ可能なアバターの選択を表示する。 If the device 600 detects a right lateral gesture 699b (eg, a right swipe or touch and drag gesture on the display 601), the device 600 displays the embodiment shown in FIG. 6AG, which is shown in FIG. A customizable female avatar 670 moved to the right (away from the center of the reduced avatar selection interface 668 (eg, a position indicating that the female avatar 670 is not selected)), and a reduced avatar selection interface 668. A customizable male avatar 688 placed in the center (eg, a position indicating that the male avatar 688 is selected) is shown, optionally showing an avatar creation affordance 669. Therefore, the device 600 displays a selection of customizable avatars instead of displaying non-customizable avatars in response to detecting the right lateral gesture 699b.

いくつかの実施形態では、デバイス600は、最初に選択されている(縮小されたアバター選択インターフェース668の中心位置にある)アバターがカスタマイズ不可のアバターであるシナリオを表示し、横方向のジェスチャを検出することに応じて、カスタマイズ不可のアバターが完全にスクリーンの外に移動されるようにスクロールする縮小されたアバター選択インターフェース668を表示することができ、それによって、1つ以上のカスタマイズ可能なアバターのみを縮小されたアバター選択インターフェース668に表示する。 In some embodiments, the device 600 displays a scenario in which the initially selected avatar (at the center of the reduced avatar selection interface 668) is a non-customizable avatar and detects lateral gestures. Depending on what you do, you can display a reduced avatar selection interface 668 that scrolls so that non-customizable avatars are completely moved off the screen, thereby only one or more customizable avatars. Is displayed on the reduced avatar selection interface 668.

デバイス600が上向きの縦方向のジェスチャ699c(例えば、ディスプレイ601上の縦方向のスワイプ又は縦方向のタッチアンドドラッグジェスチャ)を検出した場合、デバイス600は、縮小されたアバター選択インターフェース668を展開して、図6AHの展開されたアバター選択インターフェース634を表示する。 If the device 600 detects an upward vertical gesture 699c (eg, a vertical swipe or vertical touch and drag gesture on the display 601), the device 600 expands the reduced avatar selection interface 668. 6AH displays the expanded avatar selection interface 634.

図6AHで、デバイス600は、カスタム男性アバターオプション688a及びカスタム女性アバターオプション670aをアバターオプション領域638内に有する展開されたアバター選択インターフェース634を表示している。女性アバターオプション670aが選択されており、女性アバターオプション670がアバター表示領域636に表示されている。デバイス600は、オプションアフォーダンス674もアバター表示領域638に表示している。デバイス600は、アバター670を(例えば、ユーザの顔において検出された変化に基づいて変更されている間に)記録するために選択できるキャプチャアフォーダンス644も表示している。 In FIG. 6AH, device 600 displays an expanded avatar selection interface 634 having a custom male avatar option 688a and a custom female avatar option 670a within the avatar option area 638. The female avatar option 670a is selected and the female avatar option 670 is displayed in the avatar display area 636. The device 600 also displays the option affordance 674 in the avatar display area 638. The device 600 also displays a capture affordance 644 that can be selected to record the avatar 670 (eg, while being modified based on the changes detected in the user's face).

図6AI~図6AJで、デバイス600は、アバターオプション領域638上のスクロールジェスチャ6100(例えば、ディスプレイ601上の縦方向のスワイプ又はタッチアンドドラッグジェスチャ)を検出する。デバイス600は、スクロールジェスチャ6100を検出することに応じて、アバターオプション領域638に表示されているアバターオプションの表示をスクロールする。 6AI-6AJ, the device 600 detects a scroll gesture 6100 on the avatar option area 638 (eg, a vertical swipe or touch and drag gesture on the display 601). The device 600 scrolls the display of the avatar option displayed in the avatar option area 638 in response to detecting the scroll gesture 6100.

図6AKで、デバイス600は、オプションアフォーダンス674上の入力6102(例えば、ディスプレイ601上のタップジェスチャ)を検出する。図6ALで、デバイス600は、入力6102を検出することに応じて、表示されたアバターオプション領域638を、前述の編集オプション、複製オプション、及び削除オプション(例えば、692a、962b、962c)にそれぞれ類似する編集オプション、複製オプション、及び削除オプションを含んでいるオプションメニュー領域6104に置き換える。デバイス600は、キャンセルアフォーダンス6106も表示している。デバイス600は、キャンセルアフォーダンス6106上の入力6108(例えば、ディスプレイ601上のタップジェスチャ)を検出することに応じて、オプションメニュー領域6104を除去し、図6AMに示されているように、アバターオプション領域638を再び表示する。 In FIG. 6AK, device 600 detects input 6102 on option affordance 674 (eg, tap gesture on display 601). In FIG. 6AL, the device 600, in response to detecting input 6102, resembles the displayed avatar option area 638 to the aforementioned edit, duplicate, and delete options (eg, 692a, 962b, 962c), respectively. Replace with an option menu area 6104 that contains edit options, duplicate options, and delete options. The device 600 also displays a cancel affordance 6106. The device 600 removes the option menu area 6104 in response to detecting an input 6108 (eg, a tap gesture on the display 601) on the cancel affordance 6106, and as shown in FIG. 6AM, the avatar option area. Display 638 again.

いくつかの実施形態では、デバイス600は、異なるアバターオプションの選択に応じて、アバター表示領域636に表示されているアバターを変更する。例えば、図6AMで、デバイス600は、うんちアバターオプション6112a上の入力6110(例えば、ディスプレイ601上のタップジェスチャ)を検出する。それに応じて、デバイス600は、アバター670を除去し、図6ANに示されているように、うんちアバター6112を表示する。加えて、デバイス600は、選択されたアバターオプション(例えば、6112a)がカスタマイズ不可のアバター(例えば、うんちアバター6112)に対応しているため、編集アフォーダンス674を除去している。 In some embodiments, the device 600 modifies the avatar displayed in the avatar display area 636, depending on the selection of different avatar options. For example, in FIG. 6AM, the device 600 detects an input 6110 (eg, a tap gesture on the display 601) on the poop avatar option 6112a. Accordingly, the device 600 removes the avatar 670 and displays the poop avatar 6112 as shown in FIG. 6AN. In addition, the device 600 removes the edit affordance 674 because the selected avatar option (eg, 6112a) corresponds to a non-customizable avatar (eg, poop avatar 6112).

図7は、いくつかの実施形態に従って、電子デバイス(例えば、600)を使用してアプリケーション内のアバター間をナビゲートする方法を示すフロー図である。方法700は、表示装置及び1つ以上の入力デバイスを備えているデバイス(例えば、100、300、500、600)で実行される。方法700のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 FIG. 7 is a flow diagram illustrating a method of navigating between avatars within an application using an electronic device (eg, 600) according to some embodiments. Method 700 is performed on a device (eg, 100, 300, 500, 600) comprising a display device and one or more input devices. Some actions of the method 700 are arbitrarily combined, some actions are arbitrarily changed in order, and some actions are optionally omitted.

下で説明されているように、方法700は、アプリケーション内のアバター間をナビゲートする直感的な方法を提供する。この方法は、アバターを管理する際のユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがアプリケーション内のアバター間をより高速かつより効率的にナビゲートすることを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。 As described below, Method 700 provides an intuitive way to navigate between avatars within the application. This method reduces the cognitive burden on the user when managing avatars, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and increases battery charge intervals by allowing users to navigate faster and more efficiently between avatars in their applications.

電子デバイスは、表示装置を介してアバターナビゲーションユーザインターフェース(例えば、668)を表示する(702)。アバターナビゲーションユーザインターフェースは、アバター(例えば、670)を含む。 The electronic device displays the avatar navigation user interface (eg, 668) via the display device (702). The avatar navigation user interface includes an avatar (eg, 670).

アバターナビゲーションユーザインターフェース(例えば、668)が表示されている間に、電子デバイスは、1つ以上の入力デバイス(例えば、タッチスクリーンディスプレイ上のアバターナビゲーションユーザインターフェースに対応する位置でのスワイプジェスチャ)を介して、アバターナビゲーションユーザインターフェース(例えば、668)に向けられたジェスチャ(例えば、699a、699b)を検出する(704)。 While the avatar navigation user interface (eg, 668) is displayed, the electronic device is via one or more input devices (eg, a swipe gesture at a position corresponding to the avatar navigation user interface on the touch screen display). It detects gestures (eg, 699a, 699b) directed at the avatar navigation user interface (eg, 668) (704).

電子デバイスは、ジェスチャ(例えば、699a、699b)を検出することに応じて(706)、ジェスチャが第1の方向(例えば、右向きの横方向のスワイプジェスチャ)であるという判定に従って(708)、第1の種類のアバター(例えば、人間以外のキャラクターではなく、人間を表すようにモデル化されたアバター670、688、あるいは構成可能であるか、又はアバターのプロトタイプ若しくはテンプレートから作成できるアバター)をアバターナビゲーションユーザインターフェース(例えば、668)に表示する(710)。第1の種類のアバターを表示することによって、入力が受信されたこと、及びデバイスが現在、第1の種類のアバターを選択できる状態にあるということを確認する視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device responds to the detection of the gesture (eg, 699a, 699b) (706) and according to the determination that the gesture is in the first direction (eg, a lateral swipe gesture pointing to the right) (708). Avatar navigation for one type of avatar (eg, avatars 670, 688 modeled to represent humans rather than non-human characters, or avatars that are configurable or can be created from avatar prototypes or templates). Displayed on the user interface (eg, 668) (710). By displaying the first type of avatar, the user is provided with visual feedback confirming that the input has been received and that the device is currently ready to select the first type of avatar. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

電子デバイスは、ジェスチャ(例えば、699a)を検出することに応じて(706)、ジェスチャ(例えば、699a)が第1の方向と反対の第2の方向(例えば、左向きの横方向のスワイプジェスチャ)であるという判定に従って(714)、第1の種類(例えば、670、688)と異なる第2の種類(例えば、645)のアバター(例えば、人間以外のキャラクターを表すようにモデル化されたアバター、又は選択可能であるが構成可能ではないアバター)をアバターナビゲーションユーザインターフェースに表示する(716)。第2の種類のアバターを表示することによって、入力が受信されたこと、及びデバイスが現在、第2の種類のアバターを選択できる状態にあるということを確認する視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Depending on the electronic device detecting the gesture (eg, 699a) (706), the gesture (eg, 699a) is in a second direction opposite to the first direction (eg, a lateral swipe gesture to the left). According to the determination (714), a second type (eg, 645) avatar (eg, an avatar modeled to represent a non-human character) that differs from the first type (eg, 670, 688). Or an avatar that is selectable but not configurable) is displayed in the avatar navigation user interface (716). By displaying the second type of avatar, it provides the user with visual feedback confirming that the input has been received and that the device is currently ready to select the second type of avatar. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイスは、ジェスチャが第1の方向であるという判定に更に従い(708)、第2の種類(例えば、645)のアバターをアバターナビゲーションユーザインターフェース(例えば、668)に表示することを止める(712)。電子デバイスは、ジェスチャが第1の方向と反対の第2の方向であるという判定に更に従い(714)、第1の種類(例えば、670、688)のアバターをアバターナビゲーションユーザインターフェース(例えば、668)に表示することを止める(718)。特定の種類のアバターを表示しないことによって、電子デバイスは、入力が受信されたこと、及びデバイスがこの特定の種類のアバターを選択できる状態にないということを確認する視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device further follows the determination that the gesture is in the first direction (708) and brings a second type (eg, 645) avatar into the avatar navigation user interface (eg, 668). Stop displaying (712). The electronic device further follows the determination that the gesture is in the second direction opposite to the first direction (714), and the avatar of the first type (eg, 670, 688) is an avatar navigation user interface (eg, 668). ) Is stopped (718). By not displaying a particular type of avatar, the electronic device provides the user with visual feedback confirming that the input has been received and that the device is not ready to select this particular type of avatar. .. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1の種類(例えば、670)のアバターを表示した後に、電子デバイスは第1の方向の第2のジェスチャ(例えば、699b)を検出する。電子デバイスは、第2のジェスチャを検出することに応じて、第1の種類(例えば、688)の第2のアバターを表示する。 According to some embodiments, after displaying the first kind (eg, 670) of the avatar, the electronic device detects the second gesture in the first direction (eg, 699b). The electronic device displays a second avatar of the first type (eg, 688) in response to detecting the second gesture.

いくつかの実施形態に従って、第2の種類(例えば、645)のアバターを表示した後に、電子デバイスは第2の方向の第3のジェスチャを検出する。電子デバイスは、第3のジェスチャを検出することに応じて、第2の種類(例えば、678)の第2のアバターを表示する。 According to some embodiments, after displaying a second type (eg, 645) avatar, the electronic device detects a third gesture in the second direction. The electronic device displays a second type of second avatar (eg, 678) in response to detecting the third gesture.

いくつかの実施形態に従って、第1の種類のアバター(例えば、アバター670)は、人間のキャラクター(例えば、人間以外のキャラクターではなく、人間を表すようにモデル化されたアバター)の外観を有する。いくつかの実施形態では、そのようなアバターは、人間の身体的特徴に概して対応するカスタマイズ可能(例えば、選択可能又は構成可能)なアバター特徴部(例えば、図8A~図8BBに見られるような頭部、毛髪、目、及び唇)を含む。例えば、そのようなアバターは、様々な身体的な人間の特徴又は特性を有する個人の表現(例えば、浅黒い肌の色及び長い茶色の直毛を有する高齢の女性)を含んでよい。そのようなアバターは、通常は人間の外観に関連付けられる様々な人間以外の特性(例えば、装飾拡張物、帽子、眼鏡など)(例えば、図8BB~8CFに示されている)を有する個人の表現も含む。いくつかの実施形態では、そのようなアバターは、定型化された動物、定型化されたロボット、又は通常は無生物若しくは非人間的対象物の定型化などの、擬人化された構成を含まない。アバターの外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the first type of avatar (eg, avatar 670) has the appearance of a human character (eg, an avatar modeled to represent a human rather than a non-human character). In some embodiments, such avatars are customizable (eg, selectable or configurable) avatar features (eg, as seen in FIGS. 8A-8BB) that generally correspond to human physical characteristics. Includes head, hair, eyes, and lips). For example, such avatars may include personal representations with various physical human characteristics or characteristics (eg, older women with dark skin color and long brown straight hair). Such avatars are representations of individuals with various non-human properties (eg, decorative extensions, hats, eyeglasses, etc.) usually associated with the human appearance (eg, shown in FIGS. 8BB-8CF). Also includes. In some embodiments, such avatars do not include anthropomorphic configurations such as stylized animals, stylized robots, or stylized objects that are usually inanimate or inhuman. The appearance of the avatar provides the user with feedback indicating the types of avatar characteristics that can be customized. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第2の種類のアバター(例えば、図6Gに示されたアバターオプションに対応するアバターであるアバター645)は、人間以外のキャラクターの外観を有する(例えば、擬人化された構成(例えば、定型化された動物、定型化されたロボット、又は通常は無生物若しくは非人間的対象物の定型化)である人間以外のキャラクターなどを含む、人間以外のキャラクターを表すようにモデル化されたアバター)。アバターの外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the second type of avatar (eg, avatar 645, which is the avatar corresponding to the avatar option shown in FIG. 6G) has the appearance of a non-human character (eg, anthropomorphic). Modeled to represent non-human characters, including non-human characters that are composed (eg, stylized animals, stylized robots, or stylized usually inanimate or inhuman objects). Avatar). The appearance of the avatar provides the user with feedback indicating the types of avatar characteristics that can be customized. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1の種類(例えば、670)のアバターは、ユーザによって構成可能(例えば、作成可能、選択可能、カスタマイズ可能)な複数のアバター特徴部(例えば、851、828)を含む。いくつかの実施形態では、そのようなアバターは、ユーザによって作成可能であり、又はユーザによって構成可能な複数の特徴を使用して予め構成され得る。いくつかの実施形態では、アバター特徴部の構成は、仮想アバターの外観又は物理的構造における大幅な変更をもたらす。 According to some embodiments, the first type (eg, 670) avatar has a plurality of user configurable (eg, createable, selectable, customizable) avatar features (eg, 851, 828). include. In some embodiments, such avatars can be created by the user or preconfigured using a plurality of features configurable by the user. In some embodiments, the configuration of the avatar features results in significant changes in the appearance or physical structure of the virtual avatar.

いくつかの実施形態に従って、第2の種類(例えば、645)のアバターは、ユーザによって構成可能(例えば、作成可能、選択可能、カスタマイズ可能)なアバター特徴部を含まない。いくつかの実施形態では、そのようなアバターは、予め構成されており、ユーザによって構成可能な特徴を有していない。場合によっては、そのようなアバターは、わずかに変更されてよいが(例えば、アバターの色を変更するか、又はアバターのサイズを変更する)、そのような変更は、仮想アバターの外観又は物理的構造を大幅に変更しない。 According to some embodiments, the second type (eg, 645) avatar does not include a user configurable (eg, createable, selectable, customizable) avatar feature. In some embodiments, such avatars are preconfigured and have no user-configurable features. In some cases, such avatars may change slightly (eg, change the color of the avatar or change the size of the avatar), but such changes may be the appearance or physical of the virtual avatar. Do not change the structure significantly.

いくつかの実施形態に従って、アバターナビゲーションユーザインターフェースは、複数のアバターを有する部分領域(例えば、686)を含む。複数のアバターは、第1の種類(例えば、670a、688a、670a)のアバターの第1の集合及び第2の種類(例えば、640a)のアバターの第2の集合を含む。第1の種類のアバターの第1の集合は、第2の種類のアバターの第2の集合から分離される(例えば、区別される)。いくつかの実施形態では、第1の種類のアバターが第2の種類のアバターから分離されており、それによって、アバターナビゲーションユーザインターフェースが表示されていて、電子デバイスがユーザのジェスチャ(例えば、スワイプジェスチャ)を検出したときに、デバイスが、アバターナビゲーションユーザインターフェースにおいて、ジェスチャが第1の方向である場合は第1の種類のアバターを表示又は選択し、あるいはジェスチャが第1の方向と反対の第2の方向である場合は第2の種類のアバターを表示するようにする。いくつかの実施形態では、これによってユーザは、異なる種類のアバターに到達するために同じ種類の複数のアバターをスクロールする必要なしに、第1又は第2の種類のアバターを直ちに選択することができる。様々な種類のアバターを視覚的に分離することによって、複数の種類のアバターが表示されている(かつ、カスタマイズに利用できる)ことを示すフィードバックをユーザに提供し、カスタマイズ可能なアバターの特性の種類に関してユーザに知らせる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the avatar navigation user interface comprises a partial area (eg, 686) having multiple avatars. The plurality of avatars includes a first set of avatars of the first type (eg, 670a, 688a, 670a) and a second set of avatars of the second type (eg, 640a). The first set of avatars of the first type is separated (eg, distinguished) from the second set of avatars of the second type. In some embodiments, the first type of avatar is separated from the second type of avatar so that the avatar navigation user interface is displayed and the electronic device is the user's gesture (eg, swipe gesture). ), The device displays or selects the first type of avatar in the avatar navigation user interface if the gesture is in the first direction, or the gesture is in the opposite direction of the first direction. If the direction is, the second type of avatar is displayed. In some embodiments, this allows the user to immediately select a first or second type of avatar without having to scroll through multiple avatars of the same type to reach different types of avatars. .. By visually separating different types of avatars, we provide users with feedback that multiple types of avatars are displayed (and can be used for customization), and the types of customizable avatar characteristics. Inform the user about. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、アバター(例えば、670)は、第1の種類のアバターの第1の集合のうちの1つ以上と、第2の種類のアバターの第2の集合のうちの1つ以上との間の位置(例えば、境界領域(例えば、675))に表示された複数のアバターのうちの選択された1つである(例えば、アバターナビゲーションユーザインターフェースに最初に表示されるアバターは、第1の種類のアバターのグループと第2の種類のアバターのグループの間に配置される)。 According to some embodiments, the avatar (eg, 670) is one or more of the first set of avatars of the first type and one of the second set of avatars of the second type. The first avatar displayed in the avatar navigation user interface is one of the selected avatars displayed in a position between the above (eg, the border area (eg, 675)). Placed between a group of first type avatars and a group of second type avatars).

いくつかの実施形態に従って、第1の種類のアバターの第1の集合は、複数のアバターのうちの選択された1つを含む。電子デバイスは、ジェスチャが第1の方向であるという判定に従って、複数のアバターのうちの選択された1つを、第1の種類の異なるアバターに置き換える(例えば、選択されたアバター(例えば、670)が、第1の種類のアバターの第1の集合からの第1の種類(例えば、688)のアバターのうちの異なる1つに置き換えられる)。電子デバイスは、ジェスチャが第2の方向であるという判定に従って、複数のアバターのうちの選択された1つを、第2の種類のアバターに置き換える(例えば、選択されたアバター(例えば、670)が、第2の種類のアバターの第2の集合からの第2の種類(例えば、645)のアバターのうちの1つに置き換えられる)。 According to some embodiments, the first set of avatars of the first type comprises a selected one of a plurality of avatars. The electronic device replaces the selected one of the plurality of avatars with a different avatar of the first type (eg, the selected avatar (eg, 670), depending on the determination that the gesture is in the first direction). Is replaced by a different one of the first type (eg, 688) avatars from the first set of first type avatars. The electronic device replaces the selected one of the plurality of avatars with a second type of avatar according to the determination that the gesture is in the second direction (eg, the selected avatar (eg, 670). , Replaced by one of the second type (eg, 645) avatars from the second set of second type avatars.

いくつかの実施形態に従って、第2の種類のアバターの第2の集合は、複数のアバターのうちの選択された1つを含む。電子デバイスは、ジェスチャが第1の方向であるという判定に従って、複数のアバターのうちの選択された1つを、第1の種類のアバターに置き換える(例えば、選択されたアバター(例えば、645)が、第1の種類のアバターの第1の集合からの第1の種類(例えば、670)のアバターのうちの1つに置き換えられる)。電子デバイスは、ジェスチャが第2の方向であるという判定に従って、複数のアバターのうちの選択された1つを、第2の種類の異なるアバターに置き換える(例えば、選択されたアバター(例えば、645)が、第2の種類のアバターの第2の集合からの第2の種類のアバターのうちの異なる1つ(例えば、678)に置き換えられる)。 According to some embodiments, the second set of avatars of the second type comprises a selected one of the plurality of avatars. The electronic device replaces the selected one of the plurality of avatars with the first type of avatar (eg, the selected avatar (eg, 645), according to the determination that the gesture is in the first direction. , Replaced by one of the first type (eg, 670) avatars from the first set of first type avatars. The electronic device replaces the selected one of the plurality of avatars with a different type of second avatar according to the determination that the gesture is in the second direction (eg, the selected avatar (eg, 645)). Is replaced by a different one of the second type of avatars from the second set of second type avatars (eg, 678).

特定の種類のアバターを表示することによって、入力が受信されたこと、及びデバイスが現在、特定の種類のアバターを選択できる状態にあるということを確認する視覚フィードバックを、ユーザに提供する。電子デバイスは、アバターを置き換えることによって、デバイスが、置き換えられたアバターをユーザによって選択できなくなった状態にあるということの視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 By displaying a particular type of avatar, it provides the user with visual feedback confirming that the input was received and that the device is currently ready to select a particular type of avatar. By replacing the avatar, the electronic device provides visual feedback that the device is in a state where the replaced avatar cannot be selected by the user. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、アバターナビゲーションユーザインターフェースは、第1のアフォーダンス(例えば、682)(例えば、選択可能な表示されたアバター、又は「編集」アフォーダンス(アバターではない))を含む。アバターナビゲーションユーザインターフェースが表示されている間に、電子デバイスは、1つ以上の入力デバイスを介して、第1のアフォーダンスに向けられたジェスチャを検出する(例えば、タッチスクリーンディスプレイ上の、「編集」アフォーダンス又は表示されたアバターに対応する位置でのタッチジェスチャ、あるいはスワイプアップジェスチャなどの、第1の方向と異なる第3の方向でのスワイプジェスチャ)。電子デバイスは、第1のアフォーダンスに向けられたジェスチャを検出することに応じて、アバターライブラリユーザインターフェース(例えば、686)を表示する。アバターライブラリユーザインターフェースは、第2のアフォーダンス(例えば、648)(例えば、「新しいアバター」又は「+」アフォーダンス)及び第1の種類の1つ以上のアバターを含む。 According to some embodiments, the avatar navigation user interface includes a first affordance (eg, 682) (eg, a selectable displayed avatar, or an "edit" affordance (not an avatar)). While the avatar navigation user interface is displayed, the electronic device detects gestures directed to the first affordance via one or more input devices (eg, "edit" on a touch screen display. A swipe gesture in a third direction that is different from the first direction, such as an affordance or a touch gesture at the position corresponding to the displayed avatar, or a swipe-up gesture). The electronic device displays an avatar library user interface (eg, 686) in response to detecting a gesture directed to the first affordance. The avatar library user interface includes a second affordance (eg, 648) (eg, a "new avatar" or "+" affordance) and one or more avatars of the first type.

いくつかの実施形態に従って、アバターライブラリユーザインターフェースが表示されている間に、電子デバイスは、1つ以上の入力デバイスを介して、第2のアフォーダンス(例えば、648)に向けられたジェスチャ(例えば、タッチスクリーンディスプレイ上の「新しいアバター」アフォーダンスに対応する位置でのタッチジェスチャ)を検出する。電子デバイスは、第2のアフォーダンスに向けられたジェスチャを検出することに応じて、アバター編集ユーザインターフェース(例えば、652)を表示する。アバター編集ユーザインターフェースは、第1の種類の新しいアバターを生成する(例えば、アバターライブラリユーザインターフェースに追加される新しいアバターを編集する)ユーザインターフェースである。一部の実施形態では、電子デバイスは、アバター編集ユーザインターフェースを表示し、第1の種類の新しいアバターを作成するためのユーザ入力を受信する。第1の種類の新しいアバターが作成された後に、デバイスは、第1の種類の新しいアバターをアバターライブラリユーザインターフェースに表示する。例えば、第1の種類の新しいアバターは、アバターライブラリ内の第1の種類の表示されたアバターの端に追加される。 According to some embodiments, while the avatar library user interface is displayed, the electronic device is directed to a second affordance (eg, 648) via one or more input devices (eg, 648). Detects touch gestures) on the touchscreen display at the position corresponding to the "new avatar" affordance. The electronic device displays an avatar editing user interface (eg, 652) in response to detecting a gesture directed to a second affordance. The avatar editing user interface is a user interface that generates a new avatar of the first kind (eg, edits a new avatar added to the avatar library user interface). In some embodiments, the electronic device displays an avatar editing user interface and receives user input for creating a new avatar of the first type. After the first type of new avatar is created, the device displays the first type of new avatar in the avatar library user interface. For example, a new avatar of the first type is added to the edge of the displayed avatar of the first type in the avatar library.

いくつかの実施形態に従って、電子デバイスは、第1の種類の新しいアバターを生成し、新しいアバターをアバターライブラリユーザインターフェース(例えば、686)に表示する。新しいアバターは、第1の種類の1つ以上のアバターのうちの最後の1つの次の位置(例えば、第1の種類の1つ以上のアバターの順序における最後の位置)に表示される。 According to some embodiments, the electronic device generates a new avatar of the first kind and displays the new avatar in the avatar library user interface (eg, 686). The new avatar is displayed at the last one next position in one or more avatars of the first type (eg, the last position in the order of one or more avatars of the first type).

いくつかの実施形態に従って、アバターナビゲーションユーザインターフェースは、アバターを表示されたアバターナビゲーションユーザインターフェースから除去する(例えば、削除する、又は非表示にする)機能に関連付けられたアフォーダンス(例えば、「削除」アフォーダンス)(例えば、692c)を更に含む。電子デバイスは、1つ以上の入力デバイスを介して、この機能に関連付けられたアフォーダンスに向けられたジェスチャ(例えば、タッチスクリーンディスプレイ上の「削除」アフォーダンスに対応する位置でのタッチジェスチャ)を検出する。電子デバイスは、この機能に関連付けられたアフォーダンスに向けられたジェスチャを検出することに応じて、アバターを表示されたアバターナビゲーションユーザインターフェースから除去する(例えば、削除する、又は非表示にする)。 According to some embodiments, the avatar navigation user interface has an affordance (eg, "delete" affordance) associated with the ability to remove (eg, delete or hide) the avatar from the displayed avatar navigation user interface. ) (For example, 692c). The electronic device detects a gesture directed to the affordance associated with this feature (eg, a touch gesture on the touch screen display at a position corresponding to the "delete" affordance) via one or more input devices. .. The electronic device removes (eg, removes or hides) the avatar from the displayed avatar navigation user interface in response to detecting an affordance-directed gesture associated with this feature.

いくつかの実施形態に従って、アバターナビゲーションユーザインターフェースは、メッセージングユーザインターフェース(例えば、603)(例えば、通信プラットフォームによってホストされた会話の参加者間でメッセージを送信するインターフェース)に表示される。いくつかの実施形態では、アバターは、メッセージングユーザインターフェースの一部として表示されたアバターナビゲーションユーザインターフェースからアクセスされることが可能であり、それによって、アバターナビゲーションユーザインターフェースから選択されたアバターが、会話の参加者に送信するメッセージングユーザインターフェースに表示されるようにする。 According to some embodiments, the avatar navigation user interface is displayed in a messaging user interface (eg, 603) (eg, an interface for sending messages between participants in a conversation hosted by a communication platform). In some embodiments, the avatar can be accessed from the avatar navigation user interface displayed as part of the messaging user interface, whereby the avatar selected from the avatar navigation user interface is of conversation. Make it visible in the messaging user interface that you send to participants.

アバターナビゲーションユーザインターフェースをメッセージングユーザインターフェースに表示することで、ユーザは、メッセージングユーザインターフェースを離れることなくアバター間でナビゲートすることが可能になり、したがって、電子デバイスのアプリケーション間で切り替えるためのユーザ入力を提供する必要がなくなる。必要なユーザ入力の数を低減することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Displaying the avatar navigation user interface in the messaging user interface allows users to navigate between avatars without leaving the messaging user interface, thus providing user input for switching between applications on electronic devices. No need to provide. By reducing the number of user inputs required, the usability of the device is improved and the user-device interface (eg, assists the user in providing the appropriate input when manipulating / interacting with the device, and the user. It makes it more efficient (by reducing errors) and, in addition, reduces the power usage of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイスは、アバターナビゲーションユーザインターフェースが第1の種類のアバターを含んでいないという判定に従い、第1の種類の新しいアバターの生成に関連付けられたアフォーダンス(例えば、632)(例えば、「続行」アフォーダンス)を有するアバター開始ユーザインターフェース(例えば、626)(例えば、アバタースプラッシュスクリーン)を表示する。アバター開始ユーザインターフェースが表示されている間に、電子デバイスは、第1の種類の新しいアバターの生成に関連付けられたアフォーダンスに向けられたジェスチャ(例えば、630)(例えば、タッチスクリーンディスプレイ上の「続行」アフォーダンスに対応する位置でのタッチジェスチャ)を検出する。電子デバイスは、第1の種類の新しいアバターの生成に関連付けられたアフォーダンスに向けられたジェスチャを検出することに応じて、アバター編集ユーザインターフェース(例えば、652、801)を表示する。アバター編集ユーザインターフェースは、第1の種類の新しいアバターを生成する(例えば、アバターライブラリユーザインターフェースに追加される新しいアバターを編集する)ユーザインターフェースである。 According to some embodiments, the electronic device follows the determination that the avatar navigation user interface does not contain the first type of avatar, and the affordance associated with the generation of the first type of new avatar (eg, 632) (eg, 632). For example, display an avatar start user interface (eg, 626) (eg, avatar splash screen) with a "continue" affordance). While the avatar start user interface is displayed, the electronic device is directed to the affordance associated with the generation of the first type of new avatar (eg, 630) (eg, "continue" on the touch screen display. Detects touch gestures at positions corresponding to affordances). The electronic device displays an avatar editing user interface (eg, 652, 801) in response to detecting an affordance-directed gesture associated with the generation of a new avatar of the first type. The avatar editing user interface is a user interface that generates a new avatar of the first kind (eg, edits a new avatar added to the avatar library user interface).

いくつかの実施形態に従って、電子デバイスは、アバターナビゲーションユーザインターフェースが第1の種類のアバターを含んでいるという判定に従い、第1の種類のアバター、及び第1の種類(例えば、670)の表示されたアバターの1つ以上の特徴の管理に関連付けられたアフォーダンス(例えば、682)(例えば、「編集」アフォーダンス)を表示する。いくつかの実施形態では、第1の種類の1つ以上のアバターが作成されている場合、アバターナビゲーションユーザインターフェースは、第1の種類のアバターのうちの1つ及びアフォーダンス(例えば、「編集」アフォーダンス)を表示する。いくつかの実施形態では、電子デバイスは、アフォーダンスの選択を検出することに応じて、第1の種類(例えば、670)のアバター及び第1の種類(例えば、688)のその他のアバターの表現を含んでいるアバターライブラリユーザインターフェース(例えば、686)を表示する。いくつかの実施形態では、電子デバイスは、第1の種類の表示されたアバターの選択を検出することに応じて、アバターライブラリユーザインターフェースを表示する。いくつかの実施形態では、電子デバイスは、アフォーダンス又は第1の種類の表示されたアバターの選択を検出することに応じて、第1の種類のアバターを編集するユーザインターフェースを提供するアバター編集ユーザインターフェース(例えば、652、801)を表示する。 According to some embodiments, the electronic device displays the first type of avatar, and the first type (eg, 670), according to the determination that the avatar navigation user interface contains the first type of avatar. Display affordances (eg, 682) (eg, "edit" affordances) associated with the management of one or more features of the avatar. In some embodiments, when one or more avatars of the first type are created, the avatar navigation user interface is one of the first type of avatars and affordances (eg, "edit" affordances). ) Is displayed. In some embodiments, the electronic device displays a representation of a first type (eg, 670) avatar and a first type (eg, 688) of other avatars in response to detecting an affordance choice. Display the included avatar library user interface (eg, 686). In some embodiments, the electronic device displays an avatar library user interface in response to detecting a selection of the first type of displayed avatar. In some embodiments, the electronic device provides an avatar editing user interface that provides a user interface for editing a first type of avatar in response to detecting an affordance or selection of a first type of displayed avatar. (For example, 652, 801) is displayed.

いくつかの実施形態に従って、第1の種類のアバターを表示することは、非対話状態(例えば、図6Lの670)(例えば、第1の種類のアバターが、ユーザの顔における変化に反応しない静的な既定の外観を有する)から対話状態(例えば、図6Mの670)(例えば、第1の種類のアバターが、ユーザの顔における変化に反応する動的な外観を有する)へ移行する第1の種類のアバターを表示することを含む。いくつかの実施形態に従って、第2の種類のアバターを表示することは、非対話状態(例えば、図6Oの678)(例えば、第2の種類のアバターが、ユーザの顔における変化に反応しない静的な既定の外観を有する)から対話状態(例えば、図6Pの678)(例えば、第2の種類のアバターが、ユーザの顔における変化に反応する動的な外観を有する)へ移行する第2の種類(例えば、678)のアバターを表示することを含む。 According to some embodiments, displaying the first type of avatar is non-interactive (eg, 670 in FIG. 6L) (eg, the first type of avatar is static and does not respond to changes in the user's face. 1st transition from an interactive state (eg, 670 in FIG. 6M) (eg, the first type of avatar has a dynamic appearance that responds to changes in the user's face). Includes displaying avatars of the type. According to some embodiments, displaying a second type of avatar is non-interactive (eg, 678 in FIG. 6O) (eg, static that the second type of avatar does not respond to changes in the user's face). A second transition from an interactive state (eg, 678 in FIG. 6P) (eg, a second type of avatar has a dynamic appearance that responds to changes in the user's face). Includes displaying avatars of the type (eg, 678).

いくつかの実施形態に従って、電子デバイスは、表示装置を介して、第1の種類(例えば、688、670)の1つ以上の保存された(例えば、以前に作成された)アバターを含んでいるアバターライブラリユーザインターフェース(例えば、686)を表示する。電子デバイスは、(例えば、向けられたジェスチャを検出して)第1の種類の保存されたアバターのうちの1つの選択を検出する(例えば、タッチスクリーンディスプレイ上の第1の種類の保存されたアバターに対応する位置でのタッチジェスチャ)。電子デバイスは、(例えば、向けられたジェスチャを検出して)第1の種類の保存されたアバターのうちの1つの選択を検出することに応じて、第1の種類の保存されたアバターのうちの1つに対する編集機能、複製機能、及び削除機能のうちの1つに関連付けられた1つ以上のメニューアフォーダンス(例えば、「編集」アフォーダンス692a、「複製」アフォーダンス692b、又は「削除」アフォーダンス692c)を有するメニュー(例えば、692)を表示する。 According to some embodiments, the electronic device comprises one or more stored (eg, previously created) avatars of the first type (eg, 688, 670) via the display device. Display the avatar library user interface (eg, 686). The electronic device detects a selection of one of the first type of saved avatars (eg, by detecting a directed gesture) (eg, the first type of saved avatar on a touch screen display). Touch gesture at the position corresponding to the avatar). The electronic device is among the first type of saved avatars in response to detecting a selection of one of the first type of saved avatars (eg, by detecting a directed gesture). One or more menu affordances associated with one of the edit, duplicate, and delete functions for one of (eg, "edit" affordance 692a, "duplicate" affordance 692b, or "delete" affordance 692c). Display a menu (eg, 692) with.

いくつかの実施形態に従って、電子デバイスは、(例えば、向けられたジェスチャを検出して)複製機能に関連付けられた第1のアフォーダンス(例えば、692b)の選択を検出する(例えば、タッチスクリーンディスプレイ上の「複製」アフォーダンスに対応する位置でのタッチジェスチャ)。電子デバイスは、第1のアフォーダンスの選択を検出することに応じて、保存されたアバターのうちの1つの複製バージョン(例えば、695)を生成し、その複製バージョンをアバター編集ユーザインターフェース(例えば、694)に表示する(例えば、「複製」アフォーダンスを選択した後に、選択されたアバターが複製され、その後、保存されたアバターのうちの選択された1つのアバター特徴部に一致するアバター特徴部を有するアバターの複製バージョンが、アバター編集ユーザインターフェースに表示される)。いくつかの実施形態では、複製されたアバターは、アバター編集ユーザインターフェース(例えば、652、694、801)で編集され、編集後に、ライブラリ(例えば、686)に保存され得る。いくつかの実施形態では、複製アバターが保存された後に、この複製アバターは、アバターライブラリユーザインターフェースにおいて、アバターライブラリ内の保存されたアバターのうちの選択された1つの隣の位置(例えば、複製されたアバターのすぐ隣、又は順序内の次の位置であり、順序内のこの次の位置は、順序内の複製されたアバターの位置に直ちに進む)に表示される。 According to some embodiments, the electronic device detects a selection of first affordances (eg, 692b) associated with the replication function (eg, by detecting a directed gesture) (eg, on a touch screen display). Touch gesture at the position corresponding to the "duplicate" affordance). The electronic device generates a duplicate version of one of the stored avatars (eg, 695) in response to detecting the first affordance selection, and that duplicate version is the avatar editing user interface (eg, 694). ) (For example, after selecting "Duplicate" affordance, the selected avatar is duplicated, and then an avatar with an avatar feature that matches the selected avatar feature of one of the saved avatars. A duplicate version of is displayed in the Avatar Editing User Interface). In some embodiments, the duplicated avatar may be edited in the avatar editing user interface (eg, 652, 694, 801) and, after editing, stored in a library (eg, 686). In some embodiments, after the duplicate avatar has been saved, the duplicate avatar is in the avatar library user interface at a location next to a selected one of the saved avatars in the avatar library (eg, duplicated). The next position in the order is immediately next to or next to the avatar, and this next position in the order immediately advances to the position of the duplicated avatar in the order).

いくつかの実施形態に従って、電子デバイスは、(例えば、向けられたジェスチャを検出して)編集機能に関連付けられた第2のアフォーダンス(例えば、692a)の選択を検出する(例えば、タッチスクリーンディスプレイ上の「編集」アフォーダンスに対応する位置でのタッチジェスチャ)。電子デバイスは、第2のアフォーダンスに向けられたジェスチャを検出することに応じて、保存されたアバター(例えば、編集機能が選択されたときに選択されたアバター)のうちの1つを含んでいるアバター編集ユーザインターフェース(例えば、652、694、801)を表示する。 According to some embodiments, the electronic device detects a selection of a second affordance (eg, 692a) associated with the editing function (eg, by detecting a directed gesture) (eg, on a touch screen display). Touch gesture at the position corresponding to the "edit" affordance). The electronic device contains one of the saved avatars (eg, the avatar selected when the editing function was selected) in response to detecting a gesture directed to a second affordance. Display the avatar editing user interface (eg, 652, 694, 801).

いくつかの実施形態に従って、電子デバイスは、(例えば、向けられたジェスチャを検出して)削除機能に関連付けられた第3のアフォーダンス(例えば、692c)の選択を検出する(例えば、タッチスクリーンディスプレイ上の「削除」アフォーダンスに対応する位置でのタッチジェスチャ)。電子デバイスは、(例えば、向けられたジェスチャを検出して)第3のアフォーダンスの選択を検出することに応じて、保存されたアバターのうちの表示された1つをアバターライブラリユーザインターフェースから除去する。 According to some embodiments, the electronic device detects a selection of a third affordance (eg, 692c) associated with the delete function (eg, by detecting a directed gesture) (eg, on a touch screen display). Touch gesture at the position corresponding to the "deletion" affordance). The electronic device removes one of the stored avatars from the avatar library user interface in response to detecting a third affordance selection (eg, detecting a directed gesture). ..

いくつかの実施形態に従って、電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、検出されたジェスチャ(例えば、676)の大きさ及び方向に従ってアバターナビゲーションユーザインターフェースを横切る方向に移動する個別のアバター(例えば、図6M~図6Oのインターフェース668を横切って移動する671)を表示することを含めて、第1又は第2の種類(例えば、670、671)の個別のアバターを表示する。電子デバイスは、個別のアバターが第1の位置(例えば、検出されたジェスチャの大きさ及び方向に基づいて決定される第1の閾値位置(例えば、個別のアバターの選択に関連付けられた位置))に達するという判定に従って、既定の外観を有する非対話状態(例えば、個別のアバターが、ユーザの顔において検出された変化に応じて変化しない既定の外観を有する、静的状態)(例えば、図6Oの671)から、検出された顔(例えば、673)(例えば、電子デバイスの1つ以上のカメラの視野内で検出された顔)に基づいて決定される外観を有する対話状態(例えば、図6Pの671)(例えば、個別のアバターが、ユーザの顔において検出された変化に応じて変化する、動的状態)へ移行している個別のアバターのアニメーションを表示する。いくつかの実施形態では、非対話状態から対話状態へ移行している個別のアバターのアニメーションは、アバターの顔の表情、位置、向き、及び/又はサイズを、中立的な顔の表情、位置、向き、及び/又はサイズからユーザの顔/頭部追跡に基づくアバターの顔の表情、位置、向き、及び/又はサイズに、徐々に変更することを含む。アバターの外観は、ユーザのジェスチャの大きさ及び方向に従うアバターの動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) is directed across the display device (eg, 601) across the avatar navigation user interface according to the size and orientation of the detected gesture (eg, 676). Individual avatars of the first or second type (eg, 670, 671), including displaying individual avatars to move (eg, 671 moving across interface 668 of FIGS. 6M-6O). indicate. The electronic device is the first position where the individual avatar is located (eg, the first threshold position determined based on the size and orientation of the detected gesture (eg, the position associated with the selection of the individual avatar)). A non-interactive state with a default appearance (eg, a static state in which an individual avatar has a default appearance that does not change in response to changes detected in the user's face) according to the determination to reach (eg, FIG. 6O). 671), an interactive state (eg, FIG. 6P) having an appearance determined based on the detected face (eg, 673) (eg, the face detected in the field of one or more cameras of the electronic device). 671) (eg, an animation of an individual avatar transitioning to a dynamic state in which the individual avatar changes in response to a change detected in the user's face). In some embodiments, the animation of the individual avatar transitioning from the non-interactive state to the interactive state is the facial expression, position, orientation, and / or size of the avatar, the neutral facial expression, position, Includes gradual changes from orientation and / or size to the facial expression, position, orientation, and / or size of the avatar based on the user's face / head tracking. The appearance of the avatar provides the user with feedback indicating the movement of the avatar according to the size and direction of the user's gesture. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイス(例えば、600)は、個別のアバター(例えば、671)が第2の位置(例えば、図6Qの671)(例えば、検出されたジェスチャの大きさ及び方向に基づいて決定される第2の閾値位置(例えば、(例えば異なるアバターを選択するために)個別のアバターをスワイプすることに関連付けられた位置))に達するという判定に従って、検出された顔(例えば、673)に基づいて決定される外観を有する対話状態(例えば、図6Pの671)から、既定の外観を有する非対話状態(例えば、図6Rの671)へ移行している個別のアバターのアニメーションを表示する。いくつかの実施形態では、対話状態から非対話状態へ移行している個別のアバターのアニメーションは、アバターの顔の表情、位置、向き、及び/又はサイズを、ユーザの顔/頭部追跡に基づく顔の表情、位置、向き、及び/又はサイズからアバターの中立的な顔の表情、位置、向き、及び/又はサイズに、徐々に変更することを含む。対話状態から非対話状態へ移行するアバターのアニメーションを表示することによって、アバターの非対話的外観の視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) has an individual avatar (eg, 671) in a second position (eg, 671 in FIG. 6Q) (eg, in the size and orientation of the detected gesture). A face detected (eg, a position associated with swiping an individual avatar) (eg, a position associated with swiping an individual avatar), which is determined based on the second threshold position (eg, to select a different avatar). Animation of individual avatars transitioning from an interactive state with an appearance determined based on 673) (eg, 671 in FIG. 6P) to a non-interactive state with a default appearance (eg, 671 in FIG. 6R). indicate. In some embodiments, the animation of an individual avatar transitioning from interactive to non-interactive is based on the user's face / head tracking based on the facial expression, position, orientation, and / or size of the avatar's face. Includes gradual changes from facial expressions, positions, orientations, and / or sizes to avatar-neutral facial expressions, positions, orientations, and / or sizes. It provides visual feedback on the non-interactive appearance of the avatar by displaying an animation of the avatar transitioning from interactive to non-interactive. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

なお、方法700に関して前述した処理(例えば、図7)の詳細は、以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法900は、方法700に関連して前述した様々な方法の特性のうちの1つ以上を、任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図9に関して後述される方法900に従って実現されてよい。追加の例として、方法1000、1100、1200、及び1400は、方法700に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10~図12に関して後述される方法に従って実現されてよい。別の例として、いくつかの実施形態では、ナビゲーションユーザインターフェースが、仮想アバターを変更する処理を呼び出し、この処理は、図14A及び図14Bに関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は、以下では繰り返さない。 It should be noted that the details of the above-mentioned processing (for example, FIG. 7) regarding the method 700 can be applied to the method described below by a similar method. For example, the method 900 optionally includes one or more of the characteristics of the various methods described above in connection with the method 700. For example, in some embodiments, the navigation user interface may call a process of creating or editing a customizable avatar, which process may be implemented according to method 900 described below with respect to FIG. As an additional example, methods 1000, 1100, 1200, and 1400 optionally include one or more of the properties of the various methods described above in connection with method 700. For example, in some embodiments, the navigation user interface may call a process for creating or editing a customizable avatar, which may be implemented according to the methods described below with respect to FIGS. 10-12. As another example, in some embodiments, the navigation user interface calls a process of modifying a virtual avatar, which process may be implemented according to the methods described below with respect to FIGS. 14A and 14B. For the sake of brevity, these details will not be repeated below.

図8A~図8CFは、いくつかの実施形態に従って、アバター編集ユーザインターフェースを表示する例示的なユーザインターフェースを示している。これらの図のユーザインターフェースは、図9~図12の処理を含めた、以下で説明される処理を例示するために使用される。 8A-8CF show an exemplary user interface that displays an avatar editing user interface according to some embodiments. The user interface of these figures is used to illustrate the processes described below, including the processes of FIGS. 9-12.

図8Aで、デバイス600は、アバター表示領域803及びアバターの特性領域804を有するアバター編集ユーザインターフェース801を表示している。アバター表示領域803は、例えばライン806によってアバターの特性領域804から視覚的に区別され、アバター805及びアバター特徴部領域807を含む。アバター特徴部領域807は、アバター編集ユーザインターフェースで編集され得るアバター特徴部に対応するアバター特徴部アフォーダンス809を含む。アバターの特性領域804は、表示されたアバター特徴部の特性及び対応する特徴部オプションを含む。アバター特徴部の特性及び特徴部オプションは、アバター特徴部領域807で現在選択されているアバター特徴部に対応する。図8Aで、デバイスは、アバター805の直下に配置されて、アバターの頭部の特徴が現在編集用に選択されていることを示すために強調表示されている、アバターの頭部アフォーダンス809aを表示している。アバターの頭部の特徴が編集用に選択されているため、デバイス600は、アバターの頭部の特徴に対応するアバター特徴部の特性及び特徴部オプションをアバターの特性領域804に表示する。 In FIG. 8A, the device 600 displays an avatar editing user interface 801 having an avatar display area 803 and an avatar characteristic area 804. The avatar display area 803 is visually distinguished from the avatar characteristic area 804 by, for example, line 806, and includes the avatar 805 and the avatar feature area 807. The avatar feature area 807 includes an avatar feature affordance 809 corresponding to the avatar feature that can be edited in the avatar editing user interface. The avatar characteristic area 804 includes the characteristics of the displayed avatar feature and the corresponding feature option. The characteristics of the avatar feature section and the feature section option correspond to the avatar feature section currently selected in the avatar feature section area 807. In FIG. 8A, the device is placed directly under the avatar 805 and displays the avatar head affordance 809a, which is highlighted to indicate that the avatar head feature is currently selected for editing. is doing. Since the avatar head feature is selected for editing, the device 600 displays the avatar feature feature features and feature section options corresponding to the avatar head feature in the avatar characteristic area 804.

デバイスは、アバター編集ユーザインターフェースでアバターを編集するときに行われたアバター特徴部に対する変更に基づいて、アバターの現在の状態を表すように、アバター805を表示する。図8Aに示された実施形態では、アバター特徴部が選択されておらず、変更されてもいないため、アバター805は、複数のデフォルトの(例えば、予め設定又は決定された)特徴を伴って表示されている。例えば、アバター805は、既定の顔の構造(例えば、既定の顔の形状、鼻、唇、目、耳、及び眉)を有する。アバター805は、肌の色、毛髪又は髪形、顔の毛(眉以外)、及びアクセサリも選択されていない。デバイスがアバター特徴部を更新する入力を受信したときに、デバイス600は、アバター特徴部に対する選択された更新を反映するように、アバター805を更新する。 The device displays the avatar 805 to represent the current state of the avatar based on the changes made to the avatar feature when editing the avatar in the avatar editing user interface. In the embodiment shown in FIG. 8A, the avatar features are not selected or modified, so that the avatar 805 is displayed with a plurality of default (eg, preset or determined) features. Has been done. For example, the avatar 805 has a default facial structure (eg, a default facial shape, nose, lips, eyes, ears, and eyebrows). Avatar 805 has no skin color, hair or hairstyle, facial hair (other than eyebrows), and no accessories selected. When the device receives the input to update the avatar feature, the device 600 updates the avatar 805 to reflect the selected update to the avatar feature.

いくつかの実施形態では、デバイス600は、アバター特徴部うちのいずれかの選択又は変更を検出する前に、2つ以上の色(例えば、黄色及び白色)の間で変動するアバター805を表示し、それによって、アバター805を変更するための入力をデバイス600が受信する準備ができていることを、ユーザに示すことができる。いくつかの実施形態では、デバイス600は、アバター特徴部うちのいずれかの選択又は変更を検出する前に、ユーザの顔を追跡しないでアバター805を表示する(例えば、アバター805は表示されるが、ユーザの顔における変化に応じて変更されない)。いくつかの実施形態では、デバイス600は、アバター編集ユーザインターフェース801での入力(例えば、色オプションの選択、表示された特徴部オプションのスクロール、アバター上のジェスチャ、アフォーダンス(例えば、「顔追跡の開始」アフォーダンス)上のジェスチャなど)を検出した後に、アバター805の表示の変動を停止し、かつ/又はユーザの顔の追跡(例えば、ユーザの顔において検出された変化に応じてアバター805を変更すること)を開始する。 In some embodiments, the device 600 displays an avatar 805 that fluctuates between two or more colors (eg, yellow and white) before detecting a selection or change in any of the avatar features. , It can indicate to the user that the device 600 is ready to receive input for modifying the avatar 805. In some embodiments, the device 600 displays the avatar 805 without tracking the user's face (eg, the avatar 805 is displayed) before detecting a selection or change in any of the avatar features. , Does not change in response to changes in the user's face). In some embodiments, the device 600 is an input in the avatar editing user interface 801 (eg, selection of color options, scrolling of displayed feature options, gestures on the avatar, affordances (eg, "start face tracking"). After detecting gestures on the affordance, etc.), the display of the avatar 805 stops changing and / or the avatar 805 is changed according to the tracking of the user's face (eg, the change detected in the user's face). That) to start.

アバターの特性領域804は、現在選択されているアバター特徴部(例えば、アバターの頭部)に対応するアバター特徴部の特性の表示されたリストを含む。個別のアバター特徴部の特性は、選択されたアバター特徴部の対応する特性を変更するために選択され得る、選択可能な特徴部オプションの集合を含む。更に具体的には、選択可能な特徴部オプションの集合に含まれる選択可能な特徴部オプションはそれぞれ、選択されたアバター特徴部の対応する特性を変更するための値に対応する。その後、変更された特性は、アバター805に対する表示された変更、及びこの特性の表示された表現を含んでいるその他のアバター特徴部オプションに反映される。 The avatar characteristic area 804 includes a displayed list of characteristics of the avatar feature that corresponds to the currently selected avatar feature (eg, the head of the avatar). The characteristics of the individual avatar features include a set of selectable feature options that can be selected to change the corresponding characteristics of the selected avatar feature. More specifically, each selectable feature option included in the set of selectable feature options corresponds to a value for changing the corresponding characteristic of the selected avatar feature. The changed trait is then reflected in the displayed changes to the avatar 805 and other avatar feature options that include the displayed representation of this trait.

デバイス600は、現在選択されているアバター特徴部の特性を変更するために使用できるオプションを表すように、アバター特徴部オプションを表示する。表示されたアバター特徴部オプションは、他の選択されたアバター特徴部オプションに基づいて、動的に更新され得る。他の選択されたアバター特徴部オプションは、同じ現在選択されているアバター特徴部に対応する異なるアバター特徴部オプション、及び異なるアバター特徴部(例えば、以前に変更されたアバター特徴部などの、現在選択されていないアバター特徴部)に対応する選択されたアバター特徴部オプションを含む。例えば、アバターの頭部の特徴の特性に対する変更(例えば、肌の色の選択)を、アバターの頭部の特徴に対応するアバター特徴部オプション(例えば、顔の形状の特徴部オプション)に表示することができ、任意選択的に、例えば毛髪又は目などの、他のアバター特徴部に対応するアバター特徴部オプションに表示することができる。この例では、デバイスは、肌の色の選択を検出することに応じて、現在表示されているアバター特徴部オプション(例えば、顔の形状オプション)を、選択された肌の色を表示するように更新する。更に、異なるアバター特徴部(例えば、目)が選択された場合、目に関して表示されるアバター特徴部オプションも、選択された肌の色を含む。 The device 600 displays avatar feature options to represent options that can be used to change the characteristics of the currently selected avatar feature. The displayed avatar feature options may be dynamically updated based on other selected avatar feature options. Other selected avatar feature options are currently selected, such as different avatar feature options corresponding to the same currently selected avatar feature, and different avatar features (eg, previously modified avatar feature). Includes selected avatar feature options that correspond to avatar features that are not. For example, changes to the characteristics of the avatar's head features (eg, skin color selection) are displayed in the avatar feature options that correspond to the avatar's head features (eg, the facial shape features option). It can optionally be displayed in the avatar feature option corresponding to another avatar feature, such as hair or eyes. In this example, the device will display the currently displayed avatar feature option (eg, face shape option) in response to detecting the skin color selection. Update. Further, if a different avatar feature (eg, eye) is selected, the avatar feature option displayed for the eye also includes the selected skin color.

図8Aに示されているように、アバターの頭部アフォーダンス809aが選択されているため、デバイス600は、アバターの頭部の特徴に対応するアバター特徴部の特性及び特徴部オプションを表示している。表示されたアバター特徴部の特性は、肌の色特性808及び顔の形状特性810を含んでいる(アバターの頭部の特徴は、その他のアバター特徴部の特性を含むことができる)。肌の色特性808は、アバターの頭部の特徴(例えば、アバター805の肌の色)の色を変更するために選択され得る色オプション812を含む。デバイスが特定の色オプション812の選択を検出した場合、デバイスは、現在選択されているアバター特徴部(例えば、図8Aのアバターの頭部)の肌の色を、選択された色に一致するように変更する。いくつかの実施形態では、肌の色オプション812の選択は、顔の毛の特徴(例えば、眉、顎ひげなど)、目の色、又は唇の色などの、別のアバター特徴部の色にも影響を与える。図8Aに示された実施形態では、肌の色特性808は、他のアバター特徴部の色オプションの最初に表示された集合(例えば、図8Pの毛髪の色特性838を参照)に対して拡張された色オプション808の集合を含む。いくつかの実施形態では、色オプション808の拡張された集合は、横方向にスクロールすることができず(ただし、縦方向にスクロールすることはできる)、色オプションの集合を拡張するために選択できるオプション(図8AXのカラーピッカーオプション886など)を含まない。顔の形状特性810は、アバター805の顔の形状を変更するために選択できる顔の形状オプション814を含む。 As shown in FIG. 8A, since the avatar head affordance 809a is selected, the device 600 displays the avatar feature features and feature options corresponding to the avatar head features. .. The characteristics of the displayed avatar feature include skin color trait 808 and face shape trait 810 (the avatar head feature can include other avatar feature features). The skin color characteristic 808 includes a color option 812 that may be selected to change the color of the avatar's head feature (eg, the skin color of the avatar 805). If the device detects the selection of a particular color option 812, the device will match the skin color of the currently selected avatar feature (eg, the head of the avatar in FIG. 8A) to the selected color. Change to. In some embodiments, the choice of skin color option 812 is to the color of another avatar feature, such as facial hair features (eg, eyebrows, beard, etc.), eye color, or lip color. Also affects. In the embodiment shown in FIG. 8A, the skin color characteristic 808 extends to the initially displayed set of other avatar feature color options (see, eg, hair color characteristic 838 in FIG. 8P). Includes a set of color options 808. In some embodiments, the expanded set of color options 808 cannot be scrolled horizontally (but can be scrolled vertically) and can be selected to extend the set of color options. Does not include options (such as the color picker option 886 of FIG. 8AX). The face shape characteristic 810 includes a face shape option 814 that can be selected to change the face shape of the avatar 805.

いくつかの実施形態では、選択された特徴部オプションは、選択された特徴部オプションの周囲に表示された境界によって示される。例えば、顔の形状オプション814aの周囲に表示された境界818は、顔の形状オプション814aが現在選択されているアバターの顔の形状であることを示している。それに応じて、選択された顔の形状オプション814aと同じ顔の形状(例えば、丸い顎)を有するアバター805が表示されている。反対に、色オプション812が選択されていないため、肌の色(例えば、デフォルトの肌の色又は予め選択された肌の色)がないアバター805及び顔の形状オプション814が表示されている。 In some embodiments, the selected feature option is indicated by a boundary displayed around the selected feature option. For example, the border 818 displayed around the face shape option 814a indicates that the face shape option 814a is the face shape of the currently selected avatar. Accordingly, an avatar 805 having the same face shape (eg, round chin) as the selected face shape option 814a is displayed. Conversely, since the color option 812 is not selected, the avatar 805 and the face shape option 814 without skin color (eg, default skin color or preselected skin color) are displayed.

いくつかの実施形態では、表示されたアバター特徴部の特性はそれぞれ、他の隣接するアバター特徴部の特性から視覚的に区別される。いくつかの実施形態では、アバター特徴部の特性は、アバター特徴部の特性の個別のヘッダーによって視覚的に区別される。例えば、図8Aでは、肌の色特性808は、顔の形状ヘッダー816によって、顔の形状特性810から視覚的に区別されている。いくつかの実施形態では、アバター特徴部の特性は、その他のインジケータ(例えば、ディスプレイ601の幅を完全に、又は部分的に横切って伸びる横線など)によって、視覚的に区別される。 In some embodiments, the characteristics of each displayed avatar feature are visually distinguished from the characteristics of other adjacent avatar features. In some embodiments, the characteristics of the avatar feature are visually distinguished by the individual headers of the characteristics of the avatar feature. For example, in FIG. 8A, the skin color characteristic 808 is visually distinguished from the face shape characteristic 810 by the face shape header 816. In some embodiments, the characteristics of the avatar feature are visually distinguished by other indicators (eg, horizontal lines extending completely or partially across the width of the display 601).

図8Bで、デバイス600は、色オプション812aでの入力820(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、色オプション812aの選択を検出する。 In FIG. 8B, device 600 detects selection of color option 812a in response to receiving input 820 (eg, touch input on display 601) with color option 812a.

図8Cで、デバイス600は、色オプション812aの周囲に境界824を表示することによって、色オプション812aが選択されていることを示す。また、デバイス600は、選択された色オプション812aに一致する肌の色を有するように、アバター805及び顔の形状オプション814を変更する。加えて、デバイス600は、毛髪の色スライダー856(図8W~図8ACを参照)に関して後述される方法と同様の方法で調整できる、肌の色スライダー822を表示する。スライダー822は、選択された色オプション812aのグラデーションを調整するために使用される。いくつかの実施形態では、グラデーションは、例えば陰影、彩度、淡色、中間調、ハイライト、暖かさ、又は色相などの、選択された色オプション(例えば、肌の色オプション812a)の様々な特性を表現することができる。いくつかの実施形態では、特定の特性は、選択された肌の色に基づいて決定される。例えば、いくつかの実施形態では、より明るい肌の色が選択された場合、スライダーを使用して調整される特性は陰影特性であり、一方、浅黒い肌の色が選択された場合、スライダーを使用して調整される特性は彩度である。デバイス600は、選択された色オプション(例えば、選択された色オプション812a)の陰影に対する調整を検出することに応じて、アバター(例えば、アバター805)、肌の色を表示するすべての特徴部オプション(例えば、顔の形状オプション814)、及び肌の色による影響を受けるすべてのアバター特徴部の肌の色を変更する。 In FIG. 8C, device 600 indicates that color option 812a is selected by displaying a boundary 824 around color option 812a. The device 600 also modifies the avatar 805 and face shape option 814 to have a skin color that matches the selected color option 812a. In addition, the device 600 displays a skin color slider 822 that can be adjusted in a manner similar to that described below for the hair color slider 856 (see FIGS. 8W-8AC). Slider 822 is used to adjust the gradation of the selected color option 812a. In some embodiments, the gradient is a variety of properties of the selected color option (eg, skin color option 812a), such as shading, saturation, lightness, midtones, highlights, warmth, or hue. Can be expressed. In some embodiments, specific properties are determined based on the selected skin color. For example, in some embodiments, if a lighter skin color is selected, the characteristic adjusted using the slider is the shading characteristic, while if a darker skin color is selected, the slider is used. The characteristic adjusted in this way is saturation. The device 600 displays an avatar (eg, avatar 805), all feature options that display the skin color in response to detecting adjustments to the shading of the selected color option (eg, the selected color option 812a). (For example, face shape option 814), and change the skin color of all avatar feature areas that are affected by the skin color.

いくつかの実施形態では、選択された肌の色は、他のアバター特徴部(例えば、毛髪、唇など)の色又は色特性(例えば、基色、色相、輝度、陰影、彩度、中間調、ハイライト、暖かさ、アンダートーンなど)に影響を与える。例えば、アバターの毛髪又は顔の毛(例えば、眉又は顎ひげ)は、選択された肌の色に基づいて決定される、淡色を有してよい。例えば、肌の色が暗くなるほど、より暗い淡色(例えば、茶色又は黒色の淡色)を有する毛髪が生成され、一方、肌の色が明るいほど、より明るい淡色(例えば、ブロンド又は赤色の淡色)の毛髪が生成される。これらの淡色は、下で更に詳細に説明されているように、特定のアバター特徴部に適用される色に影響を与えることができる。同様に、アバターの唇の色は、選択された肌の色に基づく淡色を有することができる。例えば、アバターの唇の色は、選択された肌の色に基づく色、及び任意選択的に、赤色又はピンク色などの異なる色を有することができる。いくつかの実施形態では、異なる色が、色スライダー822の調整の設定に基づいて決定された量だけ、肌の色に結合される。例えば、スライダー822を一方向に調整することで、アバターの唇の色を構成する異なる色の値(例えば、アバターの唇の色における赤色又はピンク色の量)が増加し、スライダー822を別の方向に調整することで、アバターの唇の色を構成する異なる色の値が減少する。 In some embodiments, the selected skin color is the color or color characteristics of other avatar features (eg, hair, lips, etc.) (eg, base color, hue, brightness, shading, saturation, midtones, etc.). Affects highlights, warmth, undertones, etc.). For example, the avatar's hair or facial hair (eg, eyebrows or beard) may have a light color that is determined based on the selected skin color. For example, the darker the skin color, the darker the hair with a lighter color (eg, brown or black light color), while the lighter the skin color, the lighter the light color (eg, blonde or red light color). Hair is produced. These pale colors can affect the color applied to a particular avatar feature, as described in more detail below. Similarly, the avatar's lip color can have a light color based on the selected skin color. For example, the lips color of the avatar can have a color based on the selected skin color and optionally a different color such as red or pink. In some embodiments, different colors are combined with the skin color by an amount determined based on the adjustment settings of the color slider 822. For example, adjusting the slider 822 in one direction increases the different color values that make up the avatar's lip color (eg, the amount of red or pink in the avatar's lip color) and makes the slider 822 another. Adjusting the orientation reduces the values of the different colors that make up the lips color of the avatar.

図8Cに示されているように、アバターの頭部の特徴の肌の色を更新することは、アバターの鼻、耳、顔、及び唇828の肌の色を変更することを含む。いくつかの実施形態では、アバターの唇828の肌の色を更新することは、唇の外側領域828aの肌の色を変更すること、及び唇の内部828bを変更しないことを含む。いくつかの実施形態では、デバイス600は、アバターの肌とは異なる他のアバター特徴部(眉827及びアバターの目829など)の色も更新する。いくつかの実施形態では、他の特徴(例えば、眉827及び目829)の更新される色は、選択された肌の色に基づく。例えば、眉827の更新される色は、選択された肌の色オプション812aよりも暗くなるように決定された色に更新される。これらの更新は、アバター805、及び顔の形状オプション814などの他のアバター特徴部オプションの両方に表示される。 As shown in FIG. 8C, updating the skin color of the avatar's head features comprises changing the skin color of the avatar's nose, ears, face, and lips 828. In some embodiments, updating the skin color of the avatar's lips 828 comprises changing the skin color of the outer region 828a of the lips and not changing the inner 828b of the lips. In some embodiments, the device 600 also updates the colors of other avatar features (such as eyebrows 827 and avatar eyes 829) that are different from the avatar's skin. In some embodiments, the updated color of other features (eg, eyebrows 827 and eyes 829) is based on the selected skin color. For example, the updated color of the eyebrows 827 is updated to a color determined to be darker than the selected skin color option 812a. These updates are visible in both Avatar 805 and other Avatar Feature Options such as Face Shape Option 814.

図8Dで、デバイス600は、顔の形状オプション814bでの入力826(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、顔の形状オプション814bの選択を検出する。それに応じて、デバイス600は、肌の色スライダー822を図8Eのアバターの特性領域804から除去し、境界818を顔の形状オプション814aから顔の形状オプション814bに移動することによって、選択された顔の形状オプションを示し、814aの丸い顔の形状オプションから顔の形状オプション814bで表された異なる顔の形状(例えば、とがった顎、狭い頬)に移行するように、アバター805を変更する。したがって、アバター805は、図8Dに示されている丸い顎を有する状態から、図8Eに示されているとがった顎と狭い頬へ移行して、表示される。 In FIG. 8D, device 600 detects selection of face shape option 814b in response to receiving input 826 (eg, touch input on display 601) in face shape option 814b. Accordingly, the device 600 removes the skin color slider 822 from the characteristic area 804 of the avatar of FIG. 8E and moves the boundary 818 from the face shape option 814a to the face shape option 814b to select the face. The avatar 805 is modified to show the shape option of 814a and transition from the round face shape option of 814a to a different face shape represented by the face shape option 814b (eg, pointed chin, narrow cheek). Therefore, the avatar 805 is displayed by shifting from the state having the round jaw shown in FIG. 8D to the sharp jaw and the narrow cheek shown in FIG. 8E.

いくつかの実施形態では、特徴部オプションが選択された後に、デバイス600は、アバター特徴部領域807内の次のアバター特徴部を選択するようにユーザを導くために、アニメーションを表示する。例えば、図8Fで、デバイス600は、アバターの毛髪アフォーダンス809bを強調表示し、アバターの毛髪アフォーダンス809bを選択して次のアバター特徴部の編集に進むように、ユーザに対して促す。いくつかの実施形態では、このアニメーションは、デバイスがアバター編集ユーザインターフェースを最初に表示したときにのみ表示される。 In some embodiments, after the feature option is selected, the device 600 displays an animation to guide the user to select the next avatar feature in the avatar feature area 807. For example, in FIG. 8F, the device 600 highlights the avatar's hair affordance 809b and prompts the user to select the avatar's hair affordance 809b and proceed to edit the next avatar feature. In some embodiments, this animation is only displayed when the device first displays the avatar editing user interface.

図8Gで、デバイス600は、アバターの毛髪アフォーダンス809bでの入力830(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、アバターの毛髪アフォーダンス809bの選択を検出する。デバイス600は、アバターの毛髪アフォーダンス809bの選択を検出することに応じて、アバターの毛髪の特徴が選択されたことを示すようにアバター表示領域803を更新し、アバターの毛髪の特徴に対応するアバター特徴部の特性及び特徴部オプションを表示するようにアバターの特性領域804を更新する。この移行が、図8H~図8Oに示されている。 In FIG. 8G, the device 600 detects the selection of the avatar's hair affordance 809b in response to receiving an input 830 (eg, touch input on the display 601) at the avatar's hair affordance 809b. The device 600 updates the avatar display area 803 to indicate that the avatar's hair feature has been selected in response to detecting the selection of the avatar's hair affordance 809b, and the avatar corresponding to the avatar's hair feature. Update the avatar's characteristic area 804 to display feature features and feature options. This transition is shown in FIGS. 8H-8O.

いくつかの実施形態では、個別のアバター特徴部アフォーダンス809は、個別のアバター特徴部アフォーダンス809でのタップジェスチャによって、又はアバター特徴部領域807でのスワイプジェスチャ(又は、任意選択的に、アバター805以外のアバター表示領域803上の任意の位置でのスワイプジェスチャ)によって選択され得る。そのような実施形態では、スワイプジェスチャによって、アバター特徴部領域807を横方向にスクロールし、所望のアバター特徴部アフォーダンス809をアバター805の直下に配置することができる。デバイス600は、タッチのリフトオフを検出することに応じて、スクロールが終了した後にアバター805の直下に配置されたアバター特徴部アフォーダンスを(アフォーダンスを強調表示することを含めて)選択する。 In some embodiments, the individual avatar feature affordance 809 is either by a tap gesture in the individual avatar feature affordance 809 or by a swipe gesture in the avatar feature region 807 (or optionally other than the avatar 805). Can be selected by a swipe gesture) at any position on the avatar display area 803. In such an embodiment, the swipe gesture allows the avatar feature region area 807 to be scrolled laterally and the desired avatar feature affordance 809 to be placed directly below the avatar 805. The device 600 selects (including highlighting the affordance) the avatar feature affordance placed directly under the avatar 805 after scrolling is finished in response to detecting the touch lift-off.

図8Hに示されているように、デバイス600は、アバターの毛髪アフォーダンス809bを強調表示し、アバターの毛髪アフォーダンス809bがアバター805の直下に配置されるように、左にずれたアバター特徴部アフォーダンス809を表示することによって、アバター表示領域803を更新する。アバターの目アフォーダンス809cが(図8Gでのその位置に対して)左にずれ、現在、アバターの唇アフォーダンス809dがディスプレイ601の右端の縁部に表示されている。 As shown in FIG. 8H, the device 600 highlights the avatar's hair affordance 809b, and the avatar feature portion affordance 809 is offset to the left so that the avatar's hair affordance 809b is placed directly below the avatar 805. Is displayed to update the avatar display area 803. The avatar's eye affordance 809c has shifted to the left (relative to its position in FIG. 8G) and the avatar's lip affordance 809d is now displayed on the right edge of the display 601.

デバイス600は、アバターの顔フィーチャに対応するアバター特徴部の特性(例えば、肌の色特性808及び顔の形状特性810)を表示することを止め、新しく選択されたアバター特徴部に対応する新しいアバター特徴部の特性及び特徴部オプションを表示することによって、アバターの特性領域804を更新する。図8H~図8Oに示されている実施形態などの、いくつかの実施形態では、デバイス600は、カスケード効果で新しいアバター特徴部の特性及び特徴部オプションを表示し、それによって、アバターの毛髪の特徴に対応するアバター特徴部の特性が、左右(例えば、左から右へ)の順序、及び上から下へ(例えば、アバターの特性領域804の上部にある最初のアバター特徴部の特性から、アバターの特性領域804の下部にある最後のアバター特徴部の特性へ)の順序で、アバターの特性領域804に表示される。 The device 600 stops displaying the characteristics of the avatar feature corresponding to the face feature of the avatar (eg, skin color characteristic 808 and face shape characteristic 810), and the new avatar corresponding to the newly selected avatar feature. The characteristic area 804 of the avatar is updated by displaying the characteristics of the characteristic portion and the characteristic portion option. In some embodiments, such as those shown in FIGS. 8H-8O, the device 600 displays new avatar feature features and feature options in a cascade effect, thereby displaying the avatar's hair. The characteristics of the avatar feature corresponding to the feature are from the left and right (eg, left to right) order and from top to bottom (eg, the characteristic of the first avatar feature at the top of the avatar's characteristic area 804). It is displayed in the characteristic area 804 of the avatar in the order of (to the characteristic of the last avatar characteristic part at the bottom of the characteristic area 804).

例えば、図8H及び図8Iは、ディスプレイ601を左から右へ横切ってスライドする毛髪の色オプションのアニメーションを伴ってディスプレイ601上に現れる毛髪の色オプション832を示している。すべての毛髪の色オプション832が配置される前に、デバイス600は、ディスプレイ601上の毛髪の色オプション832の下に、1つずつ、左から右への順序で現れる毛髪のテクスチャーオプション834のアニメーションの表示を開始する(図8Jで開始して、図8Lで終了する)。毛髪のテクスチャーオプション834が配置された後に、デバイス600は、ディスプレイ601上の毛髪のテクスチャーオプション834の下に、1つずつ、左から右への順序で現れる髪形オプション836を表示する(図8Mで開始して、図8Oで終了する)。特徴部オプションの個別の集合の連続的配置が、特徴部オプションの前の集合が配置される前(例えば、毛髪の色オプション832に対する毛髪のテクスチャーオプション834のタイミングと同様)、又は特徴部オプションの前の集合が配置された後(例えば、毛髪のテクスチャーオプション834に対する髪形オプション836のタイミングと同様)のいずれかで開始できるということが理解されるべきである。 For example, FIGS. 8H and 8I show a hair color option 832 that appears on the display 601 with an animation of the hair color option that slides across the display 601 from left to right. Before all hair color options 832 are placed, the device 600 animates the hair texture option 834, one by one, appearing in left-to-right order under the hair color option 832 on the display 601. Is started (starting in FIG. 8J and ending in FIG. 8L). After the hair texture option 834 has been placed, the device 600 displays hairstyle options 836, one by one, appearing in left-to-right order under the hair texture option 834 on the display 601 (in FIG. 8M). Start and end in FIG. 8O). The continuous placement of the individual sets of feature options is before the set before the feature option is placed (eg, similar to the timing of hair texture option 834 for hair color option 832), or of feature options. It should be understood that it can start either after the previous set has been placed (eg, similar to the timing of hairstyle option 836 for hair texture option 834).

前述したように、選択されたアバター特徴部の特徴部オプションの一部は、毛髪の色オプションの外観に関して上で説明したようにスライドするカスケード効果で表示され、一方、選択されたアバター特徴部の他の特徴部オプションは、毛髪のテクスチャーオプション834及び髪形オプション836に関して説明したように反復的に配置するカスケード効果で表示される。本明細書において説明された実施形態のいずれかに従って、これらのカスケード効果のいずれかを、特徴部オプションの配置の表示に使用することができる。 As mentioned earlier, some of the feature options for the selected avatar feature are displayed in a cascading effect that slides as described above with respect to the appearance of the hair color option, while for the selected avatar feature. Other feature options are displayed in a cascading effect that is iteratively placed as described for Hair Texture Option 834 and Hairstyle Option 836. According to any of the embodiments described herein, any of these cascade effects can be used to display the placement of feature options.

図8Pで、デバイス600は、毛髪の色オプション832を有する毛髪の色特性838、毛髪のテクスチャーオプション834及びテクスチャーヘッダー841を有する毛髪のテクスチャー特性840、並びに髪形オプション836及び髪形ヘッダー843を有する髪形特性842を表示している。図8Pでは、毛髪の色オプションが選択されていない。しかし、境界844及び846によってそれぞれ示されているように、ストレートヘアのテクスチャーオプション834a及びはげ頭の髪形オプション836aが選択されている。はげ頭の髪形を有するアバター805が表示されているが、ストレートヘアのテクスチャーは、はげ頭の髪形のため、アバター805上で識別できない。しかし、ストレートヘアのテクスチャーは、ピクシーカットの髪形オプション836b及びボブカットの髪形オプション836cには反映され、これらの髪形オプションは、ストレートヘアのテクスチャーを有する異なる髪形を表示する。 In FIG. 8P, device 600 has a hair color characteristic 838 with a hair color option 832, a hair texture characteristic 840 with a hair texture option 834 and a texture header 841, and a hairstyle characteristic with a hairstyle option 836 and a hairstyle header 843. 842 is displayed. In FIG. 8P, the hair color option is not selected. However, as indicated by boundaries 844 and 846, respectively, the straight hair texture option 834a and the bald hairstyle option 836a are selected. An avatar 805 with a bald head hairstyle is displayed, but the texture of the straight hair is indistinguishable on the avatar 805 due to the bald head hairstyle. However, the texture of straight hair is reflected in the pixie cut hairstyle option 836b and the bob cut hairstyle option 836c, and these hairstyle options display different hairstyles with straight hair textures.

図8Pに示されているように、デバイス600は、短い髪形オプション836bでの入力848(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、ピクシーカットの髪形オプション836bの選択を検出する。図8Qで、デバイス600は、図8Pで選択されたピクシーカットの髪形オプション836bに対応するアバターの毛髪851を有し、選択されたストレートヘアのテクスチャー834aに対応するストレートヘアのテクスチャーを有するアバター805を表示している。デバイス600は、ピクシーカットの髪形オプション836bの検出された選択の視覚的な確認を提供するために、はげ頭の髪形オプション836aからピクシーカットの髪形オプション836bに移動した境界846も表示する。 As shown in FIG. 8P, device 600 detects the selection of pixie cut hairstyle option 836b in response to receiving input 848 (eg, touch input on display 601) with short hairstyle option 836b. do. In FIG. 8Q, device 600 has avatar hair 851 corresponding to the pixie cut hairstyle option 836b selected in FIG. 8P and avatar 805 having a straight hair texture corresponding to the selected straight hair texture 834a. Is displayed. The device 600 also displays the boundary 846 moved from the bald head hairstyle option 836a to the pixie cut hairstyle option 836b to provide a visual confirmation of the detected selection of the pixie cut hairstyle option 836b.

いくつかの実施形態では、特徴部オプションは、特徴部オプションに対応する個別のアバター特徴部のズームイン(例えば、拡大)表示を含む。そのような特徴部オプションでは、通常、アバター特徴部のクローズアップ表示が、異なるアバター特徴部オプションを区別するのに十分な詳細を示すために有益である。例えば、図8Rで、デバイス600は、毛髪のテクスチャー特性840に対応する毛髪のテクスチャーオプション834を表示している。毛髪のテクスチャーオプション834はそれぞれ、毛髪のテクスチャーオプション834によって表される異なる毛髪のテクスチャーがより良く示されるように、アバターの毛髪の拡大表示を表示しているため、これらの毛髪のテクスチャーオプション834は、ユーザによって容易に区別され得る。ストレートヘアのテクスチャーオプション834aは、ストレートヘアのテクスチャーを有するアバターの毛髪の拡大表示を表示する。ウェーブヘアのテクスチャーオプション834bは、ウェーブヘアのテクスチャーを有するアバターの毛髪の拡大表示を表示する。縮毛のテクスチャーオプション834cは、縮毛のテクスチャーを有するアバターの毛髪の拡大表示を表示する。 In some embodiments, the feature option includes a zoom-in (eg, magnified) display of the individual avatar feature corresponding to the feature option. In such feature options, a close-up view of the avatar feature is usually useful to show enough detail to distinguish between different avatar feature options. For example, in FIG. 8R, device 600 displays hair texture option 834 corresponding to hair texture property 840. These hair texture options 834 are because each hair texture option 834 displays a magnified view of the avatar's hair so that the different hair textures represented by the hair texture option 834 are better shown. , Can be easily distinguished by the user. The straight hair texture option 834a displays a magnified view of the hair of an avatar with a straight hair texture. The wave hair texture option 834b displays a magnified view of the avatar's hair with the wave hair texture. The curly hair texture option 834c displays a magnified view of the avatar's hair with the curly hair texture.

図8Rに示されているように、デバイス600は、ウェーブヘアのテクスチャーオプション834bでの入力850(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、ウェーブヘアのテクスチャーオプション834bの選択を検出する。 As shown in FIG. 8R, the device 600 selects wave hair texture option 834b in response to receiving input 850 at wave hair texture option 834b (eg, touch input on display 601). Is detected.

図8S~図8Uは、図8Rで選択されたウェーブヘアのテクスチャーオプション834bを検出することに応じてアバター805及び個別の髪形特徴部オプション836を更新するデバイス600を示している。例えば、アバターの毛髪851は、図8Rでのストレートヘアのテクスチャーを有する外観から、図8Sでのウェーブヘアのテクスチャーを有する外観へ移行する。 8S-8U show a device 600 that updates the avatar 805 and the individual hairstyle feature option 836 in response to detecting the wave hair texture option 834b selected in FIG. 8R. For example, the avatar hair 851 transitions from the appearance with the texture of straight hair in FIG. 8R to the appearance with the texture of wave hair in FIG. 8S.

更に、本明細書において説明された実施形態では、異なる特徴部オプションの選択による影響を受けるアバター特徴部を示す特徴部オプションが、その異なる特徴部オプションの選択を反映するように更新される。例えば、図8S~図8Uで、ピクシーカットの髪形オプション836b及びボブカットの髪形オプション836cがアバターの毛髪(具体的には、ウェーブヘアのテクスチャーオプション834bの選択による影響を受けるアバターの毛髪)を示しているため、髪形オプション836b及び836cに表示された個別の髪形が、図8Rでのストレートヘアのテクスチャーを有する外観から選択されたウェーブヘアのテクスチャーを有する異なる外観へ移行する個別の髪形オプションを表示するように、更新される。はげ頭の髪形オプション836aは、アバターの毛髪を表示しない。したがって、はげ頭の髪形オプション836aは、異なる外観に移行して表示されない。 Further, in the embodiments described herein, the feature option indicating the avatar feature affected by the selection of the different feature option is updated to reflect the selection of the different feature option. For example, in FIGS. 8S-8U, the pixie cut hairstyle option 836b and the bob cut hairstyle option 836c indicate avatar hair (specifically, avatar hair affected by the choice of wave hair texture option 834b). Therefore, the individual hairstyles displayed in the hairstyle options 836b and 836c display the individual hairstyle options that transition from the appearance with the texture of straight hair in FIG. 8R to a different appearance with the texture of the wave hair selected. Will be updated. The bald head hairstyle option 836a does not display the avatar's hair. Therefore, the bald hairstyle option 836a transitions to a different appearance and is not displayed.

いくつかの実施形態では、特定のアバター特徴部の特性に関する特徴部オプションが選択された場合、その選択に応じて、その特性に関して表示される特徴部オプションは変化しないが、他のアバター特徴部の特性に関する特徴部オプションは変化する。例えば、図8S~図8Uで、ウェーブヘアのテクスチャーオプション834bが選択されたときに、毛髪のテクスチャーオプション834は変化しないが、髪形オプション836は変化する。同様に、図8AN~図8AQ(後述される)に示されているように、異なる髪形オプションが選択されたときに、髪形オプションは変化しないが、他の特徴部オプション(例えば、毛髪のテクスチャーオプション)は変化する(例えば、図8AQで変更された毛髪のテクスチャーオプション834)。 In some embodiments, when a feature option for a particular avatar feature is selected, the feature option displayed for that characteristic does not change, depending on the selection, but for other avatar features. Feature options for characteristics vary. For example, in FIGS. 8S-8U, when the wave hair texture option 834b is selected, the hair texture option 834 does not change, but the hairstyle option 836 does. Similarly, as shown in FIGS. 8AN-8AQ (discussed below), when different hairstyle options are selected, the hairstyle options do not change, but other feature options (eg, hair texture options). ) Varies (eg, changed hair texture option 834 in FIG. 8AQ).

ピクシーカットの髪形オプション836b及びボブカットの髪形オプション836cの移行が、図8S~図8Uに示されている。図8Rでのストレートヘアのテクスチャーを有する外観から、図8S及び図8Tで選択されたウェーブヘアのテクスチャーを有する異なる外観へ移行している、ピクシーカットの髪形オプション836bが表示されている。この移行は、ストレートヘアのテクスチャーからウェーブヘアのテクスチャーへの移行中に、表示されたピクシーカットの髪形オプション836b及び任意選択的に境界846を拡大すること(図8Sの拡大されたピクシーカットの髪形オプション836b’及び拡大された境界846’を参照)、並びにその後、ウェーブヘアのテクスチャーを有する外観への移行が完了した後に、図8Tでピクシーカットの髪形オプション836bを再び元のサイズに縮小することを含む。図8Sでのストレートヘアのテクスチャーを有する外観から、図8T及び図8Uで選択されたウェーブヘアのテクスチャーを有する異なる外観へ移行している、ボブカットの髪形オプション836cが表示されている。この移行は、ストレートヘアのテクスチャーからウェーブヘアのテクスチャーへの移行中に、表示されたボブカットの髪形オプション836cを拡大すること(図8Tの拡大されたボブカットの髪形オプション836c’を参照)、並びにその後、ウェーブヘアのテクスチャーを有する外観への移行が完了した後に、図8Uでボブカットの髪形オプション836cを再び元のサイズに縮小することを含む。 The transition between the pixie cut hairstyle option 836b and the bob cut hairstyle option 836c is shown in FIGS. 8S-8U. A pixie cut hairstyle option 836b is displayed, transitioning from the textured appearance of straight hair in FIG. 8R to a different appearance with the texture of wave hair selected in FIGS. 8S and 8T. This transition is to expand the displayed pixie cut hairstyle option 836b and optionally the border 846 during the transition from straight hair texture to wave hair texture (enlarged pixie cut hairstyle in FIG. 8S). See option 836b'and enlarged border 846'), and then reduce the pixie cut hairstyle option 836b back to its original size in FIG. 8T after the transition to the textured appearance of the wave hair is complete. including. A bobcut hairstyle option 836c is displayed, transitioning from the textured appearance of straight hair in FIG. 8S to a different appearance with the texture of wave hair selected in FIGS. 8T and 8U. This transition expands the displayed bobcut hairstyle option 836c during the transition from straight hair texture to wave hair texture (see Enlarged Bobcut Hairstyle Option 836c'in Figure 8T), and then. Includes reducing the bobcut hairstyle option 836c back to its original size in FIG. 8U after the transition to a wavy hair textured appearance is complete.

ピクシーカットの髪形オプション836bの移行が完了した後に(例えば、拡大されたピクシーカットの髪形オプション836b’が図8Tで元のサイズに戻るのを表示した後に)、ボブカットの髪形オプション836cが移行される。移行中の特徴部オプションを瞬間的に拡大する表示効果を、表示される順序における移行完了のタイミングと組み合わせることで、波及効果の外観を与え、それによって、異なる特徴部オプション(例えば、移行中の特徴部オプション以外の特徴部オプション)のユーザの選択に基づいて特定の特徴部オプションが移行していることの視覚的なインジケーションをユーザに提供する。また、この視覚効果は、個別の特徴部オプションが移行処理中であることを(例えば、特徴部オプションが拡大されているときに)正確にユーザに示し、移行がいつ完了したかのインジケーションも(例えば、特徴部オプションが元の小さいサイズに戻るときに)提供する。また、特定の特徴部オプションが(もしあれば)瞬間的に拡大されて表示されないことによって、そのような特徴部オプションが選択による影響を受けなかったということの視覚的な確認を、ユーザに提供する。 After the migration of the pixie cut hairstyle option 836b is complete (eg, after displaying the enlarged pixie cut hairstyle option 836b'return to its original size in Figure 8T), the bobcut hairstyle option 836c is migrated. .. A display effect that momentarily magnifies the feature option during transition is combined with the timing of the completion of the transition in the order in which it is displayed to give the appearance of a spillover effect, thereby giving a different feature option (eg, during transition). It provides the user with a visual indication that a particular feature option is migrating based on the user's choice of the feature option other than the feature option). This visual effect also indicates to the user exactly that the individual feature option is in the process of migration (eg, when the feature option is magnified) and also indicates when the migration is complete. Provided (for example, when the feature option reverts to its original smaller size). It also provides the user with a visual confirmation that certain feature options were not affected by the selection by momentarily magnifying and not displaying them (if any). do.

図8Vで、デバイス600は、毛髪の色オプション832aでの入力852(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、毛髪の色オプション832aの選択を検出する。 In FIG. 8V, the device 600 detects the selection of the hair color option 832a in response to receiving the input 852 (eg, the touch input on the display 601) in the hair color option 832a.

図8Wで、デバイス600は、毛髪の色オプション832aの周囲に境界854を表示することによって、毛髪の色オプション832aが選択されていることを示す。デバイス600は、選択された毛髪の色オプション832aに一致する毛髪の色を有するように、アバターの毛髪851、眉827、毛髪のテクスチャーオプション834、及び髪形オプション836(例えば、836b及び836c)も変更する。いくつかの実施形態では、肌の色及び毛髪の色の組み合わせに基づいて、眉827の色(又は色特性)が決定される。例えば、選択された毛髪の色に基づいて眉827の色相を決定することができ、選択された肌の色に基づいて眉827の輝度を決定することができる。前述した波及効果の外観に従って、毛髪のテクスチャーオプション834及び髪形オプション836の移行を表示できる。例えば、毛髪のテクスチャーオプション834a~834cが(例えば、瞬間的に拡大して)順番に移行した後に、髪形オプション836b及び836cが(例えば、瞬間的に拡大して)順番に移行する。 In FIG. 8W, the device 600 indicates that the hair color option 832a is selected by displaying a boundary 854 around the hair color option 832a. Device 600 also modifies the avatar's hair 851, eyebrows 827, hair texture option 834, and hairstyle options 836 (eg, 836b and 836c) to have a hair color that matches the selected hair color option 832a. do. In some embodiments, the color (or color characteristics) of the eyebrows 827 is determined based on the combination of skin color and hair color. For example, the hue of the eyebrows 827 can be determined based on the selected hair color, and the brightness of the eyebrows 827 can be determined based on the selected skin color. According to the appearance of the spillover described above, the transition of hair texture option 834 and hairstyle option 836 can be displayed. For example, hair texture options 834a-834c are transitioned in sequence (eg, momentarily expanded), followed by hairstyle options 836b and 836c (eg, momentarily expanded).

デバイス600は、選択された毛髪の色オプション832aのグラデーションを調整する毛髪の色スライダー856も表示する。毛髪の色スライダー856は、選択された色832aの高いグラデーション値857aと低いグラデーション値857bの間に広がるグラデーション領域857(本明細書では、トラックとも呼ばれる)内の初期(例えば、デフォルト)位置を有するセレクターアフォーダンス858(本明細書では、サムとも呼ばれる)を含む。セレクターアフォーダンス858を領域857内で(例えば、スライダーでの入力の大きさ及び方向に従って)動かして、グラデーション領域857内のセレクターアフォーダンス858の位置に基づいて、選択された色832aのグラデーションを調整することができる。選択された毛髪の色オプション832aのグラデーションを調整すると、デバイスは、選択された色832aを有するすべてのアバター特徴部を(そのようなアバター特徴部を表示する特徴部オプション及び選択された毛髪の色オプションの色を含めて)変更する(例えば、アフォーダンス858が領域857内で移動したときに、図8AY及び図8AZにおいて832aが変化する)。特に指定されない限り、本明細書において特定の色オプションを変更することへの参照が行われた場合、この変更は、この色オプションに関連付けられた個別の特徴、及び個別のアバター特徴部を表示する特徴部オプションにも適用される。 The device 600 also displays a hair color slider 856 that adjusts the gradation of the selected hair color option 832a. The hair color slider 856 has an initial (eg, default) position within the gradient region 857 (also referred to herein as a track) that extends between the high gradient value 857a and the low gradient value 857b of the selected color 832a. Includes selector affordance 858 (also referred to herein as Sam). Moving the selector affordance 858 within the area 857 (eg, according to the magnitude and direction of the input on the slider) to adjust the gradient of the selected color 832a based on the position of the selector affordance 858 within the gradient area 857. Can be done. Adjusting the gradient of the selected hair color option 832a causes the device to display all avatar features with the selected color 832a (feature options to display such avatar features and selected hair color). Change (including optional colors) (eg, 832a changes in FIGS. 8AY and 8AZ as the affordance 858 moves within region 857). Unless otherwise specified, when reference is made to changing a particular color option herein, this change displays the individual features associated with this color option, as well as the individual avatar features. It also applies to feature options.

いくつかの実施形態では、グラデーションは、例えば陰影、彩度、淡色、中間調、ハイライト、暖かさ、輝度、又は色相などの、選択された毛髪の色の様々な特性を表現することができる。いくつかの実施形態では、グラデーションは、選択された色とは異なる、アバターの選択された肌の色に任意選択的に基づく、アバターの毛髪の淡色を表すことができる。グラデーション領域857内でセレクターアフォーダンス858を動かすことによって、淡色のグラデーションを調整することができ、それによって、選択された毛髪の色及びアバターの毛髪851の外観を最終的に変更する。いくつかの実施形態では、毛髪の淡色は、選択された肌の色に基づいて決定された自然な毛髪の色に対応する。例えば、肌の色が暗いほど、毛髪はより暗い淡色(例えば、茶色又は黒色の淡色)を有し、一方、肌の色が明るいほど、より明るい淡色(例えば、ブロンド又は赤色の淡色)の毛髪が生成される。淡色を調整することで、特定の色が適用されるだけでなく、淡色のグラデーションに基づいて、その色の明度も適用された外観を毛髪に与える。例えば、非自然的な選択された毛髪の色(例えば、紫色)を有するアバターの毛髪の場合、淡色を低いグラデーション値857bに調整すると、わずかに自然であるか、又は全く自然ではない淡色の毛髪の色(例えば、茶色)が得られる。これによって、紫色の毛髪の色を強調し、アバターが大量の紫色の毛髪染剤を塗布したような外観が得られる。反対に、淡色を高いグラデーション値857aに調整すると、毛髪(又は、アバターの眉若しくは唇などのその他のアバター特徴部)の自然な淡色を強調し、アバターが少量の紫色の毛髪染剤を塗布したような外観が得られる。スライダーに沿ってセレクターアフォーダンス858の位置を調整することによって、ユーザは、デバイス600が選択された色832aに適用する淡色のグラデーションを調整することができる。 In some embodiments, the gradient can represent various characteristics of the selected hair color, such as shading, saturation, light color, halftone, highlighting, warmth, brightness, or hue. .. In some embodiments, the gradient can represent a pale color of the avatar's hair, which is different from the selected color and is optionally based on the avatar's selected skin color. By moving the selector affordance 858 within the gradation area 857, the light color gradation can be adjusted, thereby finally changing the selected hair color and the appearance of the avatar's hair 851. In some embodiments, the light color of the hair corresponds to a natural hair color determined based on the selected skin color. For example, the darker the skin color, the darker the light color (eg, brown or black light color), while the lighter the skin color, the lighter the light color (eg, blonde or red light color) hair. Is generated. Adjusting the lightness gives the hair an appearance that not only applies a particular color, but also the lightness of that color based on the lightness gradient. For example, for avatar hair with a non-natural selected hair color (eg purple), adjusting the light color to a low gradient value of 857b will result in slightly natural or non-natural light hair. Color (eg brown) is obtained. This enhances the color of the purple hair and gives the avatar the appearance of applying a large amount of purple hair dye. Conversely, adjusting the light color to a high gradient value of 857a emphasized the natural light color of the hair (or other avatar features such as the avatar's eyebrows or lips), and the avatar applied a small amount of purple hair dye. Appearance is obtained. By adjusting the position of the selector affordance 858 along the slider, the user can adjust the light color gradation that the device 600 applies to the selected color 832a.

いくつかの実施形態では、セレクターアフォーダンス858は、選択された色832aの現在選択されているグラデーションを表す色を含む。セレクターアフォーダンス858は、初期位置では、選択された色832aが最初に表示されるときの選択された色832aと同じ色を有する。言い換えると、選択された色832aは、最初に選択されるときに、初期(例えば、デフォルト又は予め選択された)色を有する(例えば、図8Vを参照)。毛髪の色スライダー856が最初に表示されるときに、セレクターアフォーダンス858は、領域857の中央での初期位置及びセレクターの色832aの初期色に対応する色を有する。セレクターアフォーダンス858の位置を初期位置から異なる位置に移動すると、デバイスは、セレクターアフォーダンス858の新しい位置に基づいて、選択された色832aのグラデーション、セレクターアフォーダンス858の対応する色、及び選択された色832aを有するすべてのアバター特徴部(そのようなアバター特徴部を表示する特徴部オプションを含む)を変更する。図8Xに示された実施形態では、セレクターアフォーダンス858を高いグラデーション値857aに向かって動かすと選択された色832aが暗くなり、一方、セレクターアフォーダンス858を低いいグラデーション値857bに向かって動かすと選択された色832aが明るくなる。 In some embodiments, the selector affordance 858 includes a color that represents the currently selected gradient of the selected color 832a. The selector affordance 858 initially has the same color as the selected color 832a when the selected color 832a is first displayed. In other words, the selected color 832a has an initial (eg, default or preselected) color when first selected (see, eg, FIG. 8V). When the hair color slider 856 is first displayed, the selector affordance 858 has a color corresponding to the initial position in the center of region 857 and the initial color of the selector color 832a. When the position of the selector affordance 858 is moved from the initial position to a different position, the device bases the gradient of the selected color 832a, the corresponding color of the selector affordance 858, and the selected color 832a based on the new position of the selector affordance 858. Modify all avatar features with (including feature options to display such avatar features). In the embodiment shown in FIG. 8X, moving the selector affordance 858 towards the higher gradient value 857a darkens the selected color 832a, while moving the selector affordance 858 towards the lower gradient value 857b is selected. The color 832a becomes brighter.

例えば、図8X~図8Zで、デバイス600は、セレクターアフォーダンス858でタッチアンドドラッグ入力860を検出し、それに応じて、入力860のドラッグ移動に基づいて領域857内でセレクターアフォーダンス858の移動を表示し、領域857内のセレクターアフォーダンス858の位置に基づいて、セレクターアフォーダンス858の色、選択された色832a、並びにアバターの毛髪851及び特徴部オプション(例えば、834a~834c、836b、及び836c)に表示されるすべてのアバターの毛髪の色を更新する。 For example, in FIGS. 8X-8Z, the device 600 detects a touch and drag input 860 with the selector affordance 858 and accordingly displays the movement of the selector affordance 858 within region 857 based on the drag movement of the input 860. , Displayed in the color of the selector affordance 858, the selected color 832a, and the avatar's hair 851 and feature options (eg, 834a-834c, 836b, and 836c), based on the location of the selector affordance 858 within region 857. Update the hair color of all avatars.

図8Xで、入力860は、セレクターアフォーダンス858の初期位置(領域857の中央)に対応する初期位置860’を有する。セレクターアフォーダンス858が初期(例えば、デフォルト)位置にあるため、デバイス600は、選択された色832a、セレクターアフォーダンス858の色、選択された色832aを有するその他の表示された特徴をいずれも変更しない。いくつかの実施形態では、デバイス600は、セレクターアフォーダンス858で入力(例えば、入力860)を検出することに応じて、例えば触覚フィードバック(例えば、触知出力)などのフィードバックを生成し、この触覚フィードバックは、セレクターアフォーダンス858がデフォルト位置に配置されたときに(又は、セレクターアフォーダンス858が異なる位置からデフォルト位置(例えば、スライダー856の中央)に移動されたときに)、オーディオ出力を伴うか又は伴わずに、任意選択的に生成される。これによって、セレクターアフォーダンス858が選択された色832aの初期色(例えば、値)に対応する初期(例えば、デフォルト)位置に配置されたときに、ユーザに通知するためのフィードバックを提供する。 In FIG. 8X, the input 860 has an initial position 860'corresponding to the initial position of the selector affordance 858 (center of region 857). Since the selector affordance 858 is in the initial (eg, default) position, the device 600 does not change any of the selected color 832a, the color of the selector affordance 858, or any other displayed feature having the selected color 832a. In some embodiments, the device 600 generates feedback, such as tactile feedback (eg, tactile output), in response to detecting an input (eg, input 860) with the selector affordance 858, and this tactile feedback. With or without audio output when the selector affordance 858 is placed in the default position (or when the selector affordance 858 is moved from a different position to the default position (eg, in the center of the slider 856)). , Arbitrarily generated. This provides feedback to notify the user when the selector affordance 858 is placed in the initial (eg, default) position corresponding to the initial color (eg, value) of the selected color 832a.

図8Yで、デバイス600は、第2の位置860’’に移動する入力860を検出し、それに応じて、第2の位置860’’に対応する第2の位置でセレクターアフォーダンス858を表示する。セレクターアフォーダンス858の第2の位置は、領域857に沿って選択される色832aの(図8Xに示されたグラデーションと比較して)より大きいグラデーション(例えば、より暗い陰影又はより大きい淡色)に対応する。したがって、デバイス600は、領域857内のセレクターアフォーダンス858の相対位置に基づいて、より大きいグラデーションを有するセレクターアフォーダンス858を表示する。また、デバイス600は、選択された色832a、及び選択された色832aを表示するすべてのフィーチャ(例えば、アバターの毛髪851、毛髪のテクスチャーオプション834a~834c、並びに髪形オプション836b及び836c)を、より大きいグラデーション(例えば、陰影又は淡色)を有するように更新する。 In FIG. 8Y, the device 600 detects an input 860 moving to a second position 860 ″ and accordingly displays a selector affordance 858 at a second position corresponding to the second position 860 ″. The second position of the selector affordance 858 corresponds to a larger gradation (eg, darker shading or larger light color) of color 832a selected along region 857 (compared to the gradation shown in FIG. 8X). do. Therefore, the device 600 displays a selector affordance 858 with a larger gradation based on the relative position of the selector affordance 858 within region 857. The device 600 also includes all the features displaying the selected color 832a and the selected color 832a (eg, avatar hair 851, hair texture options 834a-834c, and hairstyle options 836b and 836c). Update to have a large gradient (eg shade or light color).

図8Zで、デバイス600は、第3の位置860’’’に移動する入力860を検出し、それに応じて、第3の位置860’’’に対応する第3の位置でセレクターアフォーダンス858を表示する。セレクターアフォーダンス858の第3の位置は、図8Yに示されているグラデーションよりも大きいグラデーション(例えば、より暗い陰影又はより大きい淡色)に対応する。したがって、デバイス600は、領域857内のセレクターアフォーダンス858の相対位置に基づいて、より大きいグラデーションを有するセレクターアフォーダンス858を表示する。また、デバイス600は、選択された色832a、及び選択された色832aを表示するすべてのフィーチャ(例えば、アバターの毛髪851、毛髪のテクスチャーオプション834a~834c、並びに髪形オプション836b及び836c)を、図8Zに示されているより大きいグラデーション(例えば、より暗い陰影又はより大きい淡色)を有するように更新する。 In FIG. 8Z, the device 600 detects an input 860 moving to a third position 860'''' and accordingly displays a selector affordance 858 at a third position corresponding to the third position 860''''. do. The third position of the selector affordance 858 corresponds to a gradation larger than the gradation shown in FIG. 8Y (eg, a darker shade or a larger light color). Therefore, the device 600 displays a selector affordance 858 with a larger gradation based on the relative position of the selector affordance 858 within region 857. Device 600 also illustrates the selected color 832a and all features displaying the selected color 832a (eg, avatar hair 851, hair texture options 834a-834c, and hairstyle options 836b and 836c). Update to have a larger gradation (eg, darker shades or larger light colors) shown in 8Z.

図8AAで、デバイス600は、セレクターアフォーダンス858が図8Z示されている位置860’’’に対応する位置(例えば、858’)にあるときに、入力860の終了(例えば、タッチアンドドラッグ入力のリフトオフ)を検出する。したがって、デバイス600は、入力860が終了したときに、選択された色832a(及び、選択された色832aを有するすべてのフィーチャ)の選択されたグラデーションを維持する。いくつかの実施形態(例えば、後述される図8AS及び図8ATを参照)では、デバイス600は、セレクターアフォーダンス858の位置及び選択された色832aの変更されたグラデーションを含めて、異なる色オプション832が選択された後でも、変更された毛髪の色スライダー856を維持する。 In FIG. 8AA, the device 600 ends input 860 (eg, for touch-and-drag input) when the selector affordance 858 is at a position (eg, 858') corresponding to position 860''' shown in FIG. 8Z. Lift off) is detected. Therefore, the device 600 maintains the selected gradient of the selected color 832a (and all features with the selected color 832a) when the input 860 is finished. In some embodiments (see, eg, FIGS. 8AS and 8AT below), the device 600 has different color options 832, including the position of the selector affordance 858 and the modified gradation of the selected color 832a. Keeps the modified hair color slider 856 even after being selected.

図8ABで、デバイス600は、毛髪の色オプション832bでの入力861(例えば、ディスプレイ601上のタッチ入力)を受信することに応じて、毛髪の色オプション832bの選択を検出する。 In FIG. 8AB, device 600 detects selection of hair color option 832b in response to receiving input 861 (eg, touch input on display 601) with hair color option 832b.

図8ACで、デバイス600は、毛髪の色オプション832bの周囲に境界862を表示することによって、毛髪の色オプション832bが選択されていることを示す。また、デバイス600は、セレクターアフォーダンス858を選択された毛髪の色オプション832bのデフォルト位置に動かし、セレクターアフォーダンス858の色を選択された毛髪の色オプション832bに対応する色に更新することによって、表示された毛髪の色スライダー856を変更する。デバイス600は、選択された毛髪の色オプション832bに一致する毛髪の色を有するように、アバターの毛髪851、毛髪のテクスチャーオプション834、及び髪形オプション836(例えば、836b及び836c)も変更する。前述した波及効果の外観に従って、毛髪のテクスチャーオプション834及び髪形オプション836の移行が表示される。例えば、毛髪のテクスチャーオプション834a~834cが(例えば、瞬間的に拡大して)順番に移行した後に、髪形オプション836b及び836cが(例えば、瞬間的に拡大して)順番に移行する。 In FIG. 8AC, the device 600 indicates that the hair color option 832b is selected by displaying a boundary 862 around the hair color option 832b. The device 600 is also displayed by moving the selector affordance 858 to the default position of the selected hair color option 832b and updating the color of the selector affordance 858 to the color corresponding to the selected hair color option 832b. Change the hair color slider 856. The device 600 also modifies the avatar's hair 851, hair texture option 834, and hairstyle option 836 (eg, 836b and 836c) to have a hair color that matches the selected hair color option 832b. According to the appearance of the spillover described above, the transition of hair texture option 834 and hairstyle option 836 is displayed. For example, hair texture options 834a-834c are transitioned in sequence (eg, momentarily expanded), followed by hairstyle options 836b and 836c (eg, momentarily expanded).

図8AD~図ALで、デバイス600は、ディスプレイ601上のタッチアンドドラッグジェスチャである入力864を検出し、最初のタッチは、アバターの特性領域804内の位置に対応する。デバイス600は、縦方向の入力864の移動を検出することに応じて、入力864の移動方向に基づいて(例えば、ドラッグの方向に基づいて)、アバターの特性領域804に表示されたアバター特徴部の特性及び対応する特徴部オプションをスクロールする。更に、デバイス600は、ドラッグの方向、並びにアバター表示領域803及びアバターの特性領域804の現在の状態(例えば、サイズ)に基づいて、アバター表示領域803(表示されたアバター805及び任意選択的にアバター特徴部領域807を含む)及びアバターの特性領域804のサイズを調整する。 8AD-AL, the device 600 detects an input 864, which is a touch-and-drag gesture on the display 601 and the first touch corresponds to a position within the characteristic area 804 of the avatar. The device 600 detects the movement of the input 864 in the vertical direction, and the avatar feature unit displayed in the characteristic area 804 of the avatar based on the movement direction of the input 864 (for example, based on the drag direction). Scroll through the characteristics of and the corresponding feature options. Further, the device 600 is based on the drag direction and the current state (eg, size) of the avatar display area 803 and the avatar characteristic area 804, and the avatar display area 803 (displayed avatar 805 and optionally avatar). Adjust the size of the feature area 807) and the feature area 804 of the avatar.

例えば、図8AD~図8AFは、上向きの方向(例えば、アバター表示領域803に向かう方向)で入力864の移動を検出することに応じて、図8ADでの初期の完全に展開された状態から、図8AFでの縮小された状態に移行している(例えば、縮小している)、アバター表示領域803及びアバター805を示している。アバター表示領域803の移行と同時に、デバイス600は、図8ADでの初期状態から図8AFでの完全に展開された状態に移行している(例えば、展開している)アバターの特性領域804を表示する。図8AEは、入力864の相対的位置が図8ADに示された位置と図8AFに示された位置の間にあるときの、個別の中間状態(例えば、サイズ)をそれぞれ有するアバター表示領域803(アバター805を含む)及びアバターの特性領域804を示している。このようにして、デバイス600は、上向きの方向のドラッグジェスチャに応じて、アバター表示領域803及びアバター805が縮小された状態に達し、かつアバターの特性領域804が完全に展開された状態に達するまで、アバター表示領域803及びアバター805を継続的に縮小し、一方で同時にアバターの特性領域804を展開する(かつ、ライン806を上にずらす)。アバター表示領域803及びアバター805が縮小された状態にあるとき、デバイス600は、上向きの方向のドラッグジェスチャの更なる移動に応じて(又は、その後の上向きのドラッグジェスチャに応じて)、アバター表示領域803及びアバター805を更に縮小することも、アバターの特性領域804を更に展開することも行わない。むしろ、デバイス600は、上向きの方向のドラッグジェスチャの更なる移動に応じて(又は、アバター表示領域803が縮小された状態にあるときのアバターの特性領域804でのその後の上向きのドラッグジェスチャに応じて)、アバター特徴部の特性及び特徴部オプションをスクロールし続ける(髪形特性842の追加の髪形オプション836d~836fを露わにしており、毛髪の色の特徴832及び毛髪の色スライダー856を含めて、毛髪の色特性838をアバターの特性領域804の表示された部分の外へ移動している、図8AG~図8AHを参照)。 For example, FIGS. 8AD-8AF are from the initial fully expanded state in FIG. 8AD in response to detecting the movement of the input 864 in an upward direction (eg, towards the avatar display area 803). FIG. 8 shows the avatar display area 803 and the avatar 805 that have been shifted to the reduced state (for example, reduced) in AF. At the same time as the transition of the avatar display area 803, the device 600 displays the characteristic area 804 of the avatar that has transitioned from the initial state in FIG. 8AD to the fully expanded state in FIG. 8AF (for example, expanded). do. FIG. 8AE shows the avatar display area 803 (eg, size) each having a separate intermediate state (eg, size) when the relative position of the input 864 is between the position shown in FIG. 8AD and the position shown in FIG. 8AF. (Including avatar 805) and the characteristic area 804 of the avatar are shown. In this way, the device 600 reaches the reduced state of the avatar display area 803 and the avatar 805 and the fully expanded state of the avatar characteristic area 804 in response to the upward drag gesture. , The avatar display area 803 and the avatar 805 are continuously reduced, while at the same time the avatar characteristic area 804 is expanded (and the line 806 is shifted upward). When the avatar display area 803 and the avatar 805 are in the reduced state, the device 600 responds to further movement of the upward drag gesture (or subsequent upward drag gesture) to the avatar display area. Neither further reduction of 803 and avatar 805 nor further expansion of avatar characteristic region 804 is performed. Rather, the device 600 responds to further movement of the upward drag gesture (or to subsequent upward drag gestures in the avatar's characteristic region 804 when the avatar display area 803 is in a reduced state). Continue to scroll through the avatar feature features and feature options (exposing additional hairstyle options 836d-836f for hairstyle features 842, including hair color features 832 and hair color slider 856. , The hair color characteristic 838 is moved out of the displayed portion of the avatar characteristic region 804, see FIGS. 8AG-8AH).

反対に、ディスプレイ600は、図8AH~図8AJに示されているように、下向きの方向の入力864の移動を検出することに応じて、アバター表示領域803を縮小された(又は中間)状態から展開する。アバター表示領域803の展開と同時に、デバイス600は、図8AHでの展開された状態(又は、図8AIでの中間状態)から図8AJでの元の状態(例えば、サイズ)に移行している(例えば、縮小している)アバターの特性領域804を表示する。デバイス600が、入力864の下向きの移動を検出することに応じてアバター表示領域803を展開することによって、アバター805を拡大するため、ユーザは、アバターの特性領域804内でアバター特徴部の特性及び特徴部オプションの初期位置にスクロールして戻る必要なしに、更に容易にアバター805を確認することができる(例えば、図8ADを参照)。 Conversely, the display 600 has reduced (or intermediate) the avatar display area 803 in response to detecting the downward movement of the input 864, as shown in FIGS. 8AH-8AJ. expand. Simultaneously with the expansion of the avatar display area 803, the device 600 transitions from the expanded state in FIG. 8AH (or the intermediate state in FIG. 8AI) to the original state (eg, size) in FIG. 8AJ (eg, size). For example, the characteristic area 804 of the avatar (reduced) is displayed. Since the device 600 expands the avatar 805 by expanding the avatar display area 803 in response to detecting the downward movement of the input 864, the user can use the characteristics of the avatar feature and the characteristics of the avatar feature within the avatar characteristic area 804. You can more easily see the avatar 805 without having to scroll back to the initial position of the feature option (see, eg, FIG. 8AD).

デバイス600は、アバター表示領域803を縮小することによって、更に大きいアバターの特性領域804を表示して、追加のアバター特徴部の特性及び/又は特徴部オプションを表示する。アバターの特性領域804が展開又は縮小するときに、アバター特徴部の特性及び特徴部オプションのサイズは変化しない。したがって、デバイス600は、アバターの特性領域804が展開したときに、より多くのアバター特徴部の特性及び/又は特徴部オプションを表示し、アバターの特性領域804が縮小したときに、より少ないアバター特徴部の特性及び/又は特徴部オプションを表示する。 The device 600 displays a larger avatar characteristic area 804 by reducing the avatar display area 803 to display additional avatar feature features and / or feature options. When the characteristic area 804 of the avatar expands or contracts, the characteristics of the characteristic part of the avatar and the size of the characteristic part option do not change. Therefore, the device 600 displays more avatar feature features and / or feature options when the avatar feature region 804 expands, and less avatar features when the avatar feature region 804 shrinks. Shows the characteristics and / or feature options of the part.

いくつかの実施形態では、デバイス600がアバター特徴部の特性(例えば、808、810、838、840、842)及びそれらの個別の特徴部オプション(例えば、812、814、832、834、836)のスクロールを表示するときに、アバター特徴部の特性の一部がスクロールされて、アバターの特性領域804の上端(例えば、ライン806の下)から外に部分的に出た場合、デバイス600は、アバターの特性領域804の上部に配置されたこのアバター特徴部の特性の個別のヘッダーの表示を維持する。例えば、図8AHに示されているように、毛髪のテクスチャー特性840がスクロールされて、アバターの特性領域804の表示部分の外に出たときに、デバイス600は、テクスチャーヘッダー841をアバターの特性領域804の上部(例えば、ライン806の直下)に「固定」する。「固定された」テクスチャーヘッダー841は、毛髪のテクスチャー特性840の全体が(例えば、上向きの方向に)スクロールされてアバターの特性領域804の外に出るまで、又は毛髪のテクスチャー特性840の全体がライン806の下に配置されるまで(例えば、スクロールされてアバターの特性領域804の表示部分の上端から外に出ている毛髪のテクスチャー特性840の部分がないときに)、アバターの特性領域804の上部に表示されたままになる。いくつかの実施形態では、「固定された」ヘッダーは、ライン806の下の位置から解放されたときに、隣接するアバター特徴部の特性のヘッダーに置き換えられる(例えば、図8ALの髪形ヘッダー843を参照)。いくつかの実施形態では、固定されたヘッダー(例えば、テクスチャーヘッダー841)は、アバターの特性領域804内の特徴部オプションから視覚的に区別される。例えば、図8AHに示されているように、テクスチャーヘッダー841は、ライン806及び867によって視覚的に区別される。 In some embodiments, the device 600 comprises the characteristics of the avatar feature (eg, 808, 810, 838, 840, 842) and their individual feature options (eg, 812, 814, 832, 834, 836). When displaying the scroll, if some of the characteristics of the avatar feature are scrolled out of the top edge of the avatar's characteristic area 804 (eg, below line 806), the device 600 will be the avatar. Maintains the display of the individual headers of the characteristics of this avatar feature located at the top of the characteristic area 804 of. For example, as shown in FIG. 8AH, when the hair texture characteristic 840 is scrolled out of the display portion of the avatar characteristic area 804, the device 600 sets the texture header 841 to the avatar characteristic area. "Fixed" to the top of the 804 (eg, just below the line 806). The "fixed" texture header 841 is a line until the entire hair texture characteristic 840 is scrolled (eg, upwards) out of the avatar's characteristic area 804, or the entire hair texture characteristic 840 is lined up. The top of the avatar's characteristic area 804 until it is placed below the 806 (for example, when there is no portion of the hair texture characteristic 840 that is scrolled out of the top edge of the display area of the avatar's characteristic area 804). It remains displayed in. In some embodiments, the "fixed" header is replaced with the header of the characteristic of the adjacent avatar feature (eg, hairstyle header 843 in FIG. 8AL) when released from the position below line 806. reference). In some embodiments, the fixed header (eg, texture header 841) is visually distinguished from the feature options within the avatar's characteristic area 804. For example, as shown in FIG. 8AH, the texture header 841 is visually distinguished by lines 806 and 867.

図8AK及び8ALで、デバイス600は、(図8AI及び図8AJに示されているように、下向きに移動した後に)上向きの方向に移動する入力864を検出し、アバター表示領域803及びアバター805を圧縮し、一方で同時にアバターの特性領域804を展開し、前述したように、髪形ヘッダー843をアバターの特性領域804の縁部に移動する(テクスチャーヘッダー841を置き換える)。入力864の移動によって、アバターの特性領域804に表示されたコンテンツもスクロールされ、追加の髪形オプション836g~836iを表示する。 In FIGS. 8AK and 8AL, the device 600 detects an upwardly moving input 864 (after moving downwards, as shown in FIGS. 8AI and 8AJ) and displays the avatar display area 803 and the avatar 805. It compresses while simultaneously expanding the avatar characteristic region 804 and, as described above, moves the hairstyle header 843 to the edge of the avatar characteristic region 804 (replaces the texture header 841). Moving the input 864 also scrolls the content displayed in the avatar's characteristic area 804 to display additional hairstyle options 836g-836i.

図8AMで、デバイス600は、入力864の終了(例えば、リフトオフ)を検出する。デバイス600は、縮小された状態にあるアバター表示領域803及びアバター805、並びに完全に展開された状態にあるアバターの特性領域804を表示する。アバターの特性領域804は、髪形オプション836a~836iを有する髪形特性842(図8Rのウェーブヘアのテクスチャーオプション834bの以前の選択に基づくウェーブヘアのテクスチャー及び図8ABで選択された毛髪の色オプション832bに基づく毛髪の色をそれぞれ有する)、及びライン806の下に配置され、ライン867によって髪形オプション836a~836cから視覚的に区別された髪形ヘッダー843を表示する。ピクシーカットの髪形836bの周囲に配置された境界846によって示され、アバター805に表示されたピクシーカットの髪形を(及びウェーブヘアのテクスチャーも)有するアバターの毛髪851によって示されているように、ピクシーカットの髪形836bが選択されて表示されている。アバターの毛髪アフォーダンス809bが強調表示されて、アバターの毛髪の特徴が編集のために現在選択されていることを示している。 At FIG. 8AM, device 600 detects the end of input 864 (eg, lift-off). The device 600 displays the avatar display area 803 and the avatar 805 in the reduced state, and the characteristic area 804 of the avatar in the fully expanded state. The avatar characteristic region 804 has a hairstyle characteristic 842 with hairstyle options 836a-836i (wave hair texture based on the previous selection of wave hair texture option 834b of FIG. 8R and hair color option 832b selected in FIG. 8AB. Each has a hair color based on it), and displays a hairstyle header 843 that is placed below line 806 and visually distinguished from hairstyle options 836a-836c by line 867. Pixie as shown by the border 846 placed around the pixie cut hairstyle 836b and by the avatar hair 851 with the pixie cut hairstyle (and also the texture of the wave hair) displayed on the avatar 805. The cut hairstyle 836b is selected and displayed. The avatar's hair affordance 809b is highlighted to indicate that the avatar's hair feature is currently selected for editing.

いくつかの実施形態では、特徴部オプションの選択を検出することに応じて、アバター表示領域803及びアバター805が、圧縮された状態から完全に展開された状態に直接移行する。例えば、図8ANで、デバイス600は、スパイクヘアの髪形オプション836fに対応する位置で入力869(例えば、ディスプレイ601上のタッチ入力)を検出する。図8AOで、デバイス600は、スパイクヘアの髪形オプション836fの選択を検出することに応じて、完全に展開された状態にあるアバター表示領域803及びアバター805を表示する。デバイス600は、選択されたスパイクヘアの髪形オプション836fに一致するように、アバターの毛髪851を変更する(図8Rでの以前の選択に基づくウェーブヘアのテクスチャー及び図8ABで選択された毛髪の色オプション832bに基づく毛髪の色を有する)。また、デバイス600は、境界846をピクシーカットの髪形オプション836bから除去し、スパイクヘアの髪形オプション836fの周囲に境界846を表示することによって、スパイクヘアの髪形オプション836fの選択を示す。 In some embodiments, the avatar display area 803 and the avatar 805 move directly from the compressed state to the fully expanded state in response to detecting the selection of the feature option. For example, in FIG. 8AN, the device 600 detects an input 869 (eg, a touch input on the display 601) at a position corresponding to the hairstyle option 836f for spiked hair. In FIG. 8AO, the device 600 displays the fully expanded avatar display area 803 and avatar 805 in response to detecting the selection of the spike hair hairstyle option 836f. Device 600 modifies the avatar's hair 851 to match the selected spike hair hairstyle option 836f (wave hair texture based on previous selection in FIG. 8R and hair color selected in FIG. 8AB). Has a hair color based on option 832b). The device 600 also indicates the selection of the spiked hairstyle option 836f by removing the border 846 from the pixie cut hairstyle option 836b and displaying the border 846 around the spiked hairstyle option 836f.

図8AP及び図8AQで、デバイス600は、ディスプレイ601上のタッチアンドドラッグジェスチャである入力870を検出し、最初のタッチは、アバターの特性領域804内の位置に対応する。デバイス600は、下向きの方向の入力870の移動を検出し、それに応じて、特徴部オプション(例えば、髪形オプション836a~836i)及び髪形ヘッダー843を下向きの方向にスクロールして、図8AQに示されているように、毛髪の色特性838、毛髪のテクスチャー特性840、及び髪形特性842の一部を表示する。 In FIGS. 8AP and 8AQ, the device 600 detects an input 870, which is a touch-and-drag gesture on the display 601 and the first touch corresponds to a position within the characteristic area 804 of the avatar. The device 600 detects a downward movement of the input 870 and accordingly scrolls the feature options (eg, hairstyle options 836a-836i) and the hairstyle header 843 downwards as shown in FIG. 8AQ. As shown above, a part of the hair color characteristic 838, the hair texture characteristic 840, and the hairstyle characteristic 842 is displayed.

図8ARで、デバイス600は、入力870の終了(例えば、リフトオフ)を検出する。デバイス600は、毛髪の色スライダー856及び毛髪の色オプション832(境界862によって示された選択された毛髪の色オプション832bを含む)を有する毛髪の色特性838、テクスチャーヘッダー841及び毛髪のテクスチャーオプション834a~834c(境界844によって示された選択されたウェーブヘアのテクスチャーオプション834bを含む)を有する毛髪のテクスチャー特性840、並びに髪形ヘッダー843及び髪形オプション836a~836cを有する髪形特性842を表示する。 In FIG. 8AR, device 600 detects the end of input 870 (eg, lift-off). The device 600 has a hair color characteristic 838, a texture header 841 and a hair texture option 834a with a hair color slider 856 and a hair color option 832 (including the selected hair color option 832b indicated by the boundary 862). Shows the hair texture trait 840 with the ~ 834c (including the selected wave hair texture option 834b indicated by the boundary 844), as well as the hairstyle trait 842 with the hairstyle header 843 and the hairstyle options 836a-836c.

図8ASで、デバイス600は、毛髪の色オプション832a上の入力871(例えば、タッチ入力)を検出する。それに応じて、デバイス600は、図8ASで選択された色832bから図8ATで選択された色832a(図8X~図8AAに関して上で説明された変更から生じた色)に対応する色に移行しているアバターの毛髪851を表示する。選択された毛髪の色のみが入力871によって変化しため、アバターの毛髪851は、依然として、選択されたスパイクヘアの髪形オプション836fに対応するスパイクヘアの髪形、及び選択されたウェーブヘアのテクスチャーオプション834bに対応するウェーブヘアのテクスチャーで表示される。更に、デバイス600は、図8ASで表示された状態から図8ATで表示された状態にそれぞれ移行している毛髪の色を含んでいる特徴部オプションを表示する。したがって、デバイス600は、毛髪の色オプション832bに対応する毛髪の色から毛髪の色オプション832aに対応する毛髪の色に移行している毛髪のテクスチャーオプション834a~834c並びに髪形オプション836b及び836cを表示する。この移行は、前述した波及効果の外観(例えば、移行中の特徴部オプションの瞬間的な拡大を伴う連続的移行)を含むことができる。 In FIG. 8AS, device 600 detects input 871 (eg, touch input) on hair color option 832a. Accordingly, the device 600 shifts from the color 832b selected in FIG. 8AS to the color corresponding to the color 832a selected in FIG. 8AT (the color resulting from the changes described above with respect to FIGS. 8X-8AA). The hair 851 of the avatar is displayed. Since only the selected hair color is changed by the input 871, the avatar hair 851 still has the spike hair hairstyle corresponding to the selected spike hair hairstyle option 836f, and the selected wave hair texture option 834b. It is displayed with the texture of the wave hair corresponding to. Further, the device 600 displays a feature option that includes the hair color transitioning from the state displayed in FIG. 8AS to the state displayed in FIG. 8AT, respectively. Therefore, the device 600 displays the hair texture options 834a-834c and the hairstyle options 836b and 836c that are transitioning from the hair color corresponding to the hair color option 832b to the hair color corresponding to the hair color option 832a. .. This transition can include the appearance of the aforementioned spillover effect (eg, a continuous transition with a momentary expansion of feature options during the transition).

図8ATに示されているように、デバイス600は、入力871を検出することに応じて、図8X~図8AAに関して上で説明された入力860に応じて以前に設定された色832aに対して維持されている変更済みの設定に移行している毛髪の色スライダー856も表示する。これは、色オプション832aと同じ変更された色、及びデバイス600が毛髪の色オプション832bで入力861を検出する直前の図8AAに示されている位置と同じである、色合い領域857内の変更された位置に移行している、セレクターアフォーダンス858を表示することを含む。 As shown in FIG. 8AT, the device 600, in response to detecting input 871, with respect to the color 832a previously set in response to the input 860 described above with respect to FIGS. 8X-8AA. It also displays the hair color slider 856 transitioning to the maintained and changed settings. This is the same modified color as the color option 832a, and the same position shown in FIG. 8AA just before the device 600 detects the input 861 with the hair color option 832b, modified in the tint region 857. Includes displaying the selector affordance 858, which has moved to the previous position.

図8AUで、デバイス600は、アバターの特性領域804内で部分的にスクリーンの外に出て表示されているボブカットの髪形オプション836cで、入力872(例えば、タッチ入力)を検出する。それに応じて、デバイス600は、図8AVに示されているように、スパイクヘアの髪形から、選択されたボブカットの髪形オプション836cに対応するボブカットの髪形に移行しているアバターの毛髪851を表示する。また、デバイス600は、選択されたボブカットの髪形オプション836cの完全な表現を表示するために、アバターの特性領域804のわずかなスクロール(及び、毛髪の色オプション832の除去)を表示し、この特徴部オプションの選択を示すために、ボブカットの髪形オプション836cの周囲に境界846を表示する。入力872によって他の特徴部オプションが選択されていないため、アバターの毛髪851以外のアバター特徴部は変更されない。更に、他の表示された特徴部オプションが、選択された髪形を示すのに十分な量のアバターの毛髪を表示していないため、デバイス600は特徴部オプションの更新を何も表示しない。 In FIG. 8AU, the device 600 detects an input 872 (eg, touch input) with a bob cut hairstyle option 836c that is partially displayed off the screen within the characteristic area 804 of the avatar. Accordingly, the device 600 displays the avatar's hair 851 transitioning from the spiked hairstyle to the bobcut hairstyle corresponding to the selected bobcut hairstyle option 836c, as shown in FIG. 8AV. .. The device 600 also displays a slight scroll of the avatar's characteristic area 804 (and removal of the hair color option 832) to display the complete representation of the selected bob cut hairstyle option 836c, this feature. A border 846 is displayed around the bob cut hairstyle option 836c to indicate the selection of the part option. Since no other feature option is selected by input 872, the avatar feature other than the avatar's hair 851 is not changed. In addition, the device 600 does not display any updates for the feature option because the other displayed feature options do not display enough avatar hair to indicate the selected hairstyle.

図8AWで、デバイス600は、アバターの唇アフォーダンス809c上の入力873(例えば、タッチ入力)を検出する。デバイス600は、入力873を検出することに応じて、図8AXに示されているように、アバターの唇の特徴が選択されていることを示すように(例えば、アバターの唇アフォーダンス809cを太字にし、アバター805の直下に配置することによって)アバター表示領域803を更新し、アバターの唇の特徴に対応するアバター特徴部の特性及び特徴部オプションを表示するようにアバターの特性領域804を更新する。図8AX~図8BAに示されたアバター特徴部の特性及び特徴部オプションは、アバターの唇の特徴に対応する。したがって、デバイス600は、そのようないずれかの特徴部オプションの選択を検出することに応じて、アバター805に表示されているアバターの唇828を変更し、一部の場合には、選択された特徴部オプションがアバターの唇を表示するかどうかに応じて、特徴部オプションに表示されたアバターの唇の表現を更新する。 In FIG. 8AW, device 600 detects input 873 (eg, touch input) on the avatar's lip affordance 809c. In response to detecting input 873, the device 600 makes the avatar's lip affordance 809c bold to indicate that the avatar's lip features are selected, as shown in FIG. 8AX. The avatar display area 803 is updated (by arranging it directly under the avatar 805), and the avatar characteristic area 804 is updated to display the characteristics of the avatar characteristic portion and the characteristic portion options corresponding to the characteristics of the avatar's lips. The characteristics of the avatar feature and the feature options shown in FIGS. 8AX-8BA correspond to the features of the avatar's lips. Therefore, the device 600 modifies the avatar's lips 828 displayed on the avatar 805 in response to detecting the selection of any such feature option, and in some cases selected. Updates the avatar's lips representation displayed in the feature option, depending on whether the feature option displays the avatar's lips.

図8AXに示されているように、更新されたアバターの特性領域804は、様々な唇の色オプションを有する唇の色特性875及び唇の形状オプション880を有する唇の形状特性878を含む。唇の色オプションは、自然な唇の色オプション882、非自然的な唇の色オプション884、及びカラーピッカーオプション886を含む。自然な唇の色オプション882は、いくつかの実施形態では、アバター805に対して選択された肌の色に基づいて決定される、自然な人間の唇の色オプションを表す。非自然的な唇の色オプション884は、いくつかの実施形態では、選択された肌の色に基づいて決定されず、代わりに、口紅の色又は人間の唇にとって自然ではない(例えば、青色、緑色などの)その他の色に対応することがある色を表す。カラーピッカーオプション886は、アバターの唇の色を調整するために選択できるその他の色の選択肢を表示する選択可能なオプションである。いくつかの実施形態では、唇の色オプション(例えば、882、884、886)は、唇の色オプション上の入力(例えば、タップ、スワイプ、ドラッグなど)に応じて、横方向にスクロール可能である。唇の色オプションをスクロールすることで、追加の唇の色オプション(例えば、882、884、886)を表示する。いくつかの実施形態では、カラーピッカーオプション886は、唇の色オプションの端に配置され、唇の色オプションが唇の色オプションの端にスクロールされるまで、表示されない。 As shown in FIG. 8AX, the updated avatar characteristic region 804 includes a lip color characteristic 875 with various lip color options and a lip shape characteristic 878 with lip shape option 880. Lip color options include a natural lip color option 882, an unnatural lip color option 884, and a color picker option 886. The natural lip color option 882 represents, in some embodiments, a natural human lip color option that is determined based on the skin color selected for the avatar 805. The unnatural lip color option 884 is not determined based on the selected skin color in some embodiments and instead is not natural for lipstick color or human lips (eg blue, Represents a color that may correspond to other colors (such as green). The color picker option 886 is a selectable option that displays other color choices that can be selected to adjust the avatar's lip color. In some embodiments, the lip color option (eg, 882, 884, 886) is scrollable laterally depending on the input on the lip color option (eg, tap, swipe, drag, etc.). .. Scroll through the lip color options to see additional lip color options (eg, 882, 884, 886). In some embodiments, the color picker option 886 is placed on the edge of the lip color option and is not displayed until the lip color option is scrolled to the edge of the lip color option.

図8AXで、デバイス600は、カラーピッカーオプション886上の入力887(例えば、ディスプレイ601上のタッチジェスチャ)を検出する。図8AYで、デバイス600は、入力887を検出することに応じて、自然な唇の色オプション及び非自然的な唇の色オプションを含む様々な色オプションを表示する拡張されたカラーパレット888を表示する。いくつかの実施形態では、拡張されたカラーパレット888は、いずれかの表示されたアバター特徴部の特性及び特徴部オプションを含んでいるアバターの特性領域804の一部の上に現れるポップアップメニューとして表示され得る。 In FIG. 8AX, the device 600 detects an input 887 (eg, a touch gesture on the display 601) on the color picker option 886. In FIG. 8AY, device 600 displays an expanded color palette 888 that displays various color options, including natural and unnatural lip color options, in response to detecting input 887. do. In some embodiments, the extended color palette 888 is displayed as a pop-up menu that appears above a portion of the avatar's characteristic area 804 that contains any of the displayed avatar feature features and feature options. Can be done.

図8AYで、デバイス600は、選択された唇の色オプション890上の入力889(例えば、ディスプレイ601上のタッチジェスチャ)を検出する。 In FIG. 8AY, the device 600 detects an input 889 (eg, a touch gesture on the display 601) on the selected lip color option 890.

図8AZで、デバイス600は、選択された唇の色オプション890の選択を検出することに応じて、選択された唇の色オプション890の色に一致するように更新されたアバターの唇828を表示する。加えて、唇の形状オプション(例えば、唇の形状オプション880a)が、(例えば、本明細書において説明された波及効果の外観に従って)選択された唇の色オプション890を含むように更新される。また、デバイス600は、選択された唇の色オプション890に一致するように、(図8AXの唇の色オプション884aとして表された)唇の色オプションのうちの1つを更新し、更新された唇の色オプション884aの周囲に境界891を表示する。 In FIG. 8AZ, device 600 displays the avatar's lips 828 updated to match the color of the selected lip color option 890 in response to detecting the selection of the selected lip color option 890. do. In addition, the lip shape option (eg, lip shape option 880a) is updated to include the selected lip color option 890 (eg, according to the appearance of the spillover effects described herein). The device 600 has also updated and updated one of the lip color options (represented as the lip color option 884a in FIG. 8AX) to match the selected lip color option 890. A border 891 is displayed around the lip color option 884a.

デバイス600は、本明細書において説明された他の色のスライダーと同様の方法で制御され得る唇の色スライダー892も表示する。唇の色スライダー892は、892aでの高いグラデーション値から892bでの低いグラデーション値まで選択された唇の色884aのグラデーションを調整するために唇の色スライダーに沿って配置され得る、セレクターアフォーダンス893を含む。いくつかの実施形態では、グラデーションは、例えば陰影、彩度、淡色、中間調、ハイライト、暖かさ、又は色相などの、選択された唇の色の様々な特性を表現することができる。いくつかの実施形態では、グラデーションは、選択された色とは異なる、アバターの選択された肌の色に任意選択的に基づく、アバターの唇の淡色を表すことができる。唇の色スライダー892に沿ってセレクターアフォーダンス893を動かすことによって、淡色のグラデーションを調整することができ、それによって、選択された唇の色及びアバターの唇828の外観を最終的に変更する。例えば、選択された色の淡色は、赤色、又は自然な肌の色(例えば、茶色)に対応する何らかのその他の色であることができ、一方、選択された唇の色(例えば、選択された唇の色884a)は、任意の色(任意の非自然的な色を含む)であることができる。淡色を調整することで、特定の色が唇に適用されるだけでなく、淡色のグラデーションに基づいて、その色の明度も適用された外観をアバターの唇に与える。例えば、非自然的な選択された唇の色(例えば、緑色)を有するアバターの唇の場合、淡色を低いグラデーション値892bに調整すると、わずかに自然であるか、又は全く自然ではない淡色の唇の色(例えば、赤色)が得られる。これによって緑色の唇の色を強調し、アバターが大量の緑色の口紅を塗ったか、又は不自然な色の唇を有しているような外観が得られる。反対に、淡色を高いグラデーション値892aに調整すると、唇の淡色を強調し、アバターが少量の緑色の口紅を塗ったような外観が得られる。スライダーに沿ってセレクターアフォーダンス893の位置を調整することによって、ユーザは、デバイス600が選択された色884aに適用する淡色のグラデーションを調整することができる。 The device 600 also displays a lip color slider 892 that may be controlled in a manner similar to the other color sliders described herein. The lip color slider 892 can be placed along the lip color slider to adjust the selected lip color 884a gradient from the high gradient value at 892a to the low gradient value at 892b, selector affordance 893. include. In some embodiments, the gradation can represent various characteristics of the selected lip color, such as shading, saturation, lightness, midtones, highlights, warmth, or hue. In some embodiments, the gradient can represent a pale color of the avatar's lips, which is different from the selected color and is optionally based on the avatar's selected skin color. By moving the selector affordance 893 along the lip color slider 892, the light color gradation can be adjusted, thereby finally changing the selected lip color and the appearance of the avatar's lip 828. For example, the pale color of the selected color can be red, or any other color that corresponds to the natural skin color (eg, brown), while the selected lip color (eg, selected). The lip color 884a) can be any color (including any unnatural color). Adjusting the lightness gives the avatar's lips an appearance that not only applies a particular color to the lips, but also applies the lightness of that color based on the lightness gradient. For example, for avatar lips with a non-natural selected lip color (eg green), adjusting the light color to a low gradient value of 892b will result in slightly natural or non-natural light lips. Color (eg, red) is obtained. This emphasizes the color of the green lips and gives the appearance that the avatar has a large amount of green lipstick or has unnaturally colored lips. Conversely, adjusting the light color to a high gradation value of 892a enhances the light color of the lips and gives the avatar the appearance of applying a small amount of green lipstick. By adjusting the position of the selector affordance 893 along the slider, the user can adjust the light color gradation that the device 600 applies to the selected color 884a.

図8BAで、デバイス600は、アバターのアクセサリアフォーダンス809d上の入力8100(例えば、タッチ入力)を検出する。デバイス600は、入力8100を検出することに応じて、図8BBに示されているように、アバターのアクセサリの特徴が選択されていることを示すように(例えば、アバターのアクセサリアフォーダンス809dを太字にし、アバター805の直下に配置することによって)アバター表示領域803を更新し、アバターのアクセサリの特徴に対応するアバター特徴部の特性及び特徴部オプションを表示するようにアバターの特性領域804を更新する。図8BA~図8CFに示されたアバター特徴部の特性及び特徴部オプションは、アバターのアクセサリの特徴に対応する。したがって、デバイス600は、そのようないずれかの特徴部オプションの選択を検出することに応じて、選択された特徴部オプションに基づいてアバター805を変更し、一部の場合には、選択された特徴部オプションに基づいて、特徴部オプションに表示されたアバターのアクセサリの表現を更新する。 In FIG. 8BA, the device 600 detects an input 8100 (eg, a touch input) on the avatar's accessory affordance 809d. In response to detecting input 8100, the device 600 makes the avatar accessory affordance 809d bold to indicate that the avatar accessory feature is selected, as shown in FIG. 8BB. The avatar display area 803 is updated (by arranging it directly under the avatar 805), and the avatar characteristic area 804 is updated to display the characteristics of the avatar feature portion and the feature section options corresponding to the features of the avatar accessory. The characteristics of the avatar feature and the feature options shown in FIGS. 8BA -8CF correspond to the features of the avatar accessory. Therefore, the device 600 modifies the avatar 805 based on the selected feature option in response to detecting the selection of any such feature option, and in some cases selected. Update the avatar accessory representation displayed in the feature option based on the feature option.

図8BBに示されているように、アバターの特性領域804は、イヤリングオプション8104を有するイヤリング特性8102、帽子オプション8108を有する帽子特性8106、及び眼鏡オプション8112を有する眼鏡特性8110(図8BMに示されている)を含む。デバイス600は、イヤリングオプション8104a(イヤリングなし)が現在選択されていることを示すように、イヤリングオプション8104aの周囲に境界8114を表示する。また、デバイス600は、帽子オプション8108a(帽子なし)が現在選択されていることを示すように、帽子オプション8108aの周囲に境界8116を表示する。デバイス600は、選択されたイヤリングオプション8104a及び帽子オプション8108aに基づいて、イヤリング及び帽子を有しないアバター805を表示する。 As shown in FIG. 8BB, the characteristic region 804 of the avatar is an earring characteristic 8102 with an earring option 8104, a hat characteristic 8106 with a hat option 8108, and a spectacle characteristic 8110 with a spectacle option 8112 (shown in FIG. 8BM). ) Includes. The device 600 displays a boundary 8114 around the earring option 8104a to indicate that the earring option 8104a (without earrings) is currently selected. The device 600 also displays a boundary 8116 around the hat option 8108a to indicate that the hat option 8108a (without hat) is currently selected. The device 600 displays an avatar 805 without an earring and a hat based on the selected earring option 8104a and hat option 8108a.

いくつかの実施形態では、特徴部オプションを横方向にスクロールして、追加の特徴部オプションを表示することができる。例えば、図8BBで、デバイス600は、スクリーンの外に部分的に出たイヤリングオプション8104d及び帽子オプション8108dを表示し、イヤリングオプション8104及び帽子オプション8108を(例えば、図8BV~図8BWに示されているような横方向のスワイプ又はタッチアンドドラッグジェスチャに応じて)横方向にスクロールできることを示している。 In some embodiments, feature options can be scrolled horizontally to display additional feature options. For example, in FIG. 8BB, device 600 displays earring option 8104d and hat option 8108d partially out of the screen, and earring option 8104 and hat option 8108 are shown (eg, FIGS. 8BV-8BW). Indicates that you can scroll horizontally (in response to a horizontal swipe or touch-and-drag gesture).

いくつかの実施形態では、デバイス600は、個別の特徴部オプションが選択された場合のアバター(例えば、アバター805)の可能性のある外観を表すように、特徴部オプションを表示する。しかし、いくつかの実施形態では、デバイス600は、個別の特徴部オプションが選択された場合のアバターの可能性のある外観を完全には表さないように、特徴部オプションを表示する。例えば、デバイス600は、個別のアバター特徴部の一部が省略されたアバター特徴部の表現を有する特徴部オプションを表示することができる。個別のアバター特徴部の一部を特徴部オプションから省略することで、省略された部分が表示された場合に遮られることが予想される特徴部オプション内の他のアバター特徴部を表示するが、特徴部オプションが選択された場合のアバターの可能性のある外観を、完全には表さない。例えば、図8BBで、デバイス600は、アバターの毛髪(例えば、アバターの毛髪851)の表現を有するが、アバターの耳及び一部の場合にはイヤリングの表現が表示されるようにアバターの毛髪の一部が省略された、イヤリングオプション8104を表示している。選択可能な様々なイヤリングオプションを遮られずに表示するために、アバターの毛髪の一部がイヤリングオプション8104から省略されている。しかし、現在選択されているアバターの髪形(例えば、アバターの毛髪851によって示されている)がアバターの耳(及び、もしあれば、選択されたアバターのイヤリング)を覆っているため、イヤリングオプション8104は、イヤリングオプションが選択された場合のアバター805の可能性のある外観を表していない。したがって、いくつかの実施形態では、特定のアバター特徴部オプションは、それらが選択された場合に、他のアバター特徴部の一部に影響を与えない。例えば、鼻のリングに対応するアバターのアクセサリオプションは、アバターの毛髪などの他のアバター特徴部に対する変更(例えば、アバター上のアバター特徴部の得られた配置に起因する、特徴部形状に対する調整)をもたらさない。同様に、特定のイヤリングに対応するアバターのアクセサリオプションは、アバターの毛髪に対する変更をもたらさない。 In some embodiments, the device 600 displays the feature option to represent the possible appearance of the avatar (eg, avatar 805) when the individual feature option is selected. However, in some embodiments, the device 600 displays the feature option so as not to completely represent the possible appearance of the avatar when the individual feature option is selected. For example, the device 600 can display a feature section option having a representation of the avatar feature section in which some of the individual avatar feature sections are omitted. By omitting a part of the individual avatar feature part from the feature part option, other avatar feature parts in the feature part option that are expected to be blocked when the omitted part is displayed are displayed. It does not completely represent the possible appearance of the avatar when the feature option is selected. For example, in FIG. 8BB, device 600 has a representation of the avatar's hair (eg, the avatar's hair 851), but the avatar's hair so that the avatar's ears and, in some cases, the representation of the earrings are displayed. The earring option 8104 is displayed, with some omitted. Some of the avatar's hair has been omitted from the earring option 8104 in order to display the various earring options available unobstructed. However, the earring option 8104 is because the currently selected avatar hairstyle (eg, indicated by avatar hair 851) covers the avatar's ears (and the selected avatar's earrings, if any). Does not represent the possible appearance of Avatar 805 when the earring option is selected. Therefore, in some embodiments, certain avatar feature options do not affect some of the other avatar features when they are selected. For example, the avatar accessory option for the nose ring is a modification to other avatar features such as the avatar's hair (eg, adjustments to the feature shape due to the resulting placement of the avatar features on the avatar). Does not bring. Similarly, the avatar accessory option for a particular earring does not bring about any changes to the avatar's hair.

デバイス600は、帽子オプション8108を有する帽子特性8106も表示する。表示された帽子オプション8108は、個別の帽子オプションが選択された場合のアバター805に対する可能性のある変更を表している。選択された帽子を含むようにアバター805を変更することに加えて、そのような可能性のある変更は、アバターの毛髪851を再形成すること、及びアバター805の顔に上に影を落とすなどの照明の影響を含む。図8BBで、アバターの毛髪851の再形成は、帽子オプション8108b~8108cにおいて表されている(その他の帽子オプション8108d及び8108eは、図8BWで示され、下で更に詳細に説明されている)。例えば、ビーニー帽帽子オプション8108bは、帽子オプション8108bにおける毛髪の表示された幅よりも狭い帽子ライン8118を(例えば、(帽子の下部が開いている)帽子がアバターの頭部の毛髪に接触する位置で)有する帽子を表示する。したがって、デバイス600は、アバターの毛髪が帽子ライン8118で押し込まれている再形成された(例えば、変更された)外観を有する毛髪を表示し、帽子がアバターの毛髪を圧縮してアバターの頭部に適合しているような現実的な外観を提供する。この効果は、カウボーイハット帽子オプション8108c及びヘッドバンド帽子オプション8108dにも表示される。ヘッドバンド帽子オプション8108dで、デバイス600は、アバターの毛髪を圧縮しているヘッドバンドを表示しており、この場合も、ヘッドバンドの帽子ラインに適合するようにアバターの毛髪を再形成しているが、アバターの毛髪がヘッドバンドの帽子ラインで圧縮される(例えば、ヘッドバンドの下に押し込まれる)とともに、ヘッドバンドの上部から飛び出ているような外観も提供している。ヘッドバンド帽子オプション8108dが選択された場合のアバター805が、図8BY~図8CBに示されており、下で更に詳細に説明される。 The device 600 also displays a hat characteristic 8106 with a hat option 8108. The displayed hat option 8108 represents a possible change to Avatar 805 when the individual hat option is selected. In addition to modifying Avatar 805 to include the selected hat, such possible changes include reforming Avatar's hair 851 and casting a shadow on the face of Avatar 805. Includes the effects of lighting. In FIG. 8BB, the remodeling of the avatar's hair 851 is represented by hat options 8108b-8108c (other hat options 8108d and 8108e are shown in FIG. 8BW and described in more detail below). For example, the beanie hat option 8108b has a hat line 8118 that is narrower than the indicated width of the hair in the hat option 8108b (eg, where the hat (eg, the bottom of the hat is open) touches the hair on the avatar's head). Show the hat you have. Thus, device 600 displays hair with a reshaped (eg, modified) appearance in which the avatar's hair is pushed in at the hat line 8118, and the hat compresses the avatar's hair to compress the avatar's head. Provides a realistic look that fits in. This effect is also visible in the cowboy hat option 8108c and the headband hat option 8108d. In the headband hat option 8108d, device 600 displays the headband compressing the avatar's hair, again reshaping the avatar's hair to fit the headband's hat line. However, it also provides the appearance of the avatar's hair being compressed at the headband's hat line (eg, pushed under the headband) and popping out of the top of the headband. The avatar 805 when the headband hat option 8108d is selected is shown in FIGS. 8BY-8CB and is described in more detail below.

帽子オプション8108cは、アバター805に対する照明効果を表示すると予想されるアバター805に対する可能性のある変更も示している。例えば、カウボーイハット帽子オプション8108cは、カウボーイハットのつばの下のアバターの額に影8120を落とす大きい帽子(例えば、カウボーイハット)を含んでいる。デバイス600は、カウボーイハット、再形成された生え際、及び影8120を有するオプション8108cを表示することによって、帽子オプション8108cの選択が、カウボーイハットをアバター805に表示すること、アバターの毛髪851の生え際を再形成すること、及びアバター805の額に影を落とすことを含む変更をアバター805にもたらす、ということを示す(例えば、野球帽、再形成された毛髪、及び額の上の影を有するアバター805を示している図8CCを参照)。 Hat option 8108c also shows possible changes to Avatar 805 that are expected to display lighting effects for Avatar 805. For example, the cowboy hat hat option 8108c includes a large hat (eg, a cowboy hat) that casts a shadow 8120 on the forehead of the avatar under the brim of the cowboy hat. The device 600 displays the option 8108c with the cowboy hat, the reshaped hairline, and the shadow 8120 so that the selection of the hat option 8108c displays the cowboy hat on the avatar 805, the hairline of the avatar 851. Indicates that the avatar 805 will undergo changes, including reforming and casting a shadow on the forehead of the avatar 805 (eg, a baseball cap, reshaped hair, and an avatar 805 with a shadow on the forehead). See FIG. 8CC showing.

図8BC及び図8BDは、イヤリングオプション8104cを選択するための入力8122(例えば、タッチ入力)を検出し、境界8114をイヤリングオプション8104aからイヤリングオプション8104cに移動することによってイヤリングオプション8104cの選択を示している、デバイス600を示している。また、図8BDは、選択されたイヤリングオプション8104cに表示されたイヤリングに対応するアバターのイヤリング8125を有するアバター805を表示しているデバイス600を示している。イヤリング8125は、アバターの耳の上に配置されたアバターの毛髪851によって部分的に遮られている。しかし、イヤリング8125は、アバターの毛髪851を越えて広がるほど十分に大きいため、アバターの毛髪851の下から飛び出して部分的に表示されている。また、デバイス600は、図8BDに示されているように、表示された帽子オプション8108に適用されたイヤリングを表示するように、帽子オプション8108を更新する。 8BC and 8BD show the selection of the earring option 8104c by detecting the input 8122 (eg, touch input) for selecting the earring option 8104c and moving the boundary 8114 from the earring option 8104a to the earring option 8104c. The device 600 is shown. Also, FIG. 8BD shows a device 600 displaying an avatar 805 with an avatar earring 8125 corresponding to the earring displayed in the selected earring option 8104c. The earrings 8125 are partially blocked by the avatar's hair 851, which is placed over the avatar's ears. However, the earrings 8125 are large enough to extend beyond the avatar's hair 851 and are partially displayed protruding from under the avatar's hair 851. The device 600 also updates the hat option 8108 to display the earrings applied to the displayed hat option 8108, as shown in FIG. 8BD.

いくつかの実施形態では、デバイス600は、カメラ(例えば、カメラ602)の視野内に配置されたユーザの顔を検出し、ユーザの顔において検出された変化(例えば、ユーザの顔のポーズにおける変化、顔の特徴の相対位置における変化など)に基づいて、アバター805の外観を(例えば、継続的に)変更する。例えば、図8BEで、デバイス600は、ユーザの顔において検出された対応する変化に基づいて、アバター805の顔の特徴に対するリアルタイムの変更を表示する。図8BEで、デバイス600は(例えば、カメラ602を使用して)、ユーザが頭部を横に傾け、目をウィンクし、笑っていることを検出する。デバイス600は、検出されたユーザの動きを反映するように、アバター805をリアルタイムに変更する。 In some embodiments, the device 600 detects a user's face placed in the field of view of the camera (eg, camera 602) and the changes detected in the user's face (eg, changes in the pose of the user's face). , Changes in the relative position of facial features, etc.) to change the appearance (eg, continuously) of the avatar 805. For example, in FIG. 8BE, device 600 displays real-time changes to the facial features of Avatar 805 based on the corresponding changes detected in the user's face. In FIG. 8BE, the device 600 (using, for example, the camera 602) detects that the user has his head tilted sideways, his eyes winked, and he is laughing. The device 600 modifies the avatar 805 in real time to reflect the detected user movements.

図8BFで、デバイス600は(例えば、カメラ602を使用して)、ユーザが、頭部を傾けることも、笑うことも、ウィンクすることもしていない、中立位置に戻っていることを検出する。デバイスは、ユーザが中立位置に戻っていることを反映するように、アバター805をリアルタイムに変更する。 In FIG. 8BF, device 600 (using, for example, camera 602) detects that the user has returned to a neutral position without tilting, laughing, or winking. The device modifies the avatar 805 in real time to reflect that the user has returned to the neutral position.

いくつかの実施形態では、デバイス600は、選択された個別のアバター特徴部に適用された物理モデルに基づいて、アバター805において表されたアバター特徴部などの、選択されたアバター特徴部を変更する。例えば、図8BFで、デバイス600が、中立位置に戻っているアバター805を表示するときに、ユーザの頭部を傾ける動作の物理現象を反映するように、ユーザのイヤリング8125が揺れ動いて表示される。物理モデルがイヤリング8125に限定されないということが、理解されるべきである。物理モデルは、その他の選択されたアバター特徴部に適用され得る。 In some embodiments, the device 600 modifies the selected avatar feature, such as the avatar feature represented in the avatar 805, based on the physical model applied to the selected individual avatar feature. .. For example, in FIG. 8BF, when the device 600 displays the avatar 805 returning to the neutral position, the user's earrings 8125 appear to sway to reflect the physical phenomenon of the user's head tilting motion. .. It should be understood that the physical model is not limited to the earrings 8125. The physical model may be applied to other selected avatar features.

いくつかの実施形態では、デバイス600は、アバター表示領域803で、又は更に具体的には、いくつかの実施形態ではアバター805で検出された入力に応じて、アバター805の表示された向き及び/又は倍率を変更する。例えば、図8BGで、デバイス600は、アバター表示領域803上の入力8128(例えば、タッチアンドドラッグジェスチャ又はスワイプジェスチャ)を検出する。デバイス600は、図8BGの初期位置から図8BHの第2の位置への入力8128の移動を検出することに応じて、入力8128の移動に対応するアバター805の回転を表示する。図8BHで、デバイス600は、アバター805の得られた横顔表示を表示している。 In some embodiments, the device 600 is in the avatar display area 803, or more specifically, in some embodiments, in response to input detected in the avatar 805, the displayed orientation and / / of the avatar 805. Or change the magnification. For example, in FIG. 8BG, the device 600 detects an input 8128 (eg, a touch-and-drag gesture or a swipe gesture) on the avatar display area 803. The device 600 displays the rotation of the avatar 805 corresponding to the movement of the input 8128 in response to detecting the movement of the input 8128 from the initial position of FIG. 8BG to the second position of FIG. 8BH. In FIG. 8BH, the device 600 displays the obtained profile display of the avatar 805.

いくつかの実施形態では、デバイス600は、アバター表示領域803(又は、アバター805)上で検出された入力に応じて、適応された物理モデルに基づいて、動いている選択されたアバター特徴部を表示する。例えば、図8BIで、デバイス600は、図8BG及び図8BHのアバター805の表示された回転に応じて、アバター805の顔の前方に向かって揺れ動くイヤリング8125を表示する。 In some embodiments, the device 600 features a moving selected avatar feature based on an adapted physical model in response to input detected on the avatar display area 803 (or avatar 805). indicate. For example, in FIG. 8BI, the device 600 displays an earring 8125 that sways toward the front of the face of the avatar 805 in response to the displayed rotation of the avatar 805 of FIGS. 8BG and 8BH.

図8BJで、デバイス600は、アバター805上で入力8130(例えば、ピンチアウトジェスチャ)を検出し、それに応じて、入力8130の移動(例えば、ピンチアウトジェスチャの長さ)に基づいて、図8BKに示されているように、アバター805を拡大する。 In FIG. 8BJ, the device 600 detects an input 8130 (eg, a pinch-out gesture) on the avatar 805 and accordingly, based on the movement of the input 8130 (eg, the length of the pinch-out gesture), to FIG. 8BK. Magnify Avatar 805 as shown.

図8BL及び図8BMで、デバイス600は、アバターの特性領域804上の入力8132(例えば、タッチアンドドラッグジェスチャ又はスワイプジェスチャ)を検出し、入力8132の移動方向に基づいて、表示されたアバター特徴部の特性(例えば、8102、8106、8110)及び特徴部オプション(例えば、8104、8108、8112)をスクロールする。アバター805は、拡大された外観で表示されたままである。いくつかの実施形態では、拡大された外観により、ユーザはアバター805をよく見ることができ、いくつかの実施形態では、例えば化粧、入れ墨、傷跡、そばかす、あざ、及びアバターのその他のカスタムの特徴又はアクセサリなどの、様々なアクセサリをアバター805に適用することができる。 In FIGS. 8BL and 8BM, the device 600 detects an input 8132 (eg, touch-and-drag gesture or swipe gesture) on the avatar's characteristic region 804 and displays the avatar feature based on the direction of movement of the input 8132. (Eg, 8102, 8106, 8110) and feature options (eg, 8104, 8108, 8112) are scrolled. Avatar 805 remains displayed in a magnified appearance. In some embodiments, the magnified appearance allows the user to see the avatar 805 better, and in some embodiments, for example, makeup, tattoos, scars, freckles, bruises, and other custom features of the avatar. Alternatively, various accessories such as accessories can be applied to the avatar 805.

図8BNで、デバイス600は、入力8132の終了(例えば、タッチアンドドラッグジェスチャのリフトオフ)を検出し、帽子オプション8108a~8108dを含む帽子特性8106及び眼鏡オプション8112a~8112dを含む眼鏡特性8110を有するアバターの特性領域804を表示する。アバター805は、拡大された外観で表示されたままである。デバイス600は、眼鏡オプション8112a(眼鏡なし)が現在選択されていることを示すように、眼鏡オプション8112aの周囲に境界8134を表示する。デバイス600は、照明効果(例えば、眼鏡のレンズ上の光反射8136)を有する眼鏡オプション8112b~8112dを表示する。 In FIG. 8BN, device 600 detects the end of input 8132 (eg, lift-off of touch-and-drag gestures) and has an avatar with spectacle characteristics 8106 including hat options 8108a-8108d and spectacle characteristics 8110 including spectacle options 8112a-8112d. The characteristic area 804 of is displayed. Avatar 805 remains displayed in a magnified appearance. The device 600 displays a boundary 8134 around the spectacle option 8112a to indicate that the spectacle option 8112a (without spectacles) is currently selected. The device 600 displays spectacle options 8112b-8112d having a lighting effect (eg, light reflection 8136 on the lens of the spectacle).

図8BOで、デバイス600は、眼鏡オプション8112b上の入力8138(例えば、タッチジェスチャ)を検出する。図8BPに示されているように、デバイス600は、眼鏡オプション8112b上の入力8138を検出することに応じて、境界8134を、眼鏡オプション8112aから除去して眼鏡オプション8112bの周囲に表示する。加えて、デバイス600は、選択された眼鏡オプション8112bに表示された眼鏡スタイルに対応するアバターの眼鏡8140を含むように、アバター805及び帽子オプション8108(図8BVに示されている)を変更する。また、デバイス600は、選択されたアバター特徴部オプション(例えば、眼鏡8140)に基づいて、アバター805の外観を変更する。 In FIG. 8BO, the device 600 detects an input 8138 (eg, a touch gesture) on the spectacle option 8112b. As shown in FIG. 8BP, the device 600 removes the boundary 8134 from the spectacle option 8112a and displays it around the spectacle option 8112b in response to detecting the input 8138 on the spectacle option 8112b. In addition, device 600 modifies the avatar 805 and hat option 8108 (shown in FIG. 8BV) to include the avatar spectacles 8140 corresponding to the spectacle style displayed in the selected spectacle option 8112b. The device 600 also changes the appearance of the avatar 805 based on the selected avatar feature option (eg, glasses 8140).

例えば、図8BO及び図8BPに示されているように、デバイス600は、アバターの眼鏡オプション8112bの選択を検出することに応じて、アバターの毛髪851の一部8145の位置を調整(例えば、変更)し、アバター805の顔に配置されたアバターの眼鏡8140を表示する。アバターの毛髪851の変更された一部8145は、アバターの眼鏡8140のフレーム8140-1を収容するために横に押されて表示されている。更に、デバイス600は、アバターの毛髪851の変更された一部8145の隣に影8147を表示し、アバターの目の下に影8142を表示することによって、アバター805上に照明効果を生成する。デバイス600は、アバターの眼鏡8140をアバター805に追加することによって引き起こされた照明効果を示すために、影8142及び8147を表示する。照明効果は、(光の反射8136と同様の)反射8150をアバターの眼鏡8140のレンズ上に表示することによっても、示され得る(図8BTを参照)。いくつかの実施形態では、照明効果は、光源(例えば、カメラ602の視野内で検出された光源又は疑似的な光源)に対するアバター805、眼鏡8140、及び毛髪851の位置に基づいて決定される。 For example, as shown in FIGS. 8BO and 8BP, the device 600 adjusts (eg, modifies) the position of a portion 8145 of the avatar's hair 851 in response to detecting the selection of the avatar's eyeglass option 8112b. ), And the avatar's glasses 8140 placed on the face of the avatar 805 are displayed. The modified portion 8145 of the avatar's hair 851 is displayed sideways pressed to accommodate the frame 81401 of the avatar's glasses 8140. In addition, the device 600 creates a lighting effect on the avatar 805 by displaying a shadow 8147 next to the modified portion 8145 of the avatar's hair 851 and a shadow 8142 under the avatar's eyes. The device 600 displays shadows 8142 and 8147 to show the lighting effect caused by adding the avatar glasses 8140 to the avatar 805. Illumination effects can also be demonstrated by displaying a reflection 8150 (similar to a light reflection 8136) on the lens of the avatar's spectacles 8140 (see FIG. 8BT). In some embodiments, the illumination effect is determined based on the position of the avatar 805, the glasses 8140, and the hair 851 with respect to the light source (eg, a light source detected in the field of view of the camera 602 or a pseudo light source).

また、デバイス600は、入力8138を検出することに応じて、眼鏡特性8110を展開し、選択された眼鏡8140のフレーム8140-1及びレンズ8140-2(例えば、図8BTを参照)の両方の色オプションを表示する。フレームの色オプション894は、眼鏡フレーム8140-1の色を変更するために選択され得る(展開可能なカラーピッカーオプション894-2を含む)様々な色オプションを含む。レンズの色オプション896は、眼鏡8140のレンズ8140-2の態様を変更するために選択され得る様々な色オプションを含む。いくつかの実施形態では、フレームの色オプション894は、展開可能なカラーピッカーオプション(例えば、894-2)を含む。いくつかの実施形態では、レンズの色オプション896は、展開可能なカラーピッカーオプションを含まない。 The device 600 also develops the spectacle characteristic 8110 in response to detecting the input 8138 and colors both the frame 8140-1 and the lens 8140-2 of the selected spectacle 8140 (see, eg, FIG. 8BT). Show options. The frame color option 894 includes various color options (including expandable color picker option 894-2) that can be selected to change the color of the spectacle frame 81401. The lens color option 896 includes various color options that can be selected to modify the aspect of the lens 8140-2 of the spectacles 8140. In some embodiments, the frame color option 894 includes an expandable color picker option (eg, 894-2). In some embodiments, the lens color option 896 does not include an expandable color picker option.

図8BQで、デバイス600は、フレームの色オプション894-1上の入力895を検出し、図8BRのフレームの色スライダー897を表示する。フレームの色スライダー897は、本明細書において説明された他の色スライダーに類似しており、本明細書において説明された様々な色スライダーの実施形態に従って、眼鏡フレーム8140-1の色(又は、その他の態様)の調整に使用され得る。いくつかの実施形態では、フレームの色オプション894を選択すると、眼鏡8140のフレーム8140-1の色も変更される。しかし、図8BQで、色オプション894-1は、(例えば、フレームの色スライダー897を使用して)以前に選択されて変更されたフレーム8140-1の現在の色に対応している。したがって、デバイス600がフレームの色スライダー897を表示するときに、図8BQに示されているように、以前に変更された設定(例えば、セレクターアフォーダンス897-1がトラック897-2の左端に配置され、色オプション894-1がスライダー897の色設定に一致する)を有する色スライダーが表示される。 In FIG. 8BQ, the device 600 detects the input 895 on the frame color option 894-1 and displays the frame color slider 897 in FIG. 8BR. The frame color slider 897 is similar to the other color sliders described herein and is the color (or or) of the spectacle frame 81401 according to the various color slider embodiments described herein. Other aspects) can be used for adjustment. In some embodiments, selecting the frame color option 894 also changes the color of the frame 81401 of the spectacles 8140. However, in FIG. 8BQ, the color option 894-1 corresponds to the current color of frame 81401 previously selected and modified (eg, using the frame color slider 897). Therefore, when the device 600 displays the frame color slider 897, the previously modified settings (eg, the selector affordance 897-1) are placed on the left edge of track 897-2, as shown in FIG. 8BQ. , Color option 894-1 matches the color setting of slider 897) is displayed.

図8BSで、デバイス600は、レンズの色オプション896-1上の入力898を検出し、図8BTに表示されているように、(フレームの色スライダー897に加えて)レンズの色スライダー899を表示する。また、デバイス600は、眼鏡レンズ8140-2が表示されるように、アバター805の表示を縮小して回転させる。アバターの目が、レンズ8140-2を通してわずかに見えており、反射8150がレンズ8140-2上に表示されている。いくつかの実施形態では、第1のスライダー(例えば、スライダー897)が表示されて、デバイス600が第1のスライダーと異なる特徴に関連付けられた色オプション(例えば、896-1)の選択を検出した場合、デバイスは第1のスライダーを非表示にし、異なる特徴の選択された色オプションに関する第2のスライダー(例えば、スライダー899)を表示する。 In FIG. 8BS, the device 600 detects the input 898 on the lens color option 896-1 and displays the lens color slider 899 (in addition to the frame color slider 897) as shown in FIG. 8BT. do. Further, the device 600 reduces and rotates the display of the avatar 805 so that the spectacle lens 8140-2 is displayed. The avatar's eyes are slightly visible through the lens 8140-2 and the reflection 8150 is visible on the lens 8140-2. In some embodiments, a first slider (eg, slider 897) is displayed and the device 600 has detected a selection of color options (eg, 896-1) associated with features different from the first slider. If so, the device hides the first slider and displays a second slider (eg, slider 899) for selected color options with different features.

レンズの色スライダー899は、本明細書において説明された他の色スライダーに類似しており、本明細書において説明された様々なスライダーの実施形態に従って、眼鏡レンズ8140-2の色(又は、その他の態様)の調整に使用され得る。図8BTに示された実施形態では、レンズの色スライダー899は、レンズ8140-2の不透明度を制御する(ただし、本明細書において説明された色又はその他の色特性の制御又は調整に使用され得る)。デバイス600は、トラック899-2に沿ったセレクターアフォーダンス899-1の移動を検出することに応じて、レンズ8140-2の不透明度を変更する。例えば、セレクターアフォーダンス899-1が端899-3に向かって動かされたときに、デバイス600はレンズ8140-2の不透明度を増やす。セレクターアフォーダンス899-1が端899-4に向かって動かされたときに、デバイス600はレンズ8140-2の不透明度を減らす。図8BTに示されているように、レンズ8140-2は、トラック899-2内のセレクターアフォーダンス899-1の中央の位置に対応する不透明度を有する。セレクターアフォーダンス899-1が端899-4に移動されたときに、図8BUに示されているように、レンズ8140-2はわずかな不透明度を有するか、又は全く不透明度を有しない。 The lens color slider 899 is similar to the other color sliders described herein and is the color (or other) of the spectacle lens 8140-2 according to the various slider embodiments described herein. Aspects) can be used for adjustment. In the embodiment shown in FIG. 8BT, the lens color slider 899 controls the opacity of the lens 8140-2 (although it is used to control or adjust the colors or other color characteristics described herein. obtain). The device 600 changes the opacity of the lens 8140-2 in response to detecting the movement of the selector affordance 899-1 along track 899-2. For example, when the selector affordance 899-1 is moved towards the end 899-3, the device 600 increases the opacity of the lens 8140-2. The device 600 reduces the opacity of the lens 8140-2 when the selector affordance 899-1 is moved towards the end 899-4. As shown in FIG. 8BT, the lens 8140-2 has an opacity corresponding to the central position of the selector affordance 899-1 in track 899-2. When the selector affordance 899-1 is moved to the end 899-4, the lens 8140-2 has little or no opacity, as shown in FIG. 8BU.

いくつかの実施形態では、フレームの色スライダー897及びレンズの色スライダー899は、アバター特徴部をそれぞれ同じ方法で調整する。例えば、フレームの色スライダー897は、セレクターアフォーダンス897-1が左に移動するときに、色オプション894-1をより冷たい色調からより暖かい色調に変更し、レンズの色スライダー899は、セレクターアフォーダンス899-1が左に移動するときに、色オプション896-1をより冷たい色調からより暖かい色調に変更する。別の例として、フレームの色スライダー897は、セレクターアフォーダンス897-1が左に移動するときに第1の色値(例えば、赤色)を増やし、セレクターアフォーダンス897-1が右に移動するときに第2の色値(例えば、緑色)を増やすことによって色オプション894-1を変更し、レンズの色スライダー899は、セレクターアフォーダンス899-1が左に移動するときに第1の色値を増やし、セレクターアフォーダンス899-1が右に移動するときに第2の色値を増やすことによって色オプション896-1を変更する。 In some embodiments, the frame color slider 897 and the lens color slider 899 adjust the avatar feature in the same way. For example, the frame color slider 897 changes the color option 894-1 from a cooler to warmer tones when the selector affordance 897-1 moves to the left, and the lens color slider 899 changes the color option 894-1 to a warmer tones, and the lens color slider 899 is the selector affordance 899-. Change the color option 896-1 from a colder shade to a warmer shade as 1 moves to the left. As another example, the frame color slider 897 increases the first color value (eg, red) when the selector affordance 897-1 moves to the left, and the selector affordance 897-1 moves to the right. Changing the color option 894-1 by increasing the color value of 2 (eg green), the lens color slider 899 increases the first color value when the selector affordance 899-1 moves to the left, the selector Change the color option 896-1 by increasing the second color value as the affordance 899-1 moves to the right.

図8BUで、デバイス600は、縦方向のスクロールジェスチャ8157を検出し、アバターの特性領域804を縦方向にスクロールして、帽子オプション8108を含んでいる帽子特性8106を表示し、これらの帽子オプション8108は、前述した選択に従って眼鏡を使用して更新されている。 In FIG. 8BU, the device 600 detects the vertical scroll gesture 8157 and scrolls vertically through the characteristic area 804 of the avatar to display the hat characteristic 8106 including the cap option 8108, these hat options 8108. Has been updated using eyeglasses according to the selection described above.

図8BVで、デバイス600は、横方向のスクロールジェスチャ8158を検出して、帽子オプション8108を横方向にスクロールし、図8BWで、ヘッドバンド帽子オプション8108d及び野球帽オプション8108eを露わにしている。 In FIG. 8BV, the device 600 detects the lateral scroll gesture 8158 and scrolls the cap option 8108 laterally, revealing the headband cap option 8108d and the baseball cap option 8108e in FIG. 8BW.

図8BXで、デバイス600は、ヘッドバンド帽子オプション8108d上の入力8159を検出し、図8BYで、選択されたヘッドバンド帽子オプション8108dに対応するヘッドバンド8160を含むように更新されたアバター805を表示する。ヘッドバンド8160は、アバターの毛髪851をアバターの頭部に圧縮し、ヘッドバンドの帽子ライン8118に適合するように毛髪を再形成する。これによって、アバターの毛髪851がヘッドバンドによって圧縮され(例えば、ヘッドバンドの下に押し込まれ)、かつヘッドバンド8160の上部(例えば、ヘッドバンドの上側の帽子ライン8118-1の上)及び下部(例えば、ヘッドバンドの下側の帽子ライン8118-2の下)から飛び出ている(例えば、膨らんでいる)ような外観が得られる。 In FIG. 8BX, device 600 detects input 8159 on headband hat option 8108d and displays avatar 805 updated to include headband 8160 corresponding to selected headband hat option 8108d in FIG. 8BY. do. The headband 8160 compresses the avatar's hair 851 into the avatar's head and reshapes the hair to fit the headband's hat line 8118. This causes the avatar's hair 851 to be compressed by the headband (eg, pushed under the headband) and the top (eg, above the hat line 8118-1 above the headband) and bottom (eg, above the headband) of the headband 8160. For example, an appearance that protrudes (for example, is inflated) from the hat line 8118-2 on the lower side of the headband can be obtained.

また、アバター805は、ユーザの顔の検出された(例えば、カメラ602で検出された)ポーズに応じて、動いて表示される。ユーザが頭部を動かしたときに、デバイス600は、ユーザの動きを反映するようにアバター805をリアルタイムに変更する。アバター805が動くときに、アバターの頭部の動きに応じて、イヤリング8125及びアバターの毛髪851が揺れる。いくつかの実施形態では、デバイス600がユーザのリアルタイムの動きを反映するようにアバター805を変更するときに、デバイス600は、モデル化された光源及びアバター805(及び、アバターの眼鏡8140などの選択されたアバター特徴部)の相対位置に基づいて、表示された反射8150及び影8142の位置を移動することを含めて、アバター805上の照明効果も変更する。 Further, the avatar 805 is displayed in motion according to the detected pose (for example, detected by the camera 602) of the user's face. When the user moves his head, the device 600 changes the avatar 805 in real time to reflect the user's movement. When the avatar 805 moves, the earrings 8125 and the avatar's hair 851 sway according to the movement of the avatar's head. In some embodiments, when the device 600 modifies the avatar 805 to reflect the user's real-time movement, the device 600 selects a modeled light source and avatar 805 (and avatar glasses 8140, etc.). The lighting effect on the avatar 805 is also changed, including moving the positions of the displayed reflections 8150 and shadows 8142 based on the relative position of the avatar feature section).

例えば、図8BXで、デバイス600は、アバターの眼鏡8140を有し、アバターの眼鏡8140のレンズ上の反射8150及びアバターの眼鏡の下のアバターの顔に配置された影8142を有するアバター805を、(例えば、拡大も回転もされていない)デフォルト位置に表示する。図8BYで、デバイス600がユーザの顔の動きに応じてアバター805を変更するときに、反射8150がレンズ内の異なる位置に移動し、影(例えば、8142)が顔の上で移動するか、又は消える(いくつかの実施形態では、毛髪851の移動が、アバターの顔の上に動的に現れる新しい影をもたらす)。 For example, in FIG. 8BX, device 600 has an avatar 805 with avatar spectacles 8140 and a reflection 8150 on the lens of the avatar spectacles 8140 and a shadow 8142 placed on the avatar's face under the avatar's spectacles. Display in default position (for example, neither enlarged nor rotated). In FIG. 8BY, when the device 600 changes the avatar 805 in response to the movement of the user's face, the reflection 8150 moves to a different position in the lens and the shadow (eg, 8142) moves on the face. Or disappear (in some embodiments, the movement of the hair 851 results in a new shadow that dynamically appears on the avatar's face).

いくつかの実施形態では、デバイス600は、アバターに適用される特徴に基づいて、アバター特徴部(例えば、アバターの毛髪851など)の物理的移動を変更する。例えば、図8BYに示されているように、ヘッドバンド8160は、毛髪851を下側の帽子ライン8118-2で圧縮して、アバター805上に配置される。アバター805が動くときに、ヘッドバンド8160が下側の帽子ラインで毛髪851を圧縮して、その動きを制限するため、下側の帽子ライン8118-2から毛髪851が揺れる。アバターがヘッドバンド8160を着用していない場合、ヘッドバンドがアバターの毛髪851をより低い位置で(例えば、下側の帽子ライン8118-2で)アバターの頭部に圧縮していないため、アバターの毛髪は、アバターの頭部のより高い位置で、アバターの頭部から揺れる。 In some embodiments, the device 600 modifies the physical movement of the avatar feature (eg, avatar hair 851) based on the features applied to the avatar. For example, as shown in FIG. 8BY, the headband 8160 compresses the hair 851 at the lower cap line 8118-2 and places it on the avatar 805. As the avatar 805 moves, the headband 8160 compresses the hair 851 at the lower hat line and limits its movement, causing the hair 851 to sway from the lower hat line 8118-2. If the avatar does not wear the headband 8160, the headband does not compress the avatar's hair 851 to the avatar's head at a lower position (eg, at the lower hat line 8118-2), so the avatar's The hair sways from the avatar's head at a higher position on the avatar's head.

いくつかの実施形態では、閾値時間の間、ユーザの顔がカメラ(例えば、602)の視界内で検出されなかった場合、デバイス600は、アバターを変更することを止め、顔追跡が停止されたことを示している、顔追跡を再開するようユーザに指示するプロンプトを表示する。例えば、図6BZは、アバターの周囲に表示された角括弧8162及び顔追跡を再開するようユーザに指示するテキスト8164と共に、アバター表示領域803の中央の中立位置に、アバター805を表示する。いくつかの実施形態では、デバイス600は、ユーザがデバイス600を持ち上げること(例えば、ジャイロスコープ536、モーションセンサ538、加速度計534などによって検出される)、又はディスプレイ601上の入力などの、様々な入力を検出することに応じて、ユーザの顔の追跡(及び、アバター805の変更)を再開する。図8BZで、デバイス600は、アバター表示領域803上のタッチ入力8166を検出し、図8CAに示されているように、顔追跡を再開する。 In some embodiments, if the user's face is not detected in the field of view of the camera (eg, 602) for a threshold time, the device 600 stops changing the avatar and face tracking is stopped. Prompts the user to resume face tracking to indicate that. For example, FIG. 6BZ displays the avatar 805 in a neutral position in the center of the avatar display area 803, along with square brackets 8162 displayed around the avatar and text 8164 instructing the user to resume face tracking. In some embodiments, the device 600 is various, such as the user lifting the device 600 (eg, detected by a gyroscope 536, a motion sensor 538, an accelerometer 534, etc.) or an input on the display 601. In response to detecting the input, the tracking of the user's face (and the change of the avatar 805) is restarted. In FIG. 8BZ, device 600 detects touch input 8166 on the avatar display area 803 and resumes face tracking as shown in FIG. 8CA.

いくつかの実施形態では、デバイス600は、他のアバター特徴部を変更することに応じて、一部のアバター特徴部を変更する。例えば、図8CA及び図8CBは、アバター805の異なる髪形又は毛髪のテクスチャーが選択されたときに、デバイス600が帽子オプション8108をどのように変更するかを示している。図8CAは、アバター805が短いウェーブヘア851-1を有しているときのアバター805及び帽子オプション8108を示している(例えば、本明細書において説明された実施形態に従って、短い髪形及びウェーブヘアのテクスチャーが選択される)。図8CBは、アバター805が長い縮毛851-2を有しているときのアバター805及び帽子オプション8108を示している(例えば、本明細書において説明された実施形態に従って、長い髪形及び縮毛のテクスチャーが選択される)。アバターの毛髪851-2は、アバターの毛髪851-1よりも多いボリュームを有している。デバイス600がアバター805を短いウェーブヘア851-1から長い縮毛851-2に変更するときに、デバイス600は、変化する毛髪のボリュームに基づいてヘッドバンド8160及び帽子オプション8108のサイズを更新するが、すべての帽子オプション8108で共通の帽子ライン8118を維持する。 In some embodiments, the device 600 modifies some avatar features in response to changing other avatar features. For example, FIGS. 8CA and 8CB show how the device 600 modifies the hat option 8108 when different hairstyles or hair textures of Avatar 805 are selected. FIG. 8CA shows avatar 805 and hat option 8108 when avatar 805 has short wave hair 851-1 (eg, for short hairstyles and wave hair according to the embodiments described herein. Texture is selected). FIG. 8CB shows Avatar 805 and hat option 8108 when Avatar 805 has long curly hair 851-2 (eg, for long hairstyles and curly hair according to the embodiments described herein. Texture is selected). The avatar hair 851-2 has more volume than the avatar hair 851-1. When the device 600 changes the avatar 805 from short wave hair 851-1 to long curly hair 851-2, the device 600 updates the size of the headband 8160 and hat option 8108 based on the changing hair volume. , Maintain a common hat line 8118 for all hat options 8108.

例えば、図8CAで、毛髪851-1がより小さく、ボリュームの少ない毛髪の特徴であるため、デバイス600は、このアバターの頭部に適合するより小さいサイズを有するヘッドバンド8160を表示する(例えば、ヘッドバンド8160及び帽子ライン8118は、より小さい外周を有する)。アバター805がアバターの毛髪851-2を使用して更新されると、デバイス600は、毛髪851-2の増やされたボリュームを収容するために、図8CBに示されているように、ヘッドバンド8160のサイズを増やす(例えば、ヘッドバンド8160及び帽子ライン8118は、より大きい外周を有する)。更に、アバターの毛髪851-2がより長い髪形であるため、デバイス600は、帽子がアバター805上で表示されるときに、(図8CAに示された毛髪851-1と比較して)帽子ライン8118から更に長く突き出るように毛髪を変更する。 For example, in FIG. 8CA, the device 600 displays a headband 8160 having a smaller size that fits the head of this avatar because the hair 851-1 is a feature of smaller, less voluminous hair (eg, for example). The headband 8160 and the hat line 8118 have a smaller circumference). When the avatar 805 is updated with the avatar hair 851-2, the device 600 headband 8160, as shown in FIG. 8CB, to accommodate the increased volume of the hair 851-2. (For example, the headband 8160 and the hat line 8118 have a larger perimeter). In addition, because the avatar's hair 851-2 has a longer hairstyle, the device 600 has a hat line (compared to the hair 851-1 shown in FIG. 8CA) when the hat is displayed on the avatar 805. Change the hair so that it sticks out longer from 8118.

加えて、デバイス600は、変更された毛髪に基づいて、表示された特徴部オプションを更新する。例えば、図8CAに示された帽子オプション8108は、図8CBに示された帽子オプション8108よりも小さいサイズを有している。したがって、デバイス600は、より大きい毛髪851-2がアバター805に適用されるときに、帽子オプションのサイズを増やす。同様に、アバターが毛髪851-2を有しているときにアバター805に適用される帽子は、アバター805が毛髪851-1を有しているときよりも大きい(例えば、図8CC及び8CDに示されている)。いくつかの実施形態では、帽子オプション8108のサイズは変化するが、すべての帽子オプション8108が共通の帽子ライン8118を有し、前述したように、アバターの頭部に配置されている個別の帽子に基づいて、すべての帽子オプション8108がアバターの毛髪851の形状に影響を与える。 In addition, the device 600 updates the displayed feature options based on the modified hair. For example, the hat option 8108 shown in FIG. 8CA has a smaller size than the hat option 8108 shown in FIG. 8CB. Therefore, the device 600 increases the size of the hat option when the larger hair 851-2 is applied to the avatar 805. Similarly, the hat applied to the avatar 805 when the avatar has hair 851-2 is larger than when the avatar 805 has hair 851-1 (eg, shown in FIGS. 8CC and 8CD). Has been). In some embodiments, the size of the hat option 8108 varies, but all hat options 8108 have a common hat line 8118 and, as mentioned above, on a separate hat placed on the head of the avatar. Based on this, all hat options 8108 affect the shape of the avatar's hair 851.

いくつかの実施形態では、異なるアバターオプションが選択された場合、すでにアバター上に存在するアバター特徴部に基づいて、新しい選択されたアバターオプションが変更される。例えば、図8CAで、アバターの毛髪851-1が、図8BPに関して上で説明されたように、アバターの眼鏡8140を収容するように変更される。図8CBで、新しいアバターの毛髪851-2がアバター805に適用されるときに、新しいアバターの毛髪851-2は、アバターの毛髪851-1と同様に、アバターの眼鏡8140を収容するように変更される。別の例として、アバターの帽子オプション8108が選択された場合、選択された帽子オプションのサイズは、アバターの毛髪851の現在の状態に基づいて決定される(例えば、帽子オプション8108は、アバター805がアバターの毛髪851-1を有するときにより小さく、アバター805が毛髪851-2を有するときにより大きく表示される)。 In some embodiments, when different avatar options are selected, the new selected avatar option is modified based on the avatar features already present on the avatar. For example, in FIG. 8CA, the avatar's hair 851-1 is modified to accommodate the avatar's eyeglasses 8140, as described above with respect to FIG. 8BP. In FIG. 8CB, when the new avatar hair 851-2 is applied to the avatar 805, the new avatar hair 851-2 is modified to accommodate the avatar glasses 8140 as well as the avatar hair 851-1. Will be done. As another example, if the avatar's hat option 8108 is selected, the size of the selected hat option is determined based on the current state of the avatar's hair 851 (eg, the hat option 8108 has the avatar 805). Smaller when the avatar has hair 851-1 and larger when the avatar 805 has hair 851-2).

図8CBで、デバイス600は、野球帽オプション8108e上の入力8168を検出する。図8CCで、デバイス600は、野球帽オプション8108eに対応する野球帽8170を含むように、アバター805を変更する。野球帽8170は、他の帽子オプション(例えば、ヘッドバンド8160の場合、一致する帽子ライン8118-2)と同じ帽子ライン8118を有しており、アバターの毛髪851-2が、野球帽8170の帽子ライン8118から突き出ている。また、デバイス600は、野球帽8170のひさしの下に大きい影8172を表示する。 In FIG. 8CB, device 600 detects input 8168 on baseball cap option 8108e. In FIG. 8CC, device 600 modifies the avatar 805 to include a baseball cap 8170 corresponding to the baseball cap option 8108e. The baseball cap 8170 has the same hat line 8118 as other hat options (eg, matching hat line 8118-2 for headband 8160), with the avatar hair 851-2 being the hat of the baseball cap 8170. It protrudes from line 8118. The device 600 also displays a large shadow 8172 under the eaves of the baseball cap 8170.

図8CDで、デバイス600は、アバターの毛髪851-1に戻る。アバターの毛髪851-1のボリュームがアバターの毛髪851-2よりも少ないため、デバイス600は、野球帽8170及びその他の表示された帽子オプション8108のサイズを減らす。また、毛髪851-1がより短い髪形であるため、デバイス600は、図8CCの毛髪851-2よりも短く帽子ライン8118から突き出るように、アバターの毛髪851を変更する。 In FIG. 8CD, the device 600 returns to the avatar's hair 851-1. Since the volume of the avatar's hair 851-1 is less than that of the avatar's hair 851-2, the device 600 reduces the size of the baseball cap 8170 and other displayed hat options 8108. Also, because the hair 851-1 has a shorter hairstyle, the device 600 modifies the avatar's hair 851 so that it protrudes from the hat line 8118 shorter than the hair 851-2 in FIG. 8CC.

図8CEで、デバイス600は、ユーザの頭部の動きを検出し、それに応じてアバター805を変更する(例えば、被写体の頭部のポーズに一致するように、頭部及び野球帽8170を横に回す)。アバター805が横を向くときに、モデル化された光源に対する野球帽8170のひさしの移動に応じて、大きい影8172がアバターの顔を横切って移動し、反射8150がレンズ8140-2の反対側に移動する。 In FIG. 8CE, the device 600 detects the movement of the user's head and modifies the avatar 805 accordingly (eg, the head and baseball cap 8170 laterally to match the pose of the subject's head). turn). As the avatar 805 turns sideways, a large shadow 8172 moves across the avatar's face and a reflection 8150 on the opposite side of the lens 8140-2 in response to the movement of the baseball cap 8170's eaves with respect to the modeled light source. Moving.

また、デバイス600は、完了アフォーダンス8154上の入力8152(例えば、タッチジェスチャ)を検出する。それに応じて、デバイス600は、アバター編集ユーザインターフェースを閉じ、図8CFに示されているように、アバター805をアプリケーション(例えば、図6A~図6ANに関して前述したようなメッセージングアプリケーション)のアバター選択領域8156に表示する。アバター805を、アプリケーションで使用するために(例えば、ジョンに送信するために)選択できる。 The device 600 also detects an input 8152 (eg, a touch gesture) on the completion affordance 8154. Accordingly, the device 600 closes the avatar editing user interface and sets the avatar 805 into the avatar selection area 8156 of the application (eg, the messaging application as described above with respect to FIGS. 6A-6AN) as shown in FIG. 8CF. Display on. Avatar 805 can be selected for use in the application (eg, to send to John).

図9は、いくつかの実施形態に従ってアバター編集ユーザインターフェースを表示する方法を示すフロー図である。方法900は、表示装置を備えたデバイス(例えば、100、300、500、600)にて実行される。方法900のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 FIG. 9 is a flow diagram showing a method of displaying the avatar editing user interface according to some embodiments. Method 900 is performed on a device equipped with a display device (eg, 100, 300, 500, 600). Some actions of Method 900 are arbitrarily combined, some actions are arbitrarily changed in order, and some actions are optionally omitted.

下で説明されているように、方法900は、アバター編集ユーザインターフェースを表示する直感的な方法を提供する。この方法は、アバターを管理する際のユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ユーザがアバター編集ユーザインターフェースを使用してより素早く効率的にアバターの特性を変更できるようにするので、電力を節約し、バッテリの充電間の時間を延ばす。 As described below, Method 900 provides an intuitive way to display the avatar editing user interface. This method reduces the cognitive burden on the user when managing avatars, thereby creating a more efficient human-machine interface. Battery-powered computing devices allow users to change avatar characteristics more quickly and efficiently using the avatar editing user interface, thus saving power and extending the time between battery charges.

電子デバイスは、表示装置を介して、複数のアバター特徴部(例えば、アバターの毛髪、顔の特徴(アバターの唇、目、鼻など)、アクセサリ(例えば、イヤリング、サングラス、帽子))を有するアバター(904)(例えば、805)、個別のアバター特徴部の第1のオプション選択領域(904)(例えば、808)、及び個別のアバター特徴部の第2のオプション選択領域(906)(例えば、810)を同時に表示することを含むアバター編集ユーザインターフェース(例えば、801)を表示する(902)。 An electronic device is an avatar having multiple avatar features (eg, avatar hair, facial features (avatar lips, eyes, nose, etc.), accessories (eg, earrings, sunglasses, hats)) via a display device. (904) (eg, 805), a first option selection area (904) (eg, 808) for individual avatar features, and a second option selection area (906) (eg, 810) for individual avatar features. ) At the same time to display the avatar editing user interface (eg, 801) (902).

個別のアバター特徴部の第1のオプション選択領域(例えば、808)(例えば、アバター特徴部を変更するために選択可能なオプションを含んでいる視覚的に区別された領域)は、(例えば、現在選択されている)個別のアバター特徴部の第1の特性(例えば、顔の形状、唇のサイズ、毛髪の色など)の候補値の集合に対応する特徴部オプションの第1の集合(例えば、対応するアバター特徴部の使用可能な変更の表示された表現)を含む(904)。いくつかの例では、オプション選択領域(例えば、808、810)は、縦方向にスクロールするように構成される。いくつかの例では、特徴部オプションは、特定のアバター特徴部の態様をカスタマイズするために選択されてよい異なる特徴部オプションのグラフィック描画を含む。いくつかの例では、特徴部オプション(例えば、809)は、横方向にスクロールするように構成される。いくつかの実施例では、オプション選択領域(例えば、808、810)は、特徴部オプション(例えば、809)がスクロールするように構成される軸とは異なる、互いに垂直である軸などの、軸に沿ってスクロールするように構成される。 The first option selection area (eg, 808) of an individual avatar feature (eg, a visually distinct area containing selectable options to change the avatar feature) (eg, currently). A first set of feature options (eg, for example) that corresponds to a set of candidate values for a first characteristic (eg, face shape, lip size, hair color, etc.) of an individual avatar feature (which is selected). A displayed representation of the available changes in the corresponding avatar feature section) (904). In some examples, the option selection area (eg, 808, 810) is configured to scroll vertically. In some examples, feature options include graphic drawing of different feature options that may be selected to customize the aspect of a particular avatar feature. In some examples, the feature option (eg, 809) is configured to scroll horizontally. In some embodiments, the option selection area (eg, 808, 810) is on an axis, such as an axis that is perpendicular to each other, which is different from the axis on which the feature option (eg, 809) is configured to scroll. It is configured to scroll along.

個別のアバター特徴部の第2のオプション選択領域(例えば、810)は、(例えば、現在選択されている)個別のアバター特徴部の第2の特性の候補値の集合に対応する特徴部オプションの第2の集合を含む(906)。個別のアバター特徴部の第2の特性は、個別のアバター特徴部の第1の特性とは異なる。 The second option selection area (eg, 810) of the individual avatar feature section is the feature section option corresponding to the set of candidate values for the second characteristic of the individual avatar feature section (eg, currently selected). Includes a second set (906). The second characteristic of the individual avatar feature unit is different from the first characteristic of the individual avatar feature unit.

電子デバイスは、特徴部オプションの第1の集合内の特徴部オプション(例えば、834b)のうちの1つの選択(例えば、850)(例えば、「毛髪」のアバター特徴部の「毛髪のテクスチャー」特性からの「ウェーブヘア」特徴部オプションのユーザ選択)を検出することに応じて(910)、特徴部オプション(例えば、810)の第2の集合のうちの少なくとも1つの外観を、第1の外観(例えば、836b)から(例えば、特徴部オプションの第2の集合の)第2の外観(例えば、836b’)に変更する(912)。いくつかの例では、アバターの髪形を示している表示された特徴部オプションが、アバターの毛髪の第1の外観(例えば、アバターの毛髪がストレートヘアのテクスチャーを有する状態)から、アバターの毛髪がウェーブヘアのテクスチャーを有する第2の外観へ移行する。 The electronic device has a selection (eg, 850) of one of the feature options (eg, 834b) in the first set of feature options (eg, 850) (eg, the "hair texture" characteristic of the avatar feature of "hair". In response to detecting (user selection of the "wave hair" feature option) from (910), at least one appearance of the second set of feature options (eg, 810) is the first appearance. Change from (eg, 836b) to a second appearance (eg, 836b') (eg, a second set of feature options) (912). In some examples, the displayed feature option showing the avatar's hairstyle is from the first appearance of the avatar's hair (eg, the avatar's hair has a straight hair texture) to the avatar's hair. Transition to a second appearance with a wavy hair texture.

特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの少なくとも1つの外観を、第1の外観から第2の外観に変更することによって、アバターの現在の状態及び使用可能なアバター特徴部オプションに関するフィードバックをユーザに提供し、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を確認する視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In response to detecting the selection of one of the feature options in the first set of feature options, the appearance of at least one of the second set of feature options is first from the first appearance. By changing to the appearance of 2, it provides the user with feedback on the current state of the avatar and the available avatar feature options, and selects one of the feature options in the first set of feature options. Provide users with visual feedback to confirm. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプション(例えば、836)の第2の集合のうちの少なくとも1つの外観を第1の外観(例えば、836b)から第2の外観(例えば、836b’)に変更することは、特徴部オプションの第2の集合のうちの少なくとも2つの外観を(例えば、特徴部オプションの第1の集合の第1のオプションに対応する外観から、特徴部オプションの第2の集合の第2のオプションに対応する外観に)変更する(914)ことを含む。 According to some embodiments, the appearance of at least one of the second set of feature options (eg, 836) is changed from the first appearance (eg, 836b) to the second appearance (eg, 836b'). To do so is to make at least two appearances of the second set of feature options (eg, from the appearance corresponding to the first option of the first set of feature options, to the second set of feature options. Includes changing (914) to the appearance corresponding to the second option of.

いくつかの実施形態に従って、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて(910)、特徴部オプションの第1の集合の外観を第1の外観(例えば、834)から第2の外観(例えば、836b’)に変更することを止める(918)。いくつかの実施形態に従って、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、特徴部オプションの第1の集合の外観を第1の外観(例えば、834)から第2の外観(例えば、836b’)に変更することを止めることによって、特徴部オプションの第1の集合のうちの1つの選択を検出することに応じて、特徴部オプションの第1の集合が影響を受けず、更新もされないということ示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, in response to detecting the selection of one of the feature options within the first set of feature options (910), the appearance of the first set of feature options is first. Stop changing from the appearance of (eg, 834) to the second appearance (eg, 836b') (918). According to some embodiments, the appearance of the first set of feature options is changed to the first appearance (in response to detecting the selection of one of the feature options within the first set of feature options. For example, by stopping the change from 834) to a second appearance (eg, 836b'), the feature option may be detected by detecting the selection of one of the first set of feature options. It provides the user with visual feedback that the first set is unaffected and not updated. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプション(例えば、836b)の第2の集合のうちの少なくとも1つの第2の外観は、特徴部オプションの第1の集合内の特徴部オプション(例えば、834b)のうちの選択された1つに基づく(例えば、デバイスは、特徴部オプションの第1の集合内の特徴部オプションのうちの選択された1つに対応する第1の特性値を決定し、第1の特性値に基づいて、特徴部オプションの第2の集合のうちの少なくとも1つを更新する)。 According to some embodiments, the second appearance of at least one of the second set of feature options (eg, 836b) is the feature option (eg, 834b) within the first set of feature options. Based on the selected one of (eg, the device determines the first characteristic value corresponding to the selected one of the feature options in the first set of feature options, the first. Update at least one of the second set of feature options based on the characteristic value of 1).

いくつかの実施形態に従って、第1の外観から第2の外観に変化する特徴部オプション(例えば、836b)の第2の集合のうちの少なくとも1つを表示することは、特徴部オプションの第2の集合のうちの少なくとも1つが、特徴部オプションの第1の集合のうちの選択された1つに対応するアバター特徴部の少なくとも一部を含んでいるという判定を含む(例えば、毛髪のテクスチャーオプションが選択されたときに、髪形オプションが毛髪の表現を含んでいる場合、例えば図8R~図8Sに示されているように、それらの複数の髪形オプションが、選択された毛髪のテクスチャーを表示するように変化する)。いくつかの実施形態では、特徴部オプションが、選択された特徴部オプションによって変更される特徴の一部を含んでいない場合、それらの特徴部オプションは変化しない。例えば、毛髪のテクスチャーオプションが選択されたときに、「はげ頭」の髪形オプションは、アバターの毛髪の表現を含んでいないため、外観において変化しない。 Displaying at least one of a second set of feature options (eg, 836b) that change from a first appearance to a second appearance according to some embodiments is a second of the feature options. Includes determining that at least one of the set of features contains at least a portion of the avatar feature corresponding to the selected one of the first set of feature options (eg, hair texture option). When is selected, if the hairstyle option contains a hair representation, those multiple hairstyle options display the texture of the selected hair, for example, as shown in FIGS. 8R-8S. It changes like). In some embodiments, if the feature options do not contain some of the features that are modified by the selected feature option, those feature options do not change. For example, when the hair texture option is selected, the "bald head" hairstyle option does not include the avatar's hair representation and therefore does not change in appearance.

いくつかの実施形態に従って、電子デバイスは、特徴部オプションの第1の集合内の特徴部オプション(例えば、834b)のうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの第2の1つ(例えば、836a)が、特徴部オプションの第1の集合のうちの選択された1つに対応するアバター特徴部の少なくとも第2の一部を含んでいないという判定に従って、特徴部オプションの第2の集合のうちの第2の1つの外観を維持する(例えば、毛髪の色オプションが選択されたときに、髪形オプションが毛髪の表現を含んでいる場合、それらの複数の髪形オプションが変化するが、「はげ頭」の髪形が毛髪の表現を含んでいないため、図8V~図8ACに示されているように、「はげ頭」の髪形オプションは外観において変化しない)。 According to some embodiments, the electronic device has a second set of feature options in response to detecting a selection of one of the feature options (eg, 834b) within the first set of feature options. It is said that the second one of the sets (eg, 836a) does not contain at least the second part of the avatar feature corresponding to the selected one of the first set of feature options. According to the determination, the appearance of the second one of the second set of feature options is maintained (eg, when the hair color option is selected, if the hairstyle option contains a hair representation, they). Although multiple hairstyle options vary, the "bald head" hairstyle option does not change in appearance, as shown in FIGS. 8V-8AC, because the "bald head" hairstyle does not include hair representation). ..

特徴部オプションの第2の集合のうちの第2の1つが、特徴部オプションの第1の集合のうちの選択された1つに対応するアバター特徴部の少なくとも第2の一部を含んでいないという判定に従って、特徴部オプションの第2の集合のうちの第2の1つの外観を維持することによって、特徴部オプションの第1の集合のうちの1つの選択を検出することに応じて、特徴部オプションの第2の集合のうちの第2の1つが影響を受けず、更新もされないということ示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The second one of the second set of feature options does not contain at least the second part of the avatar feature corresponding to the selected one of the first set of feature options. In response to detecting the selection of one of the first set of feature options by maintaining the appearance of the second one of the second set of feature options. It provides the user with visual feedback that the second one of the second set of part options is unaffected and not updated. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプション(例えば、836b)の第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することは、(例えば、図8R~図8AUに示されているように)第1の外観から第2の外観に変化する特徴部オプションの第2の集合のうちの少なくとも1つのアニメーションを表示することを含む。いくつかの実施形態では、外観を変更する特徴部オプションのアニメーションは、変化している特徴部オプションを拡大することと、特徴部オプションの変化を表示する(例えば、特徴部オプションに表示される毛髪のテクスチャー又は色を変更する)ことと、その後、変更された特徴部オプションを元のサイズに縮小することと、を含む。いくつかの実施形態では、このアニメーション効果は、アニメーション化された波及効果を特徴部オプションの変化に与えるように、変更している特徴部オプションの順序で(例えば、上から下へ、かつ左から右へ)アバター特徴部を変更する(例えば、特徴部オプションの第2の集合内の第1の特徴部オプションが第2の特徴部オプションの前に変化する)ために、順番に実行される。 Changing the appearance of at least one of the second set of feature options (eg, 836b) from the first appearance to the second appearance according to some embodiments (eg, FIGS. 8R-Figure). Includes displaying at least one animation of a second set of feature options that change from a first appearance to a second appearance (as shown in 8AU). In some embodiments, the animation of the feature option that changes the appearance magnifies the changing feature option and displays the change in the feature option (eg, the hair displayed in the feature option). Includes changing the texture or color of the hair) and then reducing the changed feature options to their original size. In some embodiments, the animation effect is in the order of the feature options that are being modified (eg, from top to bottom, and from left) so that the animated spillover effect is given to the change in feature options. Executed in sequence to change the avatar feature (eg, the first feature option in the second set of feature options changes before the second feature option).

第1の外観から第2の外観へ変化する特徴部オプションの第2の集合のうちの少なくとも1つのアニメーションを表示することによって、特徴部オプションの第2の集合のうちの少なくとも1つの現在の状態に関するフィードバックをユーザに提供し、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を確認する視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The current state of at least one of the second set of feature options by displaying an animation of at least one of the second set of feature options that changes from the first appearance to the second appearance. Provides feedback to the user regarding, and provides visual feedback to confirm the selection of one of the feature options in the first set of feature options. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプションの第1の集合内の特徴部オプションのうちの選択された1つは、毛髪の色オプション(例えば、832)の第1の集合内の選択された毛髪の色(例えば、832a(赤色))であり、特徴部オプションの第2の集合のうちの少なくとも1つは、毛髪の長さオプション(例えば、長い、中位、短い)、髪質オプション(例えば、834、縮毛、ストレート、ウェーブなど)、及び髪形オプション(例えば、836)のうちの1つ以上を含む。いくつかの実施形態に従って、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することは、(例えば、図8P~図8AVに示されているように)毛髪の長さオプション、髪質オプション、及び髪形オプションのうちの1つ以上を、第1の毛髪の色から選択された毛髪の色に変更することを含む。毛髪の長さオプション、髪質オプション、及び髪形オプションのうちの1つ以上を、第1の毛髪の色から選択された毛髪の色に変更することによって、アバター、並びに毛髪の長さオプション、髪質オプション、及び髪形オプションの現在の状態に関するフィードバックをユーザに提供し、毛髪の色オプションの選択を確認する視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the selected one of the feature options in the first set of feature options is the selected hair in the first set of hair color options (eg 832). Color (eg, 832a (red)), and at least one of the second set of feature options is a hair length option (eg, long, medium, short), a hair quality option (eg, long, medium, short). , 834, curly hair, straight, wave, etc.), and one or more of the hairstyle options (eg, 836). Changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance according to some embodiments is shown (eg, FIGS. 8P-8AV). Includes changing one or more of the hair length option, hair quality option, and hairstyle option to the hair color selected from the first hair color. By changing one or more of the hair length option, hair quality option, and hair shape option to the hair color selected from the first hair color, the avatar, as well as the hair length option, hair It provides the user with feedback on the current state of the quality option and the hairstyle option, and provides the user with visual feedback confirming the selection of the hair color option. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプション(例えば、834)の第1の集合内の特徴部オプション(例えば、834b)のうちの選択された1つは、髪質オプションの第1の集合内の選択された髪質(例えば、縮毛、ストレート、ウェーブ)であり、特徴部オプションの第2の集合のうちの少なくとも1つは、毛髪の長さオプション(例えば、長い、中位、短いなど)及び髪形オプション(例えば、836b)のうちの1つ以上を含む。いくつかの実施形態に従って、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することは、毛髪の長さオプション及び髪形オプションのうちの1つ以上を、第1の髪質から選択された髪質に変更することを含む。毛髪の長さオプション及び髪形オプションのうちの1つ以上を、第1の髪質から選択された髪質に変更することによって、アバター、並びに毛髪の長さオプション及び髪形オプションの現在の状態に関するフィードバックをユーザに提供し、髪質オプションの選択を確認する視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the selected one of the feature options (eg, 834b) in the first set of feature options (eg, 834) is in the first set of hair quality options. The selected hair quality (eg, curly, straight, wave) and at least one of the second set of feature options is the hair length option (eg, long, medium, short, etc.). And one or more of the hairstyle options (eg, 836b). Changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance according to some embodiments is one of the hair length option and the hairstyle option. Includes changing one or more to the selected hairstyle from the first hairstyle. Feedback on the avatar and the current state of the hair length and hairstyle options by changing one or more of the hair length and hairstyle options to the hairstyle selected from the first hairstyle. And provide the user with visual feedback confirming the selection of hair quality options. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプションの第2の集合は、第1の特徴部オプション(例えば、836a)が順序において第2の特徴部オプション(例えば、836b)よりも前になり、第2の特徴部オプションが順序において第3の特徴部オプション(例えば、836c)よりも前になる順序で配置された、複数の特徴部オプションを含む。いくつかの実施形態に従って、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することは、第1の外観から第2の外観への特徴部オプションの第2の集合の第1の特徴部オプションの第1のアニメーション化された移行を表示することと、第2の外観への第1の特徴部オプションの第1のアニメーション化された移行の少なくとも一部を表示した後に、第1の外観から第2の外観への特徴部オプションの第2の集合の第2の特徴部オプションの第2のアニメーション化された移行を開始することと、第2の外観への第2の特徴部オプションの第2のアニメーション化された移行の少なくとも一部を表示した後に、第1の外観から第2の外観への特徴部オプションの第2の集合の第3の特徴部オプションの第3のアニメーション化された移行を開始することと、を含む。いくつかの実施形態では、第1のアニメーション化された移行は第2のアニメーション化された移行と重複し、第2のアニメーション化された移行は第3のアニメーション化された移行と重複する。一部の実施形態では、第1の特徴部オプションは第2の特徴部オプションに隣接し、第2の特徴部オプションは、第1の特徴部オプションと第3の特徴部オプションの両方に隣接する。 According to some embodiments, the second set of feature options is such that the first feature option (eg, 836a) precedes the second feature option (eg, 836b) in order. Includes a plurality of feature options arranged in an order in which the feature options of are preceded by a third feature option (eg, 836c). Changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance according to some embodiments is a feature from the first appearance to the second appearance. The first feature of the second set of part options Shows the first animated transition of the part option and the first animated transition of the first feature part option to the second appearance. After displaying at least a portion of, the second animated transition of the second feature option of the second set of feature options from the first appearance to the second appearance is initiated. After displaying at least part of the second animated transition of the second feature option to the second appearance, the second set of feature options from the first look to the second look Includes initiating a third animated transition of the third feature option. In some embodiments, the first animated transition overlaps with the second animated transition and the second animated transition overlaps with the third animated transition. In some embodiments, the first feature option is adjacent to the second feature option, and the second feature option is adjacent to both the first feature option and the third feature option. ..

第1のアニメーション化された移行を表示し、次に、第1のアニメーション化された移行の少なくとも一部を表示した後に第2のアニメーション化された移行を開始し、次に、第2のアニメーション化された移行の少なくとも一部を表示した後に第3のアニメーション化された移行を開始することによって、特徴部オプションの第2の集合内の第1、第2、及び第3の特徴部オプションの変更された外観の現在の状態に関するフィードバックをユーザに提供し、第1、第2、及び第3の特徴部オプションが移行される順序を示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Display the first animated transition, then start the second animated transition after displaying at least a portion of the first animated transition, and then the second animation. By initiating a third animated transition after displaying at least a portion of the animated transition, the first, second, and third feature options in the second set of feature options It provides the user with feedback on the current state of the modified appearance and provides the user with visual feedback indicating the order in which the first, second, and third feature options are migrated. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、特徴部オプションの第2の集合のうちの少なくとも1つの外観を第1の外観から第2の外観に変更することは、特徴部オプションの第2の集合のうちの第1の1つのサイズを拡大し(例えば、836b’)、その後、特徴部オプションの第2の集合のうちの第1の1つのサイズを(例えば、元のサイズに)縮小することと(例えば、836b)、特徴部オプションの第2の集合のうちの第2の1つのサイズを拡大し(例えば、836c’)、その後、特徴部オプションの第2の集合のうちの第2の1つのサイズを(例えば、元のサイズに)縮小することと(例えば、836c)を含む。いくつかの実施形態では、特徴部オプションのうちの第2の1つは、特徴部オプションのうちの第1の1つが元のサイズに縮小される前に拡大される(例えば、第1及び第2の特徴部オプションの変更が重複する)。特徴部オプションの第2の集合のうちの第1及び第2の1つのサイズを拡大することによって、特徴部オプションの第2の集合のうちの第1及び第2の1つの変更された外観の現在の状態に関するフィードバックをユーザに提供し、特徴部オプションの第2の集合のうちの第1及び第2の1つが変化していることを示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Changing the appearance of at least one of the second set of feature options from the first appearance to the second appearance according to some embodiments is the first of the second set of feature options. Increasing the size of one of 1s (eg, 836b') and then reducing the size of the first one of the second set of feature options (eg, to the original size) (eg, to the original size). 836b), increase the size of the second one of the second set of feature options (eg, 836c'), and then increase the size of the second one of the second set of feature options. Includes shrinking (eg, to the original size) and (eg, 836c). In some embodiments, the second one of the feature options is expanded before the first one of the feature options is reduced to its original size (eg, first and first). The change of the feature part option of 2 is duplicated). By expanding the size of one of the first and second sets of feature options, the modified appearance of one of the first and second sets of feature options It provides the user with feedback on the current state and provides the user with visual feedback indicating that one of the first and second of the second set of feature options is changing. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

特徴部オプションの第2の集合のうちの第1及び第2の1つのサイズを縮小することによって、特徴部オプションの第2の集合のうちの第1及び第2の1つの変更された外観の現在の状態に関するフィードバックをユーザに提供し、変更がいつ完了したかを示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 By reducing the size of one of the first and second of the second set of feature options, the modified appearance of the first and second of the second set of feature options It provides the user with feedback on the current state and provides the user with visual feedback when the change is complete. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイスは、電子デバイスの1つ以上のカメラ(例えば、602)の視野内の顔における変化を検出する。電子デバイスは、顔において検出された変化に基づいて、(例えば、図8BD~図8BEに示されているように)アバター(例えば、805)の外観を(例えば、特徴部オプションの第2の集合の外観を変更することに加えて)変更する。顔において検出された変化に基づいてアバターの外観を変更することによって、表示されたユーザインターフェース制御(例えば、タッチ制御)要素を必要とせずに、仮想アバターの変更を制御するためのオプションをユーザに提供する。追加の制御によりユーザインターフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device detects changes in the face within the field of view of one or more cameras (eg, 602) of the electronic device. The electronic device gives the appearance of the avatar (eg, 805) (eg, a second set of feature options) based on the changes detected in the face (eg, as shown in FIGS. 8BD-8BE). (In addition to changing the appearance of) to change. By changing the appearance of the avatar based on the changes detected in the face, the user has the option to control the change of the virtual avatar without the need for displayed user interface control (eg touch control) elements. offer. By providing additional control options without cluttering the user interface with additional controls, the usability of the device is improved and the user-device interface (eg, the appropriate input when manipulating / interacting with the device). It makes the device more efficient (by assisting the user in providing it and reducing user error), and in addition, power usage of the device by allowing the user to use the device more quickly and efficiently. Reduce and improve battery life.

いくつかの実施形態に従って、電子デバイス(例えば、600)が顔(例えば、673)における変化を検出した後に、電子デバイスは、所定の時間(例えば、10秒)の間、1つ以上のカメラ(例えば、602)の視野内で顔が検出されなかったと判定する。電子デバイスは、所定の時間の間、1つ以上のカメラの視野内で顔が検出されなかったという判定に応じて、顔において検出された変化に基づいてアバター(例えば、805)の外観を変更することを止める(例えば、追跡が停止した後に1つ以上のカメラの視野内に顔が戻った場合でも、アバターを、顔において変化を検出することに応じてアバターが変化しない非対話(静的)状態に移行させる)。アバターの外観を変更することを止めた後に、電子デバイスは入力(例えば、8166)(例えば、ユーザインターフェース上のジェスチャ(例えば、「タップして顔の追跡を再開する」アフォーダンス上のタップジェスチャ)などの、ユーザインターフェースに向けられた入力、デバイスの持ち上げの検出など)を検出する。ユーザの顔が視野内で検出されなかった場合、電子デバイスは、検出された変化に基づいてアバターの外観を更新しない。検出された変化がユーザには見えないため、変更しないことによって、電子デバイスのバッテリ電力及び処理リソースが保たれる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, after the electronic device (eg, 600) has detected a change in the face (eg, 673), the electronic device has one or more cameras (eg, 10 seconds) for a predetermined time (eg, 10 seconds). For example, it is determined that the face is not detected in the field of view of 602). The electronic device modifies the appearance of the avatar (eg, 805) based on the changes detected in the face, depending on the determination that the face was not detected in the field of view of one or more cameras for a given period of time. Stop doing (for example, if the face returns to the field of view of one or more cameras after tracking has stopped, the avatar will not change in response to detecting changes in the face (static). ) Move to the state). After stopping changing the appearance of the avatar, the electronic device inputs (eg, 8166) (eg, a gesture on the user interface (eg, a tap gesture on the "tap to resume face tracking" affordance), etc. Detects input directed at the user interface, detection of device lift, etc.). If the user's face is not detected in the field of view, the electronic device does not update the appearance of the avatar based on the detected changes. Since the detected changes are not visible to the user, the changes do not preserve the battery power and processing resources of the electronic device. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

電子デバイス(例えば、600)は、入力(例えば、8166)を検出することに応じて、顔(例えば、673)において検出された変化に基づいて、アバター(例えば、805)の外観を変更することを再開する(例えば、アバターを、顔における変化を検出することに応じてアバターが変化する対話状態(例えば、図8CAの805)に移行させる)。いくつかの実施形態では、アバターを非対話状態(例えば、図8BZの805)に移行させることは、検出された顔に基づいて決定された外観(例えば、図8BYの805)から既定の外観(例えば、図8BZの805)に移行するアバターのアニメーションを表示することを含む。いくつかの実施形態では、アバターを対話状態に移行させることは、既定の外観から、検出された顔(例えば、673)に基づいて決定された外観に移行するアバターのアニメーションを表示することを含む。持ち上げられているデバイスの移動を検出することは、検出された顔における変化がアバターの外観に反映されるべきであるということを示す。アバターの外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device (eg, 600) modifies the appearance of the avatar (eg, 805) based on the changes detected in the face (eg, 673) in response to detecting the input (eg, 8166). (For example, the avatar shifts to an interactive state in which the avatar changes in response to detecting a change in the face (eg, 805 of FIG. 8CA)). In some embodiments, transitioning the avatar to a non-interactive state (eg, 805 of FIG. 8BZ) is a default appearance (eg, 805 of FIG. 8BY) determined based on the detected face. For example, it includes displaying an animation of an avatar transitioning to 805) in FIG. 8BZ. In some embodiments, transitioning the avatar to an interactive state involves displaying an animation of the avatar transitioning from a default appearance to a determined appearance based on the detected face (eg, 673). .. Detecting the movement of the device being lifted indicates that the changes in the detected face should be reflected in the appearance of the avatar. The appearance of the avatar provides the user with feedback indicating the types of avatar characteristics that can be customized. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、所定の時間の間、1つ以上のカメラ(例えば、602)の視野内で顔(例えば、673)が検出されなかったという判定に応じて、1つ以上のカメラの視野内で顔が検出されていないことのインジケーション(例えば、8164)(例えば、メッセージ)を表示する。いくつかの実施形態では、このインジケーションは、顔追跡を再開するために取られ得るアクションをユーザに知らせるメッセージ(例えば、「顔を見せる」、「タップして再開する」など)である。いくつかの実施形態では、このインジケーションは、ユーザの顔において検出された変化に応じてアバター(例えば、805)が変更されなくなっていることを示すアニメーション(例えば、静的状態に移行するアバターのアニメーション)である。顔が視野内で検出されない場合、ユーザは、顔が検出されていないことを、表示されたインジケーションによって通知される。これによって、顔追跡を再開するためのアクションをユーザが取ることができるように、ユーザにフィードバックを提供し、顔追跡を再開するため取られ得るアクションをユーザに知らせる(このようにしなければ、ユーザは、デバイスが顔追跡を停止したことに気付くことができず、追跡を再開する方法を理解することもできない)。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。また、ユーザが検出されないときに顔追跡を停止することによって、電力を節約し、(顔追跡センサを含む)デバイスの損耗を低減する。この通知は、電力を節約し、(顔追跡センサを含む)デバイスの損耗を低減するために停止された追跡を再開する方法をユーザに知らせる。 According to some embodiments, the electronic device (eg, 600) determines that no face (eg, 673) has been detected in the field of view of one or more cameras (eg, 602) for a predetermined time. Accordingly, an indication (eg, 8164) (eg, a message) that the face is not detected in the field of view of one or more cameras is displayed. In some embodiments, the indication is a message informing the user of possible actions to resume face tracking (eg, "show face", "tap to resume", etc.). In some embodiments, the indication is an animation (eg, an avatar transitioning to a static state) indicating that the avatar (eg, 805) is no longer changing in response to changes detected in the user's face. Animation). If the face is not detected in the field of view, the user is notified by the displayed indication that the face is not detected. This provides feedback to the user so that the user can take action to resume face tracking and informs the user of possible actions to resume face tracking (otherwise the user). Can't notice that the device has stopped face tracking, nor can it figure out how to resume tracking). By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. It also saves power and reduces device wear (including face tracking sensors) by stopping face tracking when the user is not detected. This notification informs the user how to resume stopped tracking to save power and reduce device wear (including face tracking sensors).

いくつかの実施形態では、この入力は、デバイス(例えば、600)が持ち上げられた(例えば、ユーザがデバイスを拾い上げており、任意選択的に、ユーザの顔(例えば、673)が1つ以上のカメラ(例えば、602)の視野内で検出された)ことを(例えば、電子デバイスの加速度計及び/又はジャイロスコープを介して)検出することである。いくつかの実施形態では、この入力は、アバター編集ユーザインターフェース(例えば、801)に向けられたジェスチャ(例えば、8166)(例えば、タップ又はスワイプジェスチャ)である。いくつかの実施形態では、このジェスチャは、例えばオプションの選択、ユーザインターフェースの新しいセクションへのナビゲーション、アフォーダンス(例えば、「顔の動きの追跡を開始する」アフォーダンス)の選択を含む、ユーザインターフェース上のいずれかの位置での入力である。 In some embodiments, this input is such that the device (eg, 600) is lifted (eg, the user is picking up the device and optionally one or more of the user's faces (eg, 673)). Detecting (eg, detected in the field of view of a camera (eg, 602)) (eg, via an accelerometer and / or gyroscope of an electronic device). In some embodiments, this input is a gesture (eg, 8166) (eg, tap or swipe gesture) directed at the avatar editing user interface (eg, 801). In some embodiments, this gesture is on the user interface, including, for example, selecting options, navigating to new sections of the user interface, and selecting affordances (eg, "start tracking facial movements" affordances). Input at any position.

いくつかの実施形態に従って、電子デバイスは、入力(例えば、アバターを回転するか、又はアバターの倍率を調整するためのアバター上のジェスチャ、あるいはカメラの視野内の顔において検出された変化)に基づいて、(例えば、図8BG~図8BIに示されているように)アバターの外観を変更する。入力に基づいてアバターの外観を変更することは、1つ以上の物理モデル(例えば、慣性のモデル、重力のモデル、力伝達モデル、摩擦モデル)に従って複数のアバター特徴部(例えば、8125)のうちの1つ以上を動かすことを含む。いくつかの実施形態では、物理モデルは、入力(例えば、アバターを回転するか、又はアバターの倍率を調整するためのアバター上のジェスチャ、あるいは顔又は顔の一部の動き)の大きさ及び方向、並びに疑似的質量、疑似的弾性、疑似的摩擦係数、又はその他の疑似的な物理的特性などの、仮想アバター特徴部の1つ以上の予め定義された特性に基づいて、アバター特徴部の動きの大きさ及び方向を規定する。 According to some embodiments, the electronic device is based on an input (eg, a gesture on the avatar to rotate the avatar or adjust the magnification of the avatar, or a change detected in the face within the field of view of the camera). And change the appearance of the avatar (eg, as shown in FIGS. 8BG-8BI). Changing the appearance of an avatar based on input can be made out of multiple avatar features (eg, 8125) according to one or more physical models (eg, inertia model, gravity model, force transfer model, friction model). Includes moving one or more of. In some embodiments, the physics model is the size and orientation of the input (eg, a gesture on the avatar to rotate the avatar or adjust the magnification of the avatar, or the movement of the face or part of the face). , And the movement of the avatar feature based on one or more predefined properties of the virtual avatar feature, such as pseudo-mass, pseudo-elasticity, pseudo-friction, or other pseudo-physical properties. Specifies the size and direction of.

仮想アバターの物理モデルに基づいてアバター特徴部のうちの1つ以上を動かすことによって、ユーザは、より広い範囲の非言語的情報を伝達できる現実的な対話型の仮想アバターを作成することができる。これによって、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、仮想アバターのより現実的な動きを使用して、意図されたメッセージを伝達するようにユーザを支援することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 By moving one or more of the avatar features based on the virtual avatar's physical model, the user can create a realistic interactive virtual avatar that can convey a wider range of nonverbal information. .. This improves the usability of the device and makes the user-device interface more efficient (eg, by assisting the user in delivering the intended message using the more realistic movements of the virtual avatar). In addition, it reduces the power usage of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイスがアバター(例えば、805)上でジェスチャ(例えば、ピンチ/ピンチアウトジェスチャ、スワイプジェスチャ)を検出する。電子デバイスは、アバター上でジェスチャを検出することに応じて、ジェスチャが第1の種類のジェスチャ(例えば、ピンチ/ピンチアウトジェスチャ)に対応するという判定に従って、ジェスチャに基づいてアバターのズームレベルを調整し(例えば、ジェスチャがピンチアウトジェスチャである場合は表示されたアバターを拡大し、ジェスチャがピンチジェスチャである場合は表示されたアバターを縮小する)、電子デバイスは、ジェスチャが第2の種類のジェスチャ(例えば、スワイプジェスチャ)に対応するという判定に従って、ジェスチャに基づいて(例えば、図8BG~図8BKに示されているように)アバターの向きを調整する(例えば、スワイプジェスチャの方向に対応する方向にアバターを回転する)。電子デバイスは、特徴部オプションの第1の集合内の特徴部オプションのうちの1つの選択を検出することに応じて、選択された特徴部オプションに基づいてアバターを更新する。いくつかの実施形態では、アクセサリをアバターに追加するときに、フィーチャのズーム及び回転が使用可能である。例えば、アバター特徴部がそれぞれアバターのアクセサリの特徴に対応する場合、第1及び/又は第2のオプション選択領域は、装飾拡張物(例えば、傷跡、あざ、そばかす、入れ墨、及びペイントスキーム(例えば、スポーツチーム、化粧などに対応する))に対応する特徴部オプションを含む。ズーム及び回転操作は、ユーザが選択された特徴部オプション(例えば、装飾拡張物)を正確にアバター上に配置できるように、様々なズームレベル及び角度でアバターを表示する。 According to some embodiments, the electronic device detects a gesture (eg, pinch / pinch out gesture, swipe gesture) on the avatar (eg, 805). The electronic device adjusts the zoom level of the avatar based on the gesture according to the determination that the gesture corresponds to the first type of gesture (eg, pinch / pinch out gesture) in response to detecting the gesture on the avatar. (For example, if the gesture is a pinch-out gesture, the displayed avatar is magnified, if the gesture is a pinch gesture, the displayed avatar is reduced), and the electronic device has a second type of gesture. Adjust the orientation of the avatar based on the gesture (eg, as shown in FIGS. 8BG-8BK) according to the determination to correspond (eg, swipe gesture) (eg, the direction corresponding to the direction of the swipe gesture). Rotate the avatar to). The electronic device updates the avatar based on the selected feature option in response to detecting the selection of one of the feature options in the first set of feature options. In some embodiments, feature zooming and rotation is available when adding accessories to the avatar. For example, if the avatar features correspond to the features of the avatar's accessories, the first and / or second option selection areas are decorative extensions (eg, scars, bruises, freckles, tattoos, and paint schemes (eg, eg). Includes feature options for sports teams, makeup, etc.)). The zoom and rotate operations display the avatar at various zoom levels and angles so that the user can accurately place selected feature options (eg, decorative extensions) on the avatar.

ジェスチャに基づいてアバターのズームレベルを調整することによって、表示されたユーザインターフェース制御(例えば、タッチ制御)要素を必要とせずに、アバターの表示に対する変更を制御するためのオプションをユーザに提供する。追加の制御によりユーザインターフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 By adjusting the zoom level of the avatar based on the gesture, it provides the user with the option to control changes to the avatar's display without the need for displayed user interface control (eg, touch control) elements. By providing additional control options without cluttering the user interface with additional controls, the usability of the device is improved and the user-device interface (eg, the appropriate input when manipulating / interacting with the device). Power usage of the device by assisting the user to provide and reducing user error) and by allowing the user to use the device more quickly and efficiently. Reduce and improve battery life.

ジェスチャに基づいてアバターの向きを調整することによって、表示されたユーザインターフェース制御(例えば、タッチ制御)要素を必要とせずに、アバターの表示に対する変更を制御するためのオプションをユーザに提供する。追加の制御によりユーザインターフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 By adjusting the orientation of the avatar based on the gesture, it provides the user with the option to control changes to the display of the avatar without the need for displayed user interface control (eg, touch control) elements. By providing additional control options without cluttering the user interface with additional controls, the usability of the device is improved and the user-device interface (eg, the appropriate input when manipulating / interacting with the device). Power usage of the device by assisting the user to provide and reducing user error) and by allowing the user to use the device more quickly and efficiently. Reduce and improve battery life.

いくつかの実施形態に従って、個別の特徴部オプション(例えば、特徴部オプションの第1又は第2の集合の特徴部オプション)は、(例えば、現在選択されている)個別のアバター特徴部の表現を含む。個別のアバター特徴部の表現は、表示されたアバターの個別のアバター特徴部と比較して拡大された(例えば、ズームイン)表示を有して表示される。いくつかの実施形態では、特徴部オプションは、アバターの鼻に対応し、表示されたアバターの鼻及び周囲の顔の領域と比較した場合に、拡大されたアバターの鼻及び周囲の顔の領域の表示を含む。いくつかの実施形態では、特徴部オプションの第2の集合は、アバター特徴部のうちの1つ以上の拡大された表示を含む。 According to some embodiments, the individual feature options (eg, the feature option of the first or second set of feature options) represent the individual avatar feature (eg, currently selected). include. The representation of the individual avatar features is displayed with an enlarged (eg, zoomed in) display compared to the individual avatar features of the displayed avatar. In some embodiments, the feature option corresponds to the avatar's nose and is the enlarged avatar's nose and surrounding facial area when compared to the displayed avatar's nose and surrounding facial area. Including display. In some embodiments, the second set of feature options comprises one or more magnified views of the avatar feature.

いくつかの実施形態に従って、第2の個別の特徴部オプション(例えば、8116)は、個別のアバター特徴部の表現を含み、(例えば、図8BBに示されているように)異なるアバター特徴部(例えば、表示された場合に、個別の特徴部オプションを使用して変更されている個別のアバター特徴部の少なくとも一部を不明瞭化するアバター特徴部)の少なくとも一部を除外する(例えば、表示しない)。いくつかの実施形態では、特徴部オプションは、アバターの耳に対応し、特徴部オプションに表示されたアバターの耳の表現は、アバターの耳を含むが、その他のアバター特徴部(表示された場合に、特徴部オプションに表示されたアバターの耳の少なくとも一部を不明瞭化するアバターの毛髪など)を省略する。 According to some embodiments, the second individual feature section option (eg, 8116) comprises a representation of the individual avatar feature section (eg, as shown in FIG. 8BB) with different avatar feature sections (eg, as shown in FIG. 8BB). For example, exclude at least a portion of an individual avatar feature that, when displayed, obscures at least a portion of the individual avatar feature that has been modified using the individual feature option (eg, display). do not do). In some embodiments, the feature option corresponds to the avatar's ear, and the representation of the avatar's ear displayed in the feature option includes the avatar's ear, but other avatar features (if displayed). In addition, the avatar's hair that obscures at least part of the avatar's ears displayed in the feature option) is omitted.

いくつかの実施形態に従って、アバター編集ユーザインターフェースを表示することは、アバター特徴部(例えば、顔、毛髪、目、アクセサリなど)に対応する複数のアフォーダンス(例えば、809)を含んでいるアバター特徴部部分領域(例えば、アバター特徴部オプションのスクロール可能なテキストのリスト)(例えば、807)を表示することを更に含む。複数のアフォーダンスは、(例えば、現在選択されている)個別のアバター特徴部に対応する第1の選択されたアフォーダンス(例えば、809a、809b、809c、809d)を含む(例えば、「毛髪」アフォーダンス809bは、毛髪のアバター特徴部が現在選択されていることを示すために、強調表示される)。 According to some embodiments, displaying the avatar editing user interface comprises an avatar feature containing a plurality of affordances (eg, 809) corresponding to the avatar feature (eg, face, hair, eyes, accessories, etc.). It further comprises displaying a partial area (eg, a list of scrollable text of the avatar feature option) (eg, 807). The plurality of affordances include a first selected affordance (eg, 809a, 809b, 809c, 809d) corresponding to an individual avatar feature (eg, currently selected) (eg, "hair" affordance 809b). Is highlighted to indicate that the hair avatar feature is currently selected).

いくつかの実施形態に従って、電子デバイスは、特徴部オプション(例えば、814)の第1の集合内の特徴部オプション(例えば、814b)のうちの1つの選択を検出することに応じて、アバター特徴部に対応する複数のアフォーダンスのうちの第2の1つに関連付けられた視覚効果のアニメーションを表示する(例えば、図8Fで毛髪アフォーダンス809bを強調表示する)。いくつかの実施形態では、特徴部オプションの第1の選択の後に、現在選択されているアバター特徴部と異なるアバター特徴部に対応するアフォーダンス上でアニメーションが表示され、そのアフォーダンスを選択して異なるアバター特徴部に関するアバター編集ユーザインターフェースを表示するようにユーザに対して促す。 According to some embodiments, the electronic device detects an avatar feature in response to detecting a selection of one of the feature options (eg, 814b) in the first set of feature options (eg, 814). Display an animation of the visual effect associated with the second of the plurality of affordances corresponding to the part (eg, highlight the hair affordance 809b in FIG. 8F). In some embodiments, after the first selection of the feature option, an animation is displayed on the affordance corresponding to the avatar feature that is different from the currently selected avatar feature, and the affordance is selected to select a different avatar. Prompt the user to display the avatar editing user interface for the feature.

いくつかの実施形態に従って、電子デバイスは、第2のアバター特徴部(例えば、アバターのアクセサリ)に対応する第2のアフォーダンス(例えば、「アクセサリ」アフォーダンス809D)の選択を検出することに応じて、(例えば、図8BA~図8BBに示されているように)第2のアバター特徴部の第1の特性(例えば、イヤリング特性)の候補値(例えば、フープイヤリング、スタッドイヤリング、又はイヤリングなしなどの異なるイヤリングオプション)の集合に対応する特徴部オプション(例えば、表示されたイヤリングオプション)の更新された第1の集合を表示するように、第1のオプション選択領域を更新し、第2のアバター特徴部の第2の特性(例えば、帽子特性)の候補値(例えば、帽子なし、カウボーイハット、ヘッドバンドなど)の集合に対応する特徴部オプション(例えば、表示された帽子オプション)の更新された第2の集合を表示するように、第2のオプション選択領域を更新する。 According to some embodiments, the electronic device detects the selection of a second affordance (eg, the "accessory" affordance 809D) corresponding to the second avatar feature (eg, the accessory of the avatar). Candidate values (eg, hoop earrings, stud earrings, or no earrings) for the first characteristic (eg, earring characteristic) of the second avatar feature (eg, as shown in FIGS. 8BA-8BB). The first option selection area is updated to display the updated first set of feature options (eg, the displayed earring options) that correspond to the set of different earring options), and the second avatar feature. An updated second feature part option (eg, the displayed hat option) that corresponds to a set of candidate values (eg, no hat, cowboy hat, headband, etc.) for the second characteristic of the part (eg, hat characteristic). Update the second option selection area to display the set of two.

第2のアバター特徴部に対応する第2のアフォーダンスの選択を検出することに応じて第1及び第2のオプション選択領域を更新することは、第2のアバター特徴部の選択を確認するフィードバックをユーザに提供し、第2のアバター特徴部に使用可能なアバター特徴部オプションを示す視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Updating the first and second option selection areas in response to detecting a second affordance selection corresponding to the second avatar feature provides feedback confirming the selection of the second avatar feature. It provides the user with visual feedback indicating the avatar feature options available for the second avatar feature. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、アバター特徴部部分領域(例えば、807)が、アバター編集ユーザインターフェースの第1の領域(例えば、803)に表示される。第1のオプション選択領域(例えば、808)及び第2のオプション選択領域(例えば、810)が、アバター編集ユーザインターフェースの第2の領域(例えば、804)に表示され、この第2の領域は第1の領域の下に配置されて表示される。 According to some embodiments, the avatar feature portion partial area (eg, 807) is displayed in the first area (eg, 803) of the avatar editing user interface. A first option selection area (eg, 808) and a second option selection area (eg, 810) are displayed in a second area (eg, 804) of the avatar editing user interface, which is the second area. It is placed and displayed below the area of 1.

いくつかの実施形態に従って、特徴部オプションの第1の集合は、(例えば、図8Wに示されているように)色に対応する複数の色アフォーダンスを含み、これらの複数の色アフォーダンスは、(例えば、現在選択されている)個別のアバター特徴部の色に対応する第1の選択された色アフォーダンスを含む。 According to some embodiments, the first set of feature options comprises multiple color affordances corresponding to colors (eg, as shown in FIG. 8W), and these multiple color affordances are (eg, as shown in FIG. 8W). For example, it includes a first selected color affordance that corresponds to the color of the individual avatar feature (currently selected).

いくつかの実施形態に従って、電子デバイスは、複数の色アフォーダンス(例えば、832)のうちの1つの選択を検出することに応じて、選択された色アフォーダンスに対応する選択された色、及び複数の色アフォーダンスに含まれていない複数のその他の色オプションを有するカラーピッカーユーザインターフェース(例えば、888、892、856、822)(例えば、選択された色アフォーダンスの色を変更するために選択され得る色を表示するユーザインターフェース)を表示する。いくつかの実施形態では、選択された色アフォーダンスに対応する選択された色を有するカラーピッカーUIが表示される。その後、ユーザは、カラーピッカーUIを調整して、選択された色を改良するか、又は全く異なる色を選択することができる。いくつかの実施形態では、カラーピッカーユーザインターフェースを表示することは、第1のオプション選択領域又は第2のオプション選択領域のうちの少なくとも1つをカラーピッカーユーザインターフェースに置き換えることを含む。いくつかの実施形態では、カラーピッカーUIは、第1及び第2のオプション選択領域を、特定の方向(例えば、スクリーンの下部、スクリーンの左側、スクリーンの右側など)からスクリーン上(及び、第1及び第2のオプション選択領域上)にスライドするカラーピッカーUIを表示するアニメーションに置き換える。いくつかの実施形態では、カラーピッカーUIは、第1及び第2のオプション選択領域上に表示されるポップアップスクリーンである。 According to some embodiments, the electronic device has a selected color corresponding to the selected color affordance, and a plurality of, in response to detecting the selection of one of the plurality of color affordances (eg, 832). A color picker user interface with multiple other color options not included in the color affordance (eg, 888, 892, 856, 822) (eg, a color that can be selected to change the color of the selected color affordance). Display the user interface) to be displayed. In some embodiments, a color picker UI with the selected color corresponding to the selected color affordance is displayed. The user can then adjust the color picker UI to improve the selected color or select a completely different color. In some embodiments, displaying the color picker user interface comprises replacing at least one of the first option selection area or the second option selection area with the color picker user interface. In some embodiments, the color picker UI displays the first and second option selection areas on the screen (and first) from a particular orientation (eg, the bottom of the screen, the left side of the screen, the right side of the screen, etc.). And replace it with an animation that displays a color picker UI that slides on the second option selection area). In some embodiments, the color picker UI is a pop-up screen displayed on the first and second option selection areas.

いくつかの実施形態では、複数の色アフォーダンス(例えば、812)がアバターの肌の色特徴部の色に対応するという判定に従って、複数の色アフォーダンスは、アバターの肌の色特徴部の色に対応する色アフォーダンス(例えば、図8Aに示されている)の拡張された集合(例えば、選択されたアバターの肌の色の拡張されたカラーパレット)を含む。いくつかの実施形態では、拡張されたカラーパレットは、色がアバターの肌の色特徴部に対応する場合、カラーパレットのサイズを拡張又は縮小するためのオプション(例えば、832に類似する)を除外する。いくつかの実施形態では、複数の色アフォーダンスは、拡張された状態で表示された場合、横方向にスクロール不可能である。 In some embodiments, the plurality of color affordances correspond to the color of the avatar's skin color feature, according to the determination that the plurality of color affordances (eg, 812) correspond to the color of the avatar's skin color feature. Contains an expanded set of color affordances (eg, shown in FIG. 8A) (eg, an expanded color palette of selected avatar skin colors). In some embodiments, the expanded color palette excludes options for expanding or reducing the size of the color palette (e.g., similar to 832) if the color corresponds to the skin color feature of the avatar. do. In some embodiments, the plurality of color affordances are not scrollable laterally when displayed in the expanded state.

いくつかの実施形態に従って、複数の色アフォーダンスは、第1の種類のアバター特徴部(例えば、828)(例えば、アバターの肌の色特徴部以外のアバター特徴部)の色に対応する。いくつかの実施形態では、電子デバイス(例えば、600)は、複数の色アフォーダンスの第1の部分(例えば、882)を表示する。いくつかの実施形態では、電子デバイスは、複数の色アフォーダンス上のジェスチャ(例えば、スワイプジェスチャ)を検出する(例えば、色アフォーダンス上のスワイプジェスチャ)。電子デバイスは、ジェスチャを検出することに応じて、色アフォーダンスの第1の部分を表示することを止め、(例えば、複数の色アフォーダンスをスクロールして追加の色アフォーダンスを露わにして)色アフォーダンスの第2の部分を表示する。いくつかの実施形態では、色アフォーダンスの第2の部分は、色アフォーダンスの第1の部分とは異なる色アフォーダンスの拡張された集合(例えば、888)に対応するアフォーダンス(例えば、886)、及び色アフォーダンスの第2の部分を含んでいる。対話状態から非対話状態へ移行するアバターのアニメーションを表示することによって、アバターの非対話的外観の視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the plurality of color affordances correspond to the colors of the first type of avatar feature (eg, 828) (eg, avatar feature other than the avatar's skin color feature). In some embodiments, the electronic device (eg, 600) displays a first portion (eg, 882) of a plurality of color affordances. In some embodiments, the electronic device detects gestures on multiple color affordances (eg, swipe gestures) (eg, swipe gestures on color affordances). The electronic device stops displaying the first part of the color affordance in response to detecting the gesture (for example, scrolling through multiple color affordances to reveal additional color affordances). Display the second part of. In some embodiments, the second part of the color affordance corresponds to an extended set of color affordances (eg, 888) that is different from the first part of the color affordance (eg, 886), and the color. It contains the second part of affordances. It provides visual feedback on the non-interactive appearance of the avatar by displaying an animation of the avatar transitioning from interactive to non-interactive. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1の特性又は第2の特性のうちの少なくとも1つは、アバター特徴部(例えば、アバターの顔)それぞれの特徴部形状(例えば、顔の形状、鼻の形状、耳の形状など)に対応する。 According to some embodiments, at least one of the first or second characteristics is the shape of each feature (eg, face shape, nose shape) of each avatar feature (eg, avatar's face). Corresponds to the shape of the ear, etc.).

いくつかの実施形態に従って、個別のアバター特徴部は、アバターの顔(例えば、図8B)である。第1の特性及び第2の特性は、頭部の形状、肌の色、鼻のサイズ、鼻の形状、唇の形状、唇の色、耳のサイズ、顔の毛のスタイル、及び年齢から成る群から選択される。 According to some embodiments, the individual avatar feature is the avatar's face (eg, FIG. 8B). The first and second traits consist of head shape, skin color, nose size, nose shape, lip shape, lip color, ear size, facial hair style, and age. Selected from the group.

いくつかの実施形態に従って、個別のアバター特徴部は、アバターの毛髪(例えば、図8O)である。第1の特性及び第2の特性は、毛髪の色、髪形、長さ、髪質(例えば、縮毛、ストレート、ウェーブなど)、毛髪の部分(例えば、アバターの毛髪内の部分の位置)、上げた髪、下げた髪(例えば、アバターの頭部での毛髪の縦方向の位置)、及び生え際(例えば、後退している、はげている、富士額、成熟している、低いなど)から成る群から選択される。 According to some embodiments, the individual avatar feature is the avatar's hair (eg, FIG. 8O). The first and second characteristics are hair color, hairstyle, length, hair quality (eg, curly hair, straight, wave, etc.), hair part (eg, the position of the part in the hair of the avatar), From raised hair, lowered hair (eg, the vertical position of the hair on the avatar's head), and hairline (eg, receding, bald, Fuji forehead, mature, low, etc.) Selected from the group consisting of.

いくつかの実施形態に従って、個別のアバター特徴部は、アバターの目である。第1の特性及び第2の特性は、目の形状、目の色、まつげ、及び眉の形状から成る群から選択される。 According to some embodiments, the individual avatar feature is the avatar's eye. The first and second traits are selected from the group consisting of eye shape, eye color, eyelashes, and eyebrow shape.

いくつかの実施形態に従って、個別のアバター特徴部は、アクセサリ(例えば、図8BB)である。第1の特性及び第2の特性は、帽子、眼鏡、イヤリング、及び装飾拡張物(例えば、ペイントスキーム(例えば、スポーツチーム、化粧などに対応する)、入れ墨、そばかす、あざ、傷跡)から成る群から選択される。 According to some embodiments, the individual avatar feature is an accessory (eg, FIG. 8BB). The first and second properties consist of hats, eyeglasses, earrings, and decorative extensions (eg, corresponding to paint schemes (eg, sports teams, makeup, etc.), tattoos, freckles, bruise, scars). Is selected from.

いくつかの実施形態に従って、電子デバイスは、アバター編集ユーザインターフェース上の縦方向のジェスチャ(例えば、タッチスクリーンディスプレイ上のアバター編集ユーザインターフェースに対応する位置での縦方向のスワイプジェスチャ)を検出することに応じて、アバター編集ユーザインターフェースを縦方向のジェスチャに対応する縦方向にスクロールする。アバター編集ユーザインターフェースをスクロールすることは、(例えば、図8AG~図8AHに示されているように)表示されたアバターを含んでいる領域の縦方向の位置を維持しながら、第1のオプション選択領域及び第2のオプション選択領域を縦方向のジェスチャの方向にスクロールすることを含む。 According to some embodiments, the electronic device is to detect a vertical gesture on the avatar editing user interface (eg, a vertical swipe gesture at a position corresponding to the avatar editing user interface on a touch screen display). Accordingly, scroll the avatar editing user interface vertically corresponding to the vertical gesture. Scrolling the avatar editing user interface is the first option selection while maintaining the vertical position of the area containing the displayed avatar (eg, as shown in FIGS. 8AG-8AH). Includes scrolling the area and the second option selection area in the direction of the vertical gesture.

いくつかの実施形態に従って、電子デバイスは、アバター編集ユーザインターフェースのアバター特徴部部分領域(例えば、807)上のジェスチャ(例えば、830)(例えば、タッチスクリーンディスプレイ上のアバターに対応する位置での横方向のスワイプジェスチャ、又はアバター特徴部のうちの1つに対応するアフォーダンス上のタッチジェスチャ)を検出することに応じて、第1のアバター特徴部(例えば、809a)が選択されている第1の外観から第2のアバター特徴部(例えば、809b)が選択されている第2の外観に変化するアバター特徴部部分領域を表示し、第1及び第2のオプション選択領域(例えば、808、810)を表示することを止め、第1の特徴部オプションが順序において第2の特徴部オプションよりも前になり、第2の特徴部オプションが順序において第3の特徴部オプションよりも前になる順序で配置された複数の特徴部オプション(例えば、832)を有する第3のオプション選択領域(例えば、838)を表示し、第1の特徴部オプションが順序において第2の特徴部オプションよりも前になり、第2の特徴部オプションが順序において第3の特徴部オプションよりも前になる順序で配置された複数の特徴部オプション(例えば、834)を有する第4のオプション選択領域(例えば、840)を表示する。第3のオプション選択領域を表示することは、第3のオプション選択領域の複数の特徴部オプションを順番に表示することを含む、第1のアニメーションを表示することを含む。第4のオプション選択領域を表示することは、第1のアニメーションの少なくとも一部を表示した後に、第4のオプション選択領域の複数の特徴部オプションを順番に表示することを含む、第2のアニメーションを開始することを含む。 According to some embodiments, the electronic device is lateral to the gesture (eg, 830) (eg, 830) (eg, the avatar on the touchscreen display) on the avatar feature subregion (eg, 807) of the avatar editing user interface. A first avatar feature (eg, 809a) is selected in response to detecting a directional swipe gesture or a touch gesture on the affordance corresponding to one of the avatar features). The second avatar feature section (eg, 809b) from the appearance displays the avatar feature section partial area that changes to the selected second appearance, and the first and second option selection areas (eg, 808, 810). Is stopped, and the first feature option precedes the second feature option in order, and the second feature option precedes the third feature option in order. A third option selection area (eg, 838) with a plurality of placed feature options (eg, 832) is displayed so that the first feature option precedes the second feature option in order. , A fourth option selection area (eg, 840) having a plurality of feature options (eg, 834) arranged in such an order that the second feature option precedes the third feature option in order. indicate. Displaying the third option selection area includes displaying a first animation, including displaying a plurality of feature options in the third option selection area in sequence. Displaying the fourth option selection area comprises displaying at least a portion of the first animation followed by displaying a plurality of feature options in the fourth option selection area in sequence. Including starting.

いくつかの実施形態に従って、アバターは、第1のサイズ(例えば、拡大されたサイズ)又は第2のサイズ(例えば、縮小されたサイズ)になる。電子デバイスは、アバター編集ユーザインターフェース上のジェスチャ(例えば、特徴部オプション上のタップジェスチャ又は縦方向のスワイプジェスチャ)を(例えば、第1のオプション選択領域又は第2のオプション選択領域に対応する位置で)検出する。電子デバイスは、ジェスチャが特徴部オプションの第1又は第2の集合内の特徴部オプション(例えば、836f)の選択(例えば、869)に対応し、かつアバターが第2のサイズ(例えば、図8AN)であるという判定に従って、第2のサイズから第1のサイズに移行するアバターを表示する(例えば、図8AO)(例えば、アバターが縮小されたサイズであり、特徴部オプションが選択された場合、アバターは、図8AN~図8AOに示されているように、縮小されたサイズから拡大されたサイズに拡大する)。電子デバイスは、ジェスチャがスクロールジェスチャ(例えば、第1及び第2のオプション選択領域上の縦方向のスワイプジェスチャ)であり、かつアバターが第1のサイズであるという判定に従って、スクロールジェスチャが第1のスクロール方向(例えば、下向きのスクロール方向)に対応する場合、第2のサイズに移行するアバターを表示する。いくつかの実施形態では、アバターが拡大されたサイズ又は中間のサイズである場合、下向きのスクロール方向においてスクロールジェスチャを検出することに応じて、アバターが縮小される。いくつかの実施形態では、アバターが縮小されたサイズである場合、デバイスは、下向きのスクロール方向におけるスクロールジェスチャに応じてアバターのサイズを更に縮小しない。いくつかの実施形態では、デバイスは、スクロールジェスチャに応じて、第1及び第2のオプション選択領域もスクロールする。電子デバイスは、ジェスチャがスクロールジェスチャであり、かつアバターが第2のサイズであるという判定に従って、スクロールジェスチャが第1の方向と反対の第2のスクロール方向(例えば、上向きのスクロール方向)に対応する場合、第1のサイズに移行するアバターを表示する。いくつかの実施形態では、アバターが縮小されたサイズ又は中間のサイズである場合、上向きのスクロール方向においてスクロールジェスチャを検出することに応じて、アバターが拡大される。いくつかの実施形態では、アバターが拡大されたサイズである場合、デバイスは、上向きのスクロール方向におけるスクロールジェスチャに応じてアバターのサイズを更に拡大しない。いくつかの実施形態では、デバイスは、スクロールジェスチャに応じて、第1及び第2のオプション選択領域もスクロールする。 According to some embodiments, the avatar becomes a first size (eg, an enlarged size) or a second size (eg, a reduced size). The electronic device performs gestures on the avatar editing user interface (eg, tap gestures on feature options or vertical swipe gestures) (eg, at positions corresponding to the first option selection area or the second option selection area). )To detect. In the electronic device, the gesture corresponds to the selection (eg, 869) of the feature option (eg, 836f) in the first or second set of feature options, and the avatar is the second size (eg, FIG. 8AN). ), The avatar that transitions from the second size to the first size is displayed (eg, FIG. 8AO) (eg, if the avatar is a reduced size and the feature option is selected). The avatar grows from a reduced size to an expanded size, as shown in FIGS. 8AN-8AO). The electronic device has the scroll gesture first according to the determination that the gesture is a scroll gesture (eg, a vertical swipe gesture on the first and second option selection areas) and the avatar is the first size. When corresponding to the scroll direction (for example, the downward scroll direction), the avatar that shifts to the second size is displayed. In some embodiments, if the avatar is of a magnified or intermediate size, the avatar is shrunk in response to detecting a scroll gesture in the downward scrolling direction. In some embodiments, if the avatar is of reduced size, the device does not further reduce the size of the avatar in response to the scroll gesture in the downward scroll direction. In some embodiments, the device also scrolls the first and second option selection areas, depending on the scroll gesture. The electronic device corresponds to a second scrolling direction (eg, an upward scrolling direction) in which the scrolling gesture is opposite to the first direction, according to the determination that the gesture is a scrolling gesture and the avatar is the second size. If so, display the avatar that shifts to the first size. In some embodiments, if the avatar is of reduced or intermediate size, the avatar is magnified in response to detecting the scroll gesture in the upward scrolling direction. In some embodiments, if the avatar is an enlarged size, the device does not further increase the size of the avatar in response to scrolling gestures in the upward scrolling direction. In some embodiments, the device also scrolls the first and second option selection areas, depending on the scroll gesture.

いくつかの実施形態に従って、電子デバイスは、ジェスチャがスクロールジェスチャであり、かつアバターが第1のサイズであるという判定に従い、スクロールジェスチャが第2のスクロール方向に対応する場合、第2のサイズに移行するアバターを表示することを止める。いくつかの実施形態では、スクロールジェスチャが下向きのスクロール方向である場合にのみ、アバター(例えば、805)が縮小される。 According to some embodiments, the electronic device moves to a second size if the scroll gesture corresponds to a second scroll direction, according to the determination that the gesture is a scroll gesture and the avatar is the first size. Stop displaying avatars. In some embodiments, the avatar (eg, 805) is shrunk only if the scroll gesture is in the downward scroll direction.

いくつかの実施形態に従って、特徴部オプション(例えば、812)のうちの1つの選択(例えば、820)を検出する前に、複数の異なる色値を通って時間と共に変化する肌の色を有するアバター(例えば、805)が表示される(例えば、アバターは、時間と共に2つ以上の色の間を前後に変動して表示される)。いくつかの実施形態では、特徴部オプションのうちの1つの選択を検出する前に、アバターが非対話状態で表示される(例えば、図8Aの805)(例えば、アバターが、ユーザの顔(例えば、673)において検出された変化に応じて変化しない既定の外観を有する、静的状態)。いくつかの実施形態では、電子デバイス(例えば、600)は、アバター編集ユーザインターフェース(例えば、801)上の入力(例えば、820)(例えば、複数のユーザ選択可能な肌の色オプション(例えば、812)からのアバターの肌の色オプション(例えば、812a)の選択)を検出することに応じて、色の効果が変動しないアバターを表示し(例えば、静的配色/単一色を有するアバターを表示し)、非対話状態から対話状態(例えば、ユーザの顔において検出された(例えば、電子デバイスの1つ以上のカメラを介して検出された)変化に応じてアバターが変化する、動的状態)に移行するアバターを表示する。 According to some embodiments, an avatar having a skin color that changes over time through multiple different color values before detecting a selection (eg, 820) of one of the feature options (eg, 812). (For example, 805) is displayed (for example, the avatar is displayed moving back and forth between two or more colors over time). In some embodiments, the avatar is displayed non-interactively (eg, 805 in FIG. 8A) (eg, the avatar is the user's face (eg, eg) before detecting the selection of one of the feature options. , 673), a static state) having a default appearance that does not change in response to the changes detected in. In some embodiments, the electronic device (eg, 600) is an input (eg, 820) (eg, a plurality of user selectable skin color options (eg, 812) on the avatar editing user interface (eg, 801). ) To detect the avatar's skin color option (eg, selection of 812a) to display an avatar whose color effect does not change (eg, static color scheme / display an avatar with a single color). ), From a non-interactive state to an interactive state (eg, a dynamic state in which the avatar changes in response to a change detected in the user's face (eg, detected through one or more cameras of the electronic device)). Display the avatar to be migrated.

なお、方法900に関して上述された処理(例えば、図9)の詳細はまた、以下及び上で説明されている方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法900に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。アバターを編集する方法700は、アバターユーザインターフェースをナビゲートする方法に組み込まれ得る。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図9に関して前述した方法900に従って実現されてよい。追加の例として、方法1000、1100、1200、及び1400は、方法900に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10~図12に関して後述される方法に従って実現されてよい。別の例として、いくつかの実施形態では、ナビゲーションユーザインターフェースが、仮想アバターを変更する処理を呼び出し、この処理は、図14A及び図14Bに関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は繰り返されていない。 It should be noted that the details of the process described above with respect to Method 900 (eg, FIG. 9) are also applicable in a similar manner to the methods described below and above. For example, the method 700 optionally includes one or more of the characteristics of the various methods described above with respect to the method 900. The method of editing an avatar 700 may be incorporated into a method of navigating the avatar user interface. For example, in some embodiments, the navigation user interface may call a process of creating or editing a customizable avatar, which process may be implemented according to method 900 described above with respect to FIG. As an additional example, methods 1000, 1100, 1200, and 1400 optionally include one or more of the properties of the various methods described above in connection with method 900. For example, in some embodiments, the navigation user interface may call a process for creating or editing a customizable avatar, which may be implemented according to the methods described below with respect to FIGS. 10-12. As another example, in some embodiments, the navigation user interface calls a process of modifying a virtual avatar, which process may be implemented according to the methods described below with respect to FIGS. 14A and 14B. For the sake of brevity, these details have not been repeated.

図10A~10Bは、いくつかの実施形態に従って電子デバイスを使用して視覚効果をアバター編集アプリケーションに表示する方法を示すフロー図である。方法1000は、表示装置を備えたデバイス(例えば、100、300、500、600)にて実行される。方法1000のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 10A-10B are flow diagrams illustrating a method of displaying visual effects in an avatar editing application using an electronic device according to some embodiments. Method 1000 is performed on a device equipped with a display device (eg, 100, 300, 500, 600). Some actions of Method 1000 are arbitrarily combined, some actions are arbitrarily changed in order, and some actions are optionally omitted.

下で説明されているように、方法1000は、視覚効果をアバター編集アプリケーションに表示する直感的な方法を提供する。この方法は、視覚効果をアバター編集アプリケーションに表示される画像に適用するユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザが視覚効果をより高速かつより効率的に画像に表示することを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。 As described below, Method 1000 provides an intuitive way to display visual effects in an avatar editing application. This method reduces the user's cognitive burden of applying visual effects to images displayed in avatar editing applications, thereby creating a more efficient human-machine interface. In the case of battery-powered computing devices, it saves power and increases battery charge intervals by allowing users to display visual effects in images faster and more efficiently.

いくつかの実施形態では、電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、1つ以上の色の第1の集合(例えば、いくつかの実施形態では、ハイライト、中間調、及び/又は影を含む、1つ以上の色のデフォルトの集合)を有する個別の特徴(例えば、851、8140)及び個別の特徴(例えば、第1のアバター特徴部(例えば、アバターの肌の色、アバターの目の色、アバターの毛髪の色など))の複数の色オプション(例えば、832、894)(例えば、それぞれ色に対応している複数のアフォーダンス)を含んでいるユーザインターフェースオブジェクト(例えば、仮想アバター805)を表示する(1002)。一部の実施形態では、個別の特徴はアバターの肌の色である。一部の実施形態では、個別の特徴はアバターの目の色(例えば、829)である。一部の実施形態では、個別の特徴はアバターの毛髪の色である。ユーザが色オプションを使用して変更できる個別の特徴を有するアバターを表示することによって、アバターの個別の特徴が色を変更できる状態にあるということを確認する視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) has a first set of one or more colors (eg, highlights in some embodiments) via a display device (eg, 601). Individual features (eg, 851, 8140) and individual features (eg, first avatar features (eg, avatars)) having a default set of one or more colors, including halftones and / or shadows. A user interface that includes multiple color options (eg, 832, 894) (eg, multiple affordances for each color) of skin color, avatar eye color, avatar hair color, etc.) Display an object (eg, virtual avatar 805) (1002). In some embodiments, the individual feature is the avatar's skin color. In some embodiments, the individual feature is the avatar's eye color (eg, 829). In some embodiments, the individual feature is the avatar's hair color. By displaying an avatar with individual features that the user can change using the color option, we provide the user with visual feedback to ensure that the individual characteristics of the avatar are ready to change color. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイス(例えば、600)は、第2の色に対応する複数の色オプション(例えば、894、832)のうちの色オプション(例えば、894-1、832a)の選択(例えば、895、852)を検出する(1004)。電子デバイスは、選択(1006)を検出することに応じて、個別の特徴(例えば、フレーム8140-1、アバターの毛髪851)の色をその色オプションに変更し(1008)(例えば、個別のアバター特徴部を表示するアバター特徴部オプションの外観に変更し(例えば、個別のアバター特徴部を有する仮想アバター(例えば、805)の外観を変更し))、1つ以上の色の第2の集合(例えば、スライダー857、897に対する変更から生じる色の変化の集合)に対応する色オプションのための第1の色調整制御(例えば、857、897)(例えば、スライダーユーザインターフェース)を表示する(1010)。第1の色調整制御を有するアバターを表示することによって、アバターの個別の特徴が色を変更しており、更なる色の変更のために選択されているということを確認する視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。触覚フィードバックは、変更が受信されたことを確認する。触覚フィードバックを提供することによって、入力が受信されたこと、及び変更が行われたことをユーザに知らせる。 In some embodiments, the electronic device (eg, 600) selects a color option (eg, 894-1, 832a) out of a plurality of color options (eg, 894, 832) corresponding to the second color. (For example, 895, 852) is detected (1004). The electronic device changes the color of an individual feature (eg, frame 81401, avatar hair 851) to its color option in response to detecting selection (1006) (eg, individual avatar). Change the appearance of the avatar feature option to display the feature (eg, change the appearance of a virtual avatar with individual avatar features (eg, 805))) and a second set of one or more colors (eg) For example, display a first color adjustment control (eg, 857,897) (eg, slider user interface) for a color option corresponding to a set of color changes resulting from changes to sliders 857,897 (eg, slider user interface) (1010). .. By displaying an avatar with a first color adjustment control, the user is given visual feedback to ensure that the individual features of the avatar are changing colors and are selected for further color changes. offer. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently. Tactile feedback confirms that changes have been received. By providing haptic feedback, the user is informed that the input has been received and that changes have been made.

いくつかの実施形態では、1つ以上の色の第2の集合に対応する色オプションのための第1の色調整制御は、トラック(例えば、897-2)及びトラック内を移動するサム(例えば、897-1)を有するスライダー(例えば、897)を含む。いくつかの実施形態では、入力(例えば、860)はトラック内のサムの移動を引き起こす。いくつかの実施形態では、デバイスは、入力を検出することに応じて、サムが既定の位置(例えば、860’)(例えば、第2の色のデフォルト値に対応する位置である、トラックの中央)に移動されることに従って、触覚フィードバックを生成する。いくつかの実施形態では、既定の位置以外への位置へのサムの移動は、触知出力を含む触覚フィードバックを生成しない。 In some embodiments, the first color adjustment control for a color option corresponding to a second set of one or more colors is a track (eg, 897-2) and a thumb (eg,) moving within the track. , 897-1), including a slider (eg, 897). In some embodiments, the input (eg, 860) causes the thumb to move within the track. In some embodiments, the device is in the center of the track where the thumb is in the default position (eg, 860') (eg, the position corresponding to the default value of the second color) in response to detecting the input. ) To generate tactile feedback. In some embodiments, moving the thumb to a position other than the default position does not generate tactile feedback, including tactile output.

ユーザインターフェースオブジェクト(例えば、805)の個別の特徴(例えば、851)が1つ以上の色(例えば、832a)の第2の集合を有する間、電子デバイスは、第1の色調整制御に対応する入力(例えば、860)(例えば、ドラッグジェスチャ又はタップジェスチャ)を検出する(1012)。電子デバイスは、第1の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を、1つ以上の色の第2の集合から、1つ以上の色の第2の集合の変更されたバージョン(例えば、個別のアバター特徴部の変更された色)に変更する(1014)。いくつかの実施形態では、スライダーユーザインターフェースは、基になる選択された色オプションの特性(例えば、色相、彩度、値/明度)を変更する。いくつかの実施形態では、選択された色オプションの表示された色も、スライダーユーザインターフェース上の入力に応じて変更される。いくつかの実施形態では、方法900及び図8AX~図8AYに関して説明されているように、複数の色オプションがカラーパレットを含む。アバターの変更された外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device corresponds to the first color adjustment control while the individual feature (eg, 851) of the user interface object (eg, 805) has a second set of one or more colors (eg, 832a). The input (eg, 860) (eg, drag gesture or tap gesture) is detected (1012). The electronic device selects the colors of the individual features from the second set of one or more colors, based on the second color, in response to detecting the input corresponding to the first color adjustment control. Change to a modified version of a second set of one or more colors (eg, modified colors of individual avatar features) (1014). In some embodiments, the slider user interface modifies the characteristics of the underlying selected color option (eg, hue, saturation, value / lightness). In some embodiments, the displayed color of the selected color option is also changed in response to input on the slider user interface. In some embodiments, multiple color options include a color palette, as described for Method 900 and FIGS. 8AX-8AY. The modified appearance of the avatar provides the user with feedback on the types of avatar characteristics that can be customized. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第1の色調整制御(例えば、857)に対応する入力(例えば、860)を検出することに応じて、色オプション(例えば、832a)の色を、第2の色から1つ以上の色の第2の集合の変更されたバージョンに変更する。いくつかの実施形態では、個別の特徴(例えば、851、8140)の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更することは、1つ以上の色の第2の集合の複数の値(例えば、ハイライト、中間調、影)を変更することを含む。いくつかの実施形態では、個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更することは、第1の色調整制御に対応する入力(例えば、860)の大きさ及び方向に更に基づく(例えば、入力が右に大きく移動するほど、色の赤色の値が増加し、入力が左に大きく移動するほど、色の緑色の値が増加する)。 According to some embodiments, the electronic device (eg, 600) has a color option (eg, 832a) in response to detecting an input (eg, 860) corresponding to the first color adjustment control (eg, 857). ) Is changed from the second color to a modified version of the second set of one or more colors. In some embodiments, changing the color of an individual feature (eg, 851, 8140) from a second set of one or more colors to a modified version of a second set of one or more colors. Includes changing multiple values (eg, highlights, midtones, shadows) of a second set of one or more colors. In some embodiments, changing the color of an individual feature from a second set of one or more colors to a modified version of a second set of one or more colors is a first color adjustment. Further based on the size and orientation of the input corresponding to the control (eg, 860) (eg, the greater the input moves to the right, the greater the red value of the color, and the greater the input moves to the left, the greater the color of the color. The green value increases).

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第2の特徴(例えば、8140-2)(例えば、個別の(第1の)アバター特徴部の部分又は個別のアバター特徴部と異なる第2のアバター特徴部)の第2の複数の色オプション(例えば、896)を表示する(1016)。第2の特徴の第2の複数の色オプションと共にアバターを表示することによって、ユーザが第2の複数の色オプションを使用して第2の特徴の色を変更したときに、ユーザに視覚フィードバックを提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) differs from a second feature (eg, 8140-2) (eg, a portion of an individual (first) avatar feature or an individual avatar feature. A second plurality of color options (eg, 896) of the second avatar feature section) are displayed (1016). By displaying the avatar with the second plurality of color options of the second feature, visual feedback is given to the user when the user changes the color of the second feature using the second plurality of color options. offer. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイス(例えば、600)は、第2の複数の色オプションのうちの第2の色オプション(例えば、896-1)の選択(例えば、898)を検出する(1018)。いくつかの実施形態では、電子デバイスは、第2の色オプションの選択を検出することに応じて(1020)、第2の特徴の色を第2の色オプションに変更し(1022)、1つ以上の色の第3の集合に対応する第2の色オプションのための第2の色調整制御(例えば、899)を表示する(1024)。第2の色調整制御を表示することによって、第2の特徴が色の異なる集合によって変更されてよいということの視覚フィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) detects the selection (eg, 898) of the second color option (eg, 896-1) of the second plurality of color options (1018). ). In some embodiments, the electronic device changes the color of the second feature to the second color option (1022) in response to detecting the selection of the second color option (1022), one. Display a second color adjustment control (eg, 899) for the second color option corresponding to the third set of colors above (1024). By displaying the second color adjustment control, the user is provided with visual feedback that the second feature may be modified by different sets of colors. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、個別の特徴及び第2の特徴はそれぞれ、アバターの眼鏡の特徴(例えば、8140)の部分に対応し、複数の色オプション(例えば、884)は、アバターの眼鏡のフレーム(例えば、8140-1)の色に対応し、第2の複数の色オプション(例えば、896)は、アバターの眼鏡のレンズ(例えば、8140-2)の色に対応する。いくつかの実施形態では、電子デバイス(例えば、600)は、第2の色調整制御に対応する入力を検出する。電子デバイスは、第2の色調整制御に対応する入力を検出することに応じて、アバターの眼鏡のレンズの不透明度を変更する(例えば、完全に反射する最大値から、わずかに反射するほとんど透明な最小値までの範囲内で、レンズの不透明度を変更する)。アバターの眼鏡の外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the individual feature and the second feature each correspond to a portion of the avatar's spectacle feature (eg, 8140) and the plurality of color options (eg, 884) are the avatar's spectacle frame. The second plurality of color options (eg, 896) correspond to the colors of the avatar's spectacle lenses (eg, 8140-2). In some embodiments, the electronic device (eg, 600) detects an input corresponding to a second color adjustment control. The electronic device changes the opacity of the lens of the avatar's eyeglasses in response to detecting the input corresponding to the second color adjustment control (for example, from the maximum value of full reflection to almost transparent reflection slightly). Change the opacity of the lens within the range up to the minimum value). The appearance of the avatar's glasses provides the user with feedback on the types of avatar characteristics that can be customized. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、デバイス(例えば、600)は、第2の色オプション(例えば、832b)の選択を検出することに応じて(例えば、第2の色オプションの選択を検出することに応じて)、1つ以上の色の第2の集合に対応する色オプション(例えば、832a)のための第1の色調整制御(例えば、857)を表示することを止める(例えば、第1の色スライダーを非表示にする)。いくつかの実施形態に従って、電子デバイス(例えば、600)は、(例えば、第2の色オプションの選択を検出することに応じて)1つ以上の色の第2の集合に対応する色オプション(例えば、832a)のための第1の色調整制御(例えば、857)を表示することを止めた後に、第2の色に対応する複数の色オプションのうちの色オプション(例えば、832a)のその後の選択(例えば、871)を検出する。電子デバイスは、その後の選択を検出することに応じて、色オプションのための第1の色調整制御の表示を再開する(例えば、図8ATを参照)。いくつかの実施形態では、第1の色調整制御は、1つ以上の色の第2の集合の変更されたバージョンに対応する(例えば、色スライダーの変更(スライダーに対する変更及び1つ以上の色の第2の集合の変更されたバージョンを含む)は、色スライダーを変更するその後入力によって変更されるまで、持続する)。いくつかの実施形態では、(例えば、異なるアバター特徴部を選択すること、異なる色アフォーダンスを選択すること、アバターオプションをスクロールすることなどによって)デバイスが表示された色スライダーから離れてナビゲートしたときに、その色スライダーの設定が持続する。いくつかの実施形態では、(例えば、図8ATに示されているように)デバイスがナビゲートして変更されたスライダーに戻ったときに、変更された設定(例えば、セレクターアフォーダンスの位置及び変更された色)が変化しない。第1の色調整制御を表示することを止めた後に、第1の色調整制御を再び表示することによって、ユーザインターフェースの状態が色が変更されてよいモードに戻っていることの視覚フィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the device (eg, 600) responds by detecting a selection of a second color option (eg, 832b) (eg, by detecting a selection of a second color option). Stop displaying the first color adjustment control (eg, 857) for the color option (eg, 832a) corresponding to the second set of one or more colors (eg, the first color). Hide the slider). According to some embodiments, the electronic device (eg, 600) has a color option corresponding to a second set of one or more colors (eg, depending on detecting a selection of the second color option). For example, after stopping displaying the first color adjustment control (eg, 857) for 832a), then the color option (eg, 832a) of the plurality of color options corresponding to the second color. Selection (eg, 871) is detected. The electronic device resumes displaying the first color adjustment control for the color option in response to detecting subsequent selections (see, eg, FIG. 8AT). In some embodiments, the first color adjustment control corresponds to a modified version of a second set of one or more colors (eg, a change in the color slider (changes to the slider and one or more colors). (Including modified versions of the second set of) will persist until changed by input after changing the color slider). In some embodiments, when the device navigates away from the displayed color slider (for example, by selecting different avatar features, selecting different color affordances, scrolling avatar options, etc.). In addition, the setting of the color slider continues. In some embodiments, when the device navigates back to the modified slider (eg, as shown in FIG. 8AT), the modified settings (eg, the position and modification of the selector affordance) are modified. The color) does not change. By displaying the first color adjustment control again after stopping displaying the first color adjustment control, the visual feedback that the state of the user interface is returned to the mode in which the color may be changed is given. Provide to the user. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイスは、1つ以上の色の第2の集合に対応する第1の色調整制御(例えば、857)を表示することを止めた後に、(例えば、図8ACに示されているように)1つ以上の色の第2の集合の変更されたバージョンを有する複数の色オプションのうちの色オプション(例えば、832a)の表示を維持する。 According to some embodiments, after the electronic device has stopped displaying a first color adjustment control (eg, 857) corresponding to a second set of one or more colors (eg, in FIG. 8AC). Maintains the display of a color option (eg, 832a) of a plurality of color options having a modified version of a second set of one or more colors (as shown).

いくつかの実施形態では、第2の色に基づいて個別の特徴の色を1つ以上の色の第2の集合から1つ以上の色の第2の集合の変更されたバージョンに変更することは、次のステップのうちの1つ以上を含む。デバイス(例えば、600)は、第1の色調整制御(例えば、822)に対応する入力(例えば、860)が第2の方向の移動を含んでいるという判定に従って、1つ以上の色の第2の集合の赤色の値を増やす。第1の色調整制御に対応する入力が第3の方向の移動を含んでいるという判定に従って、1つ以上の色の第2の集合の緑色の値を増やす。 In some embodiments, changing the color of an individual feature based on a second color from a second set of one or more colors to a modified version of a second set of one or more colors. Includes one or more of the following steps. The device (eg, 600) has a second of one or more colors according to the determination that the input (eg, 860) corresponding to the first color adjustment control (eg, 822) comprises movement in the second direction. Increase the red value of the set of 2. According to the determination that the input corresponding to the first color adjustment control includes the movement in the third direction, the green value of the second set of one or more colors is increased.

いくつかの実施形態では、ユーザインターフェースオブジェクトの個別の特徴が1つ以上の色の第3の集合を有する間、電子デバイス(例えば、600)は、第2の色調整制御(例えば、899)に対応する入力(例えば、ドラッグジェスチャ又はタップジェスチャ)を検出する。電子デバイスは、第2の色調整制御に対応する入力を検出することに応じて、第2の色に基づいて、個別の特徴の色を、1つ以上の色の第3の集合から、1つ以上の色の第3の集合の変更されたバージョン(例えば、個別のアバター特徴部の変更された色)に変更する。いくつかの実施形態では、これは、次のステップのうちの1つ以上を含む。第2の色調整制御に対応する第2の入力が第2の方向の移動を含んでいるという判定に従って、1つ以上の色の第3の集合の赤色の値を増やす。第2の色調整制御に対応する第2の入力が第3の方向の移動を含んでいるという判定に従って、1つ以上の色の第3の集合の緑色の値を増やす。色の集合の変更は、ユーザ入力の移動に結びつけられる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) is in a second color adjustment control (eg, 899) while the individual features of the user interface object have a third set of one or more colors. Detect the corresponding input (eg drag gesture or tap gesture). The electronic device selects the colors of the individual features from a third set of one or more colors, based on the second color, in response to detecting an input corresponding to the second color adjustment control. Change to a modified version of a third set of one or more colors (eg, a modified color of an individual avatar feature). In some embodiments, this comprises one or more of the following steps. According to the determination that the second input corresponding to the second color adjustment control includes the movement in the second direction, the red value of the third set of one or more colors is increased. According to the determination that the second input corresponding to the second color adjustment control includes the movement in the third direction, the green value of the third set of one or more colors is increased. Changing the set of colors is tied to moving user input. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第1の色調整制御(例えば、897)に対応する入力が第1の方向を含んでいるという判定に応じて、1つ以上の色の第2の集合を第1の方法で変更する(例えば、第1の色スライダー上の第1の方向の入力の移動に基づいて、第1の方向で(例えば、冷たい色調からより暖かい色調へ)、1つ以上の色の第2の集合の色のグラデーションを調整する)。いくつかの実施形態では、第2の色調整制御(例えば、899)に対応する第2の入力が第1の方向を含んでいるという判定に応じて、1つ以上の色の第3の集合を第1の方法で変更する(例えば、第2の色スライダー上の第1の方向(例えば、第1の色スライダーの移動と同じ第1の方向)の入力の移動に基づいて、1つ以上の色の第2の集合のグラデーションが調整されたのと同じ方法で(例えば、やはり冷たい色調からより暖かい色調へ)、1つ以上の色の第3の集合のグラデーションを調整する)。色の集合の変更は、ユーザ入力の移動に結びつけられる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) has one or more, depending on the determination that the input corresponding to the first color tone control (eg, 897) comprises a first direction. Modify the second set of colors in the first way (eg, based on the movement of the input in the first direction on the first color slider, in the first direction (eg, cold to warmer tones). To) Adjust the color gradient of the second set of one or more colors). In some embodiments, a third set of one or more colors, depending on the determination that the second input corresponding to the second color adjustment control (eg, 899) contains the first direction. Is changed in the first way (eg, one or more based on the movement of the input in the first direction on the second color slider (eg, the same first direction as the movement of the first color slider). Adjust the gradient of the third set of one or more colors in the same way that the gradient of the second set of colors was adjusted (eg, also from cold to warmer tones). Changing the set of colors is tied to moving user input. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

なお、方法1000に関して上述された処理(例えば、図10)の詳細はまた、以下及び上で説明されている方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1000に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。アバターを編集する方法700は、アバターユーザインターフェースをナビゲートする方法に組み込まれ得る。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10に関して前述した方法1000に従って実現されてよい。追加の例として、方法900、1100、1200、及び1400は、方法1000に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図11~図12に関して後述される方法に従って実現されてよい。別の例として、いくつかの実施形態では、ナビゲーションユーザインターフェースが、仮想アバターを変更する処理を呼び出し、この処理は、図14A及び図14Bに関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は繰り返されていない。 It should be noted that the details of the process described above for Method 1000 (eg, FIG. 10) are also applicable to the methods described below and above in a similar manner. For example, the method 700 optionally includes one or more of the characteristics of the various methods described above with respect to the method 1000. The method of editing an avatar 700 may be incorporated into a method of navigating the avatar user interface. For example, in some embodiments, the navigation user interface may call a process of creating or editing a customizable avatar, which process may be implemented according to Method 1000 described above with respect to FIG. As an additional example, methods 900, 1100, 1200, and 1400 optionally include one or more of the properties of the various methods described above in connection with method 1000. For example, in some embodiments, the navigation user interface may call a process for creating or editing a customizable avatar, which may be implemented according to the methods described below with respect to FIGS. 11-12. As another example, in some embodiments, the navigation user interface calls a process of modifying a virtual avatar, which process may be implemented according to the methods described below with respect to FIGS. 14A and 14B. For the sake of brevity, these details have not been repeated.

図11A及び11Bは、いくつかの実施形態に従ってアバター編集ユーザインターフェースを表示する方法を示すフロー図である。方法1100は、表示装置を備えたデバイス(例えば、100、300、500、600)にて実行される。方法1100のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 11A and 11B are flow diagrams showing how to display the avatar editing user interface according to some embodiments. Method 1100 is performed on a device equipped with a display device (eg, 100, 300, 500, 600). Some actions of method 1100 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

下で説明されているように、方法1100は、アバター編集ユーザインターフェースを表示する直感的な方法を提供する。この方法は、アバターを管理する際のユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ユーザがアバター編集ユーザインターフェースを使用してより素早く効率的にアバターの特性を変更できるようにするので、電力を節約し、バッテリの充電間の時間を延ばす。 As described below, Method 1100 provides an intuitive way to display the avatar editing user interface. This method reduces the cognitive burden on the user when managing avatars, thereby creating a more efficient human-machine interface. Battery-powered computing devices allow users to change avatar characteristics more quickly and efficiently using the avatar editing user interface, thus saving power and extending the time between battery charges.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、1つ以上の色の第1の集合を有する第1のアバター特徴部(例えば、肌の色)、及び1つ以上の色の第1の集合に基づく、1つ以上の色の第1の集合と異なる、1つ以上の色の集合を有する第2のアバター特徴部(例えば、827、829)(例えば、顔の毛、眉、唇)を含む、複数のアバター特徴部(例えば、アバターの毛髪、顔の特徴(アバターの唇、目、鼻など)、アクセサリ(例えば、イヤリング、サングラス、帽子))を有するアバター(例えば、805)を表示する(1104)ことを含んでいるアバター編集ユーザインターフェース(例えば、801)を表示する(1102)。アバター編集ユーザインターフェースを表示することは、第1のアバター特徴部に対応する複数の色オプション(例えば、812)(例えば、それぞれ色に対応する複数のアフォーダンス)を表示する(1106)ことも含む。電子デバイスは、複数の色オプションのうちの個別の色オプション(例えば、812a)の選択(例えば、820)を検出する(1108)。アバターの外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device (eg, 600) has a first avatar feature (eg, skin color) having a first set of one or more colors, and one or more via a display device (eg, 601). A second avatar feature (eg, 827, 829) (eg, of the face) that has one or more sets of colors that are different from the first set of one or more colors based on the first set of colors. An avatar with multiple avatar features (eg, avatar hair, facial features (avatar lips, eyes, nose, etc.), accessories (eg, earrings, sunglasses, hat)), including hair, eyebrows, lips). Displaying an avatar editing user interface (eg, 801), including displaying (1104), eg, displaying 805) (1102). Displaying the avatar editing user interface also includes displaying a plurality of color options (eg, 812) corresponding to the first avatar feature (eg, a plurality of affordances corresponding to each color) (1106). The electronic device detects a selection (eg, 820) of an individual color option (eg, 812a) of a plurality of color options (1108). The appearance of the avatar provides the user with feedback indicating the types of avatar characteristics that can be customized. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイス(例えば、600)は、第1のアバター特徴部(例えば、肌の色)の複数の色オプションのうちの個別の色オプション(例えば、812a)の選択を検出することに応じて、個別の色オプションが1つ以上の色の第2の集合に対応するという判定に従って、アバター(例えば、805)の外観を更新する(1110)。いくつかの実施形態では、アバターの外観を更新することは、次のステップのうちの1つ以上を含む。1つのステップは、第1のアバター特徴部(例えば、アバター805の顔)を1つ以上の色の第2の集合に変更する(1112)ことを含む。別のステップは、第2のアバター特徴部(例えば、827)を、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に変更する(1114)ことを含む(例えば、第1のアバター特徴部の選択された色は、第2のアバター特徴部の変更された色に関する色の特性(例えば、淡色、色相、陰影、彩度、中間調、ハイライト、暖かさなど)を提供する)。第1のアバター特徴部の個別の色オプションの選択、及びこの選択に従って第1のアバター特徴部を変更することによって、変更された第1のアバター特徴部のフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) detects the selection of an individual color option (eg, 812a) among the plurality of color options of the first avatar feature (eg, skin color). Correspondingly, the appearance of the avatar (eg, 805) is updated (1110) according to the determination that the individual color options correspond to a second set of one or more colors. In some embodiments, updating the appearance of the avatar comprises one or more of the following steps. One step comprises changing the first avatar feature (eg, the face of avatar 805) to a second set of one or more colors (1112). Another step is to make the second avatar feature (eg, 827) of one or more colors different from the second set of one or more colors based on the second set of one or more colors. Including changing to a set (1114) (eg, the selected color of the first avatar feature may be a color characteristic (eg, light color, hue, shading, etc.) with respect to the changed color of the second avatar feature. Provides saturation, midtones, highlights, warmth, etc.). By selecting individual color options for the first avatar feature and changing the first avatar feature according to this selection, the user is provided with the feedback of the modified first avatar feature. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第1のアバター特徴部の複数の色オプションのうちの個別の色オプション(例えば、812a)の選択(例えば、820)を検出することに応じて、個別の色オプションが1つ以上の色の第3の集合に対応するという判定に従って、第1のアバター特徴部及び第2のアバター特徴部(例えば、827)を、個別の色オプションが1つ以上の色の第2の集合に対応する場合とは異なる方法で変更する(1118)(例えば、1つ以上の色の第2の集合ではなく1つ以上の色の第3の集合に対応する選択された色オプションに基づいて、第1及び第2のアバター特徴部を変更する)(例えば、選択された色オプションが1つ以上の色の第3の集合に対応する場合、選択された色オプションに基づいて、第1及び第2のアバター特徴部のハイライトを調整する)(例えば、選択された色オプションが1つ以上の色の第2の集合に対応する場合、第1及び第2のアバター特徴部の中間調を調整する)。いくつかの実施形態では、色の第3の集合の場合の選択された色オプションと第1及び第2のアバター特徴部との間の関係は、1つ以上の色の第2の集合の場合のそれらの関係とは異なる。例えば、1つ以上の色の第2の集合に対応する選択された色オプションは、第1及び/又は第2のアバター特徴部のハイライトの調整に使用されるが、一方、1つ以上の色の第3の集合に対応する選択された色オプションは、第1及び/又は第2のアバター特徴部の中間調の調整に使用される。第1のアバター特徴部の個別の色オプションの選択、及びこの選択に従って第1のアバター特徴部を変更することによって、変更された第1のアバター特徴部のフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) detects a selection (eg, 820) of an individual color option (eg, 812a) of the plurality of color options in the first avatar feature. Depending on the determination that the individual color options correspond to a third set of one or more colors, the first avatar feature and the second avatar feature (eg, 827) are set to the individual color options. Is modified in a different way than it corresponds to a second set of one or more colors (1118) (eg, a third set of one or more colors rather than a second set of one or more colors). Change the first and second avatar features based on the selected color option corresponding to) (eg, if the selected color option corresponds to a third set of one or more colors, select Adjust the highlights of the first and second avatar features based on the color options given) (eg, if the selected color option corresponds to a second set of one or more colors, the first And adjust the halftone of the second avatar feature part). In some embodiments, the relationship between the selected color option in the case of a third set of colors and the first and second avatar features is in the case of a second set of one or more colors. Different from those relationships. For example, the selected color option corresponding to a second set of one or more colors is used to adjust the highlighting of the first and / or second avatar features, while one or more. The selected color option corresponding to the third set of colors is used to adjust the halftones of the first and / or second avatar features. By selecting individual color options for the first avatar feature and changing the first avatar feature according to this selection, the user is provided with the feedback of the modified first avatar feature. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、第3のアバター特徴部(例えば、851)(例えば、毛髪の色)に対応する第2の複数の色オプション(例えば、832)を表示する。デバイスは、第2の複数の色オプションのうちの第1の色オプション(例えば、832a)の選択(例えば、852)を検出する。電子デバイスは、第3のアバター特徴部の第2の複数の色オプションのうちの第1の色オプションの選択を検出することに応じて、第1の色オプションが1つ以上の色の第4の集合に対応するという判定に従って、アバター(例えば、805)の外観を更新する。アバターを更新することは、第3のアバター特徴部(例えば、851)を1つ以上の色の第4の集合に変更することと、第2のアバター特徴部(例えば、眉の色827)を、1つ以上の色の第4の集合に基づく、1つ以上の色の第4の集合と異なる、1つ以上の色の集合に変更することと、を含む。いくつかの実施形態では、アバターの顔の毛の色(例えば、眉の色)は、毛髪の色と肌の色の両方による影響を受ける。アバターの外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。第3のアバター特徴部の第1の色オプションの選択、及びこの選択に従って第3のアバター特徴部を変更することによって、変更された第1のアバター特徴部のフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) corresponds to a third avatar feature (eg, 851) (eg, hair color) via a display device (eg, 601). Display multiple color options (eg, 832). The device detects the selection (eg, 852) of the first color option (eg, 832a) of the second plurality of color options. The electronic device detects the selection of the first color option among the second plurality of color options of the third avatar feature, so that the first color option is a fourth of one or more colors. The appearance of the avatar (eg, 805) is updated according to the determination that it corresponds to the set of. Updating the avatar changes the third avatar feature (eg, 851) to a fourth set of one or more colors and the second avatar feature (eg, eyebrow color 827). Includes changing to a set of one or more colors that is different from the fourth set of one or more colors based on a fourth set of one or more colors. In some embodiments, the avatar's facial hair color (eg, eyebrow color) is affected by both hair color and skin color. The appearance of the avatar provides the user with feedback indicating the types of avatar characteristics that can be customized. By selecting the first color option of the third avatar feature and changing the third avatar feature according to this selection, the user is provided with the feedback of the changed first avatar feature. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第2の複数の色オプション(例えば、832)のうちの第2の色オプション(例えば、832b)の選択(例えば、861)を検出する。電子デバイスは、第3のアバター特徴部の第2の複数の色オプションのうちの第2の色オプションの選択を検出することに応じて、第1の色オプションが1つ以上の色の第5の集合に対応するという判定に従って、第3のアバター特徴部(例えば、肌の色)及び第2のアバター特徴部(例えば、827)を、第1の色オプションが選択された場合とは異なる方法で変更する(例えば、1つ以上の色の第4の集合ではなく1つ以上の色の第5の集合に対応する第2の色オプションに基づいて、第3及び第2のアバター特徴部を変更する)。いくつかの実施形態では、色の第5の集合の場合の選択された色オプション(例えば、第2の色オプション)と第3及び第2のアバター特徴部との間の関係は、1つ以上の色の第4の集合の場合のそれらの関係とは異なる。例えば、1つ以上の色の第4の集合に対応する選択された色オプションは、第3及び/又は第2のアバター特徴部のハイライトの調整に使用されるが、1つ以上の色の第5の集合に対応する選択された色オプションは、第3及び/又は第2のアバター特徴部の中間調の調整に使用される。一部の実施形態では、第1のアバター特徴部はアバターの毛髪の色に対応する。一部の実施形態では、第2のアバター特徴部はアバターの眉に対応する。一部の実施形態では、第3のアバター特徴部はアバターの肌の色に対応する。第2のアバター特徴部の第2の色オプションの選択、及びこの選択に従って第2のアバター特徴部を変更することによって、変更された第2のアバター特徴部のフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) detects the selection (eg, 861) of the second color option (eg, 832b) of the second plurality of color options (eg, 832). do. The electronic device detects the selection of the second color option among the second plurality of color options of the third avatar feature, so that the first color option is a fifth of one or more colors. According to the determination that it corresponds to the set of, the third avatar feature (eg, skin color) and the second avatar feature (eg, 827) are different from the case where the first color option is selected. (For example, based on the second color option corresponding to the fifth set of one or more colors instead of the fourth set of one or more colors, the third and second avatar features change). In some embodiments, the relationship between the selected color option (eg, the second color option) and the third and second avatar features in the case of a fifth set of colors is one or more. It is different from their relationship in the case of the fourth set of colors. For example, the selected color option corresponding to a fourth set of one or more colors is used to adjust the highlighting of the third and / or second avatar feature, but of one or more colors. The selected color option corresponding to the fifth set is used to adjust the midtones of the third and / or second avatar feature. In some embodiments, the first avatar feature corresponds to the hair color of the avatar. In some embodiments, the second avatar feature corresponds to the avatar's eyebrows. In some embodiments, the third avatar feature corresponds to the avatar's skin color. By selecting the second color option of the second avatar feature and changing the second avatar feature according to this selection, the user is provided with the feedback of the changed second avatar feature. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第3のアバター特徴部(例えば、アバターの肌の色)及び第2のアバター特徴部(例えば、827)(例えば、アバターの眉)は、第1のアバター特徴部(例えば、アバターの毛髪の色)に対応する1つ以上の色の第2の集合に基づいて第1の色特性(例えば、色相)を調整することを含む第1の方法で変更される。いくつかの実施形態では、第3のアバター特徴部及び第2のアバター特徴部は、第3のアバター特徴部に対応する1つ以上の色の第4の集合に基づいて、第1の色特性とは異なる第2の色特性(例えば、色の輝度)を調整する(例えば、アバターの眉はアバターの肌の色よりも暗い)ことを含む、第2の方法で変更される。第3のアバター特徴部及び第2のアバター特徴部は、第1のアバター特徴部に対応する第1の色特性に従って調整される。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the third avatar feature (eg, avatar skin color) and the second avatar feature (eg, 827) (eg, avatar eyebrows) are the first avatar feature (eg, avatar eyebrows). For example, it is modified by a first method comprising adjusting a first color characteristic (eg, hue) based on a second set of one or more colors corresponding to (eg, avatar hair color). In some embodiments, the third avatar feature and the second avatar feature are based on a fourth set of one or more colors corresponding to the third avatar feature, the first color characteristic. It is modified in a second way, including adjusting a second color characteristic (eg, color brightness) that is different from (eg, the avatar's eyebrows are darker than the avatar's skin color). The third avatar feature section and the second avatar feature section are adjusted according to the first color characteristic corresponding to the first avatar feature section. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、複数の色オプション(例えば、812)のうちの個別の色オプション(例えば、812a)の選択(例えば、820)を検出することに応じて、1つ以上の色の第2の集合に対応する個別の色オプションのための色調整制御(例えば、822)(例えば、スライダーユーザインターフェース)を表示する(1116)。いくつかの実施形態では、色調整制御は、方法1000及び図10A~図10Bに関して説明されているような色調整制御である。色調整制御は、選択されてよい色オプションの視覚的表現を提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) responds by detecting a selection (eg, 820) of an individual color option (eg, 812a) out of a plurality of color options (eg, 812). To display color adjustment controls (eg, 822) (eg, slider user interface) for individual color options corresponding to a second set of one or more colors (1116). In some embodiments, the color adjustment control is a color adjustment control as described for Method 1000 and FIGS. 10A-10B. Color adjustment controls provide a visual representation of the color options that may be selected. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第2のアバター特徴部は、1つ以上の色の第2の集合に基づく、1つ以上の色の第2の集合と異なる、1つ以上の色の集合に対応するアバターの唇の色を有するアバターの唇(例えば、828)に対応する。いくつかの実施形態では、デバイスは、色調整制御(例えば、892、893)に対応する入力(例えば、ドラッグジェスチャ又はタップジェスチャ)を検出する。電子デバイス(例えば、600)は、この入力を検出することに応じて、アバターの唇の第1の部分(例えば、外側部分(例えば、828a))のアバターの唇の色を変更し、アバターの唇の第2の部分(例えば、内側部分(例えば、828b))のアバターの唇の色を維持する。第2のアバター特徴部の外観は、カスタマイズできるアバターの特性の種類を示すフィードバックをユーザに提供する。色調整制御からのアバター特徴部の色オプションの選択によって、変更された第1のアバター特徴部のフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the second avatar feature corresponds to a set of one or more colors that is different from the second set of one or more colors based on the second set of one or more colors. Corresponds to the avatar's lips (eg, 828) having the color of the avatar's lips. In some embodiments, the device detects an input (eg, drag gesture or tap gesture) corresponding to a color adjustment control (eg, 892, 893). The electronic device (eg, 600) changes the color of the avatar's lips in the first portion of the avatar's lips (eg, the outer portion (eg, 828a)) in response to detecting this input. Maintains the color of the avatar's lips in the second part of the lips (eg, the inner part (eg, 828b)). The appearance of the second avatar feature provides the user with feedback indicating the type of avatar feature that can be customized. By selecting the color option of the avatar feature from the color adjustment control, the user is provided with the feedback of the modified first avatar feature. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1のアバター特徴部はアバターの肌に対応する。いくつかの実施形態では、第2のアバター特徴部はアバターの唇(例えば、828)に対応する。いくつかの実施形態では、1つ以上の色の第2の集合に基づく1つ以上の色の集合は、1つ以上の色の第2の集合及び赤色の値を含む(例えば、アバターの唇は、肌の色及び赤色の陰影(例えば、ピンク色などの自然な陰影又は口紅の色を表す陰影)に基づく)。アバターの肌の色の外観は、アバターの肌の色をカスタマイズできることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the first avatar feature corresponds to the skin of the avatar. In some embodiments, the second avatar feature corresponds to the avatar's lips (eg, 828). In some embodiments, a set of one or more colors based on a second set of one or more colors comprises a second set of one or more colors and a red value (eg, avatar lips). Is based on skin color and shades of red (eg, natural shades such as pink or shades that represent the color of lipstick). The appearance of the avatar's skin color provides the user with feedback that the avatar's skin color can be customized. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

なお、方法1100に関して上述された処理(例えば、図11)の詳細はまた、以下及び上で説明されている方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1100に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。アバターを編集する方法700は、アバターユーザインターフェースをナビゲートする方法に組み込まれ得る。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図9に関して前述した方法900に従って実現されてよい。追加の例として、方法1000、1200、及び1400は、方法1100に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10~図12に関して後述される方法に従って実現されてよい。別の例として、いくつかの実施形態では、ナビゲーションユーザインターフェースが、仮想アバターを変更する処理を呼び出し、この処理は、図14A及び図14Bに関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は繰り返されていない。 It should be noted that the details of the process described above for Method 1100 (eg, FIG. 11) are also applicable to the methods described below and above in a similar manner. For example, method 700 optionally comprises one or more of the properties of the various methods described above with respect to method 1100. The method of editing an avatar 700 may be incorporated into a method of navigating the avatar user interface. For example, in some embodiments, the navigation user interface may call a process of creating or editing a customizable avatar, which process may be implemented according to method 900 described above with respect to FIG. As an additional example, methods 1000, 1200, and 1400 optionally include one or more of the properties of the various methods described above in connection with method 1100. For example, in some embodiments, the navigation user interface may call a process for creating or editing a customizable avatar, which may be implemented according to the methods described below with respect to FIGS. 10-12. As another example, in some embodiments, the navigation user interface calls a process of modifying a virtual avatar, which process may be implemented according to the methods described below with respect to FIGS. 14A and 14B. For the sake of brevity, these details have not been repeated.

図12A及び12Bは、いくつかの実施形態に従ってアバター編集ユーザインターフェースを表示する方法を示すフロー図である。方法1200は、表示装置を備えたデバイス(例えば、100、300、500、600)にて実行される。方法1200のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 12A and 12B are flow diagrams showing how to display the avatar editing user interface according to some embodiments. Method 1200 is performed on a device equipped with a display device (eg, 100, 300, 500, 600). Some actions of the method 1200 are arbitrarily combined, some actions are arbitrarily changed in order, and some actions are optionally omitted.

下で説明されているように、方法1200は、アバター編集ユーザインターフェースを表示する直感的な方法を提供する。この方法は、アバターを管理する際のユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ユーザがアバター編集ユーザインターフェースを使用してより素早く効率的にアバターの特性を変更できるようにするので、電力を節約し、バッテリの充電間の時間を延ばす。 As described below, Method 1200 provides an intuitive way to display the avatar editing user interface. This method reduces the cognitive burden on the user when managing avatars, thereby creating a more efficient human-machine interface. Battery-powered computing devices allow users to change avatar characteristics more quickly and efficiently using the avatar editing user interface, thus saving power and extending the time between battery charges.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、選択されたアバターの髪形(例えば、836b)(例えば、アバターに対して(例えば、ユーザによって)選択されたアバターの毛髪の特定のスタイル)を有するアバターの毛髪(例えば、851)を含む複数のアバター特徴部を有するアバター(例えば、805)を表示する(1204)ことを含む、アバター編集ユーザインターフェース(例えば、801)を表示する(1202)。アバター編集ユーザインターフェースは、複数のアバターのアクセサリオプション(例えば、8112)(例えば、様々なアバターのアクセサリ(例えば、眼鏡、帽子、イヤリング、スカーフなど)に対応するアフォーダンス)も含む(1206)。アバターの毛髪及びアバターのアクセサリオプションの外観は、髪形及びアバターのアクセサリをカスタマイズできることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device (eg, 600) may have the selected avatar hairstyle (eg, 836b) (eg, the hair of the selected avatar (eg, by the user) for the avatar) via a display device (eg, 601). An avatar editing user interface (eg, 801) that includes displaying (1204) an avatar (eg, 805) with a plurality of avatar features, including avatar hair (eg, 851) with a particular style). Display (1202). The avatar editing user interface also includes multiple avatar accessory options (eg, 8112) (eg affordances for various avatar accessories (eg, glasses, hats, earrings, scarves, etc.)) (1206). The appearance of the avatar hair and avatar accessory options provides the user with feedback that the hairstyle and avatar accessories can be customized. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

電子デバイス(例えば、600)は、個別のアクセサリオプション(例えば、8112b)の選択を検出する(1208)。電子デバイスは、複数のアバターのアクセサリオプション(例えば、8112)のうちの個別のアクセサリオプションの選択を検出することに応じて、個別のアクセサリオプション(例えば、8140)の表現を含むようにアバター(例えば、805)の外観を変更し(1210)、この変更することは、個別のアクセサリオプションが第1のアクセサリオプション(例えば、8112b)(例えば、眼鏡アクセサリオプション)であるという判定に従って、アバター上に配置された第1のアクセサリオプション(例えば、8140)の表現を表示する(1212)こと含む(例えば、選択された眼鏡を、アバターの頭部の側面に沿ってテンプルを配置し、イヤピースをアバターの耳の後ろに配置して、アバターの顔に表示する)。電子デバイスは、選択されたアバターの髪形を維持しながら、アバター上の第1のアクセサリオプションの表現の位置に基づいて、アバターの毛髪の第1の部分(例えば、8145)の形状を変更する(1214)(例えば、眼鏡に隣接して配置されたアバターの毛髪の部分が、テンプル及びアバターの耳の後ろのイヤピースの配置を含む、アバターの顔の上の眼鏡の存在を収容するために横に押されて表示され、一方、アバターの毛髪の残りの部分は変化せずに、選択されたアバターの髪形を表す)。アバターのアクセサリオプションの外観は、アバターのアクセサリをカスタマイズできることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device (eg, 600) detects a selection of individual accessory options (eg, 8112b) (1208). The electronic device includes an avatar (eg, 8140) representation of the individual accessory option (eg, 8140) in response to detecting the selection of the individual accessory option among the multiple avatar accessory options (eg, 8112). , 805) and this change is placed on the avatar according to the determination that the individual accessory option is the first accessory option (eg, 8112b) (eg, eyeglass accessory option). Includes (1212) displaying a representation of the first accessory option (eg, 8140) that has been made (eg, the selected glasses, the temples are placed along the sides of the avatar's head, and the earpieces are the avatar's ears. Place it behind the avatar and display it on the avatar's face). The electronic device changes the shape of the first portion of the avatar's hair (eg, 8145) based on the position of the representation of the first accessory option on the avatar while maintaining the selected avatar's hair shape (eg, 8145). 1214) (For example, a portion of the avatar's hair placed adjacent to the avatar laterally to accommodate the presence of the avatar on the avatar's face, including the placement of the temples and earpieces behind the avatar's ears. Pressed and displayed, while the rest of the avatar's hair remains unchanged, representing the selected avatar's hairstyle). The appearance of the avatar accessory option provides the user with feedback that the avatar accessory can be customized. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、個別のアクセサリオプション(例えば、8108d)の表現の外観は、アバターの毛髪(例えば、851)の1つ以上の特性(例えば、髪質、髪形、髪の長さなど)に基づく。いくつかの実施形態では、アクセサリオプション(例えば、帽子(例えば、8170))のサイズは、アバターの毛髪に基づいて決定される。例えば、アバターの毛髪が小さい髪形(例えば、851-1)(例えば、836c)(流行の髪形又ははげ頭の髪形)を有している場合、帽子は小さい帽子ラインの外周(例えば、図8CDの帽子ライン8118)を有する。反対に、アバターの毛髪が大きい髪形(例えば、851-2)(例えば、大きい縮毛)を有している場合、帽子は大きい帽子ラインの外周(例えば、図CCの帽子ライン8118)を有する。いくつかの実施形態では、アクセサリオプション(例えば、髪の蝶結び)の位置は、アバターの毛髪に基づいて決定される。例えば、アバターの毛髪が短い髪形を有している場合、アバターの蝶結びは、アバターの頭部に近接して配置される。反対に、アバターの毛髪が長い髪形を有している場合、蝶結びは、毛髪の長さに応じて頭部から更に離れて配置され得る。アバターの毛髪の外観は、アバターの髪形をカスタマイズできることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the appearance of the representation of the individual accessory option (eg, 8108d) is one or more characteristics of the avatar's hair (eg, 851) (eg, hair quality, hairstyle, hair length, etc.). based on. In some embodiments, the size of the accessory option (eg, hat (eg, 8170)) is determined based on the hair of the avatar. For example, if the avatar's hair has a small hairstyle (eg, 851-1) (eg, 836c) (trendy hairstyle or bald head hairstyle), the hat is the outer circumference of the small hat line (eg, the hat in Figure 8CD). It has a line 8118). Conversely, if the avatar's hair has a large hairstyle (eg, 851-2) (eg, large curly hair), the hat has a large cap line circumference (eg, hat line 8118 in FIG. CC). In some embodiments, the location of accessory options (eg, hair bows) is determined based on the avatar's hair. For example, if the avatar's hair has a short hairstyle, the avatar's bow is placed close to the avatar's head. Conversely, if the avatar's hair has a long hairstyle, the bow may be placed further away from the head, depending on the length of the hair. The appearance of the avatar's hair provides the user with feedback that the avatar's hairstyle can be customized. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、個別のアクセサリオプションが第2のアクセサリオプション(例えば、第1のアクセサリオプションと異なるアクセサリオプション)(例えば、帽子(8170))であるという判定に従い、アバター上に配置された第2のアクセサリオプション(例えば、8170)の表現を表示する(例えば、選択された帽子の種類に基づいて、帽子の帽子ライン(例えば、8118)をアバターの頭部に配置して、選択された帽子をアバターの頭部に表示する)。電子デバイスは、アバター上の第2のアクセサリオプションの表現の位置に基づいて、選択されたアバターの髪形を維持しながら、アバターの毛髪の第1の部分(例えば、8145)の変更された形状とは異なるアバターの毛髪の第2の部分(例えば、8118、8118-1、又は8118-2での毛髪)の形状を変更する(例えば、アバターの毛髪が帽子ラインで圧縮され、帽子ラインでの毛髪の圧縮に応じて、(選択された帽子及び髪形に応じて)帽子ラインの下及び/又は上に配置された毛髪が外に広がるように、アバターの毛髪が帽子の帽子ラインで変更される)。アクセサリオプションを伴って表示されたアバターの外観は、選択されたアクセサリによるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) is said that the individual accessory option is a second accessory option (eg, an accessory option different from the first accessory option) (eg, a hat (8170)). According to the determination, the representation of the second accessory option (eg, 8170) placed on the avatar is displayed (eg, the hat line of the hat (eg, 8118) based on the selected hat type, the head of the avatar. Place it in the department and display the selected hat on the avatar's head). The electronic device has a modified shape of the first part of the avatar's hair (eg, 8145) while maintaining the selected avatar's hairstyle based on the position of the representation of the second accessory option on the avatar. Changes the shape of the second part of the hair of a different avatar (eg, the hair at 8118, 8118-1, or 8118-2) (eg, the avatar's hair is compressed at the hat line and the hair at the hat line) Depending on the compression of, the avatar's hair is modified at the hat line so that the hair placed below and / or above the hat line (depending on the hat and hairstyle selected) spreads out). .. The appearance of the avatar displayed with the accessory option provides the user with feedback indicating the customization of the avatar by the selected accessory. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、アバター上の第1のアクセサリオプションの位置の表現(例えば、8140)を表示した後に、第2の個別のアクセサリオプション(例えば、8108d)(例えば、アバターの帽子)の選択(例えば、8159)を検出する(1216)。電子デバイスは、複数のアバターのアクセサリオプションのうちの第2の個別のアクセサリオプションの選択を検出することに応じて、アバター(例えば、805)の外観を、第2の個別のアクセサリオプションの表現(例えば、8160)及び個別のアクセサリオプションの表現を含むように変更する(1218)(例えば、アバターは、選択されたアバターの髪形を維持しながら、アバターの帽子及びアバターの眼鏡の両方を含むように更新される)。選択されたアクセサリを伴うアバターの外観は、アバターのアクセサリをカスタマイズできることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) displays a representation of the location of the first accessory option on the avatar (eg, 8140) and then a second individual accessory option (eg, 8108d). Detects selection (eg, 8159) of (eg, avatar hat) (1216). The electronic device makes the appearance of the avatar (eg, 805) a representation of the second individual accessory option (eg, 805) in response to detecting the selection of the second individual accessory option among the multiple avatar accessory options. For example 8160) and modified to include representations of individual accessory options (1218) (eg, the avatar should include both the avatar's hat and the avatar's glasses while preserving the selected avatar's hairstyle. Will be updated). The appearance of the avatar with the selected accessories provides the user with feedback that the avatar's accessories can be customized. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、(例えば、選択されたアバターの髪形に対応する髪形オプションを含む)複数のアバターの髪形オプション(例えば、836)を表示する。電子デバイスは、第2の髪形オプション(例えば、図8AUの836c)(例えば、現在選択されている髪形オプションと異なる髪形オプション)の選択(例えば、872)を検出する。電子デバイスは、第2の髪形オプションの選択を検出することに応じて、アバター(例えば、805)の外観を、選択されたアバターの髪形(例えば、836f)を有することから、第2の髪形オプションを有することに変更する。いくつかの実施形態では、これは、次のステップのうちの1つ以上を含む。個別のアクセサリオプションがアクセサリオプションの第1の種類(例えば、アバターの毛髪の少なくとも一部に隣接してアバター上に表示されるアバターの眼鏡(例えば、8140))であるという判定に従って、個別のアクセサリオプションの表現に基づいて、第1の方法(例えば、8145)で変更された第2の髪形オプションを有するアバターの毛髪を表示する(例えば、第2のアバターの髪形を維持しながら、アバターの毛髪の第1の部分の形状が、アバターの眼鏡の位置に基づいて変更される)。髪形オプションを伴って表示されたアバターの外観は、選択された髪形によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) has multiple avatar hairstyle options (including, for example, hairstyle options corresponding to the selected avatar's hairstyle) via a display device (eg, 601). (For example, 836) is displayed. The electronic device detects a selection (eg, 872) of a second hairstyle option (eg, 836c in FIG. 8AU) (eg, a hairstyle option different from the currently selected hairstyle option). Since the electronic device has the appearance of the avatar (eg, 805) in response to detecting the selection of the second hairstyle option, the hairstyle of the selected avatar (eg, 836f), the second hairstyle option. Change to have. In some embodiments, this comprises one or more of the following steps. Individual accessories according to the determination that the individual accessory option is the first type of accessory option (eg, the avatar's glasses displayed on the avatar adjacent to at least a portion of the avatar's hair (eg, 8140)). Display the avatar's hair with the second hairstyle option modified in the first method (eg, 8145) based on the optional representation (eg, the avatar's hair while maintaining the second avatar's hairstyle). The shape of the first part of is changed based on the position of the avatar's glasses). The appearance of the avatar displayed with the hairstyle option provides the user with feedback indicating the customization of the avatar with the selected hairstyle. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

電子デバイス(例えば、600)は、個別のアクセサリオプション(例えば、8108d)がアクセサリオプションの第2の種類(例えば、8108)(例えば、アバターの毛髪の少なくとも一部に隣接してアバター上に表示される帽子)であるという判定に従って、個別のアクセサリオプションの表現に基づいて、第2の方法で(例えば、8118-1又は8118-2で膨らんで)変更された第2の髪形オプション(例えば、836c)を有するアバターの毛髪(例えば、851)を表示する(例えば、第2のアバターの髪形をなお維持しながら、アバターの毛髪の第2の部分の形状が、帽子の位置に基づいて変更される)。アクセサリオプションを伴って表示されたアバターの外観は、選択されたアクセサリによるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device (eg, 600) has a separate accessory option (eg, 8108d) displayed on the avatar adjacent to at least a portion of the avatar's hair, such as a second type of accessory option (eg, 8108). A second hairstyle option (eg, 836c) modified in a second way (eg, inflated at 8118-1 or 8118-2) based on the representation of the individual accessory option. ) Is displayed (eg, 851) (eg, the shape of the second portion of the avatar's hair is changed based on the position of the hat while still maintaining the hairstyle of the second avatar). ). The appearance of the avatar displayed with the accessory option provides the user with feedback indicating the customization of the avatar by the selected accessory. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、個別のアクセサリオプションが第3の種類(例えば、表示されたアバターの髪形に影響を与えないアクセサリオプション)(例えば、鼻のリング)であるという判定に従い、第2の髪形オプション(例えば、836c)を有するアバターの毛髪(例えば、851)を、変更せずに(例えば、個別のアクセサリオプションに基づいて変更せずに)表示する。髪形オプション及びアクセサリオプションを伴って表示されたアバターの外観は、選択された髪形によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, electronic devices (eg, 600) have individual accessory options in a third type (eg, accessory options that do not affect the displayed avatar's hairstyle) (eg, nose ring). According to the determination that there is, the hair (eg, 851) of the avatar with the second hairstyle option (eg, 836c) is displayed unchanged (eg, unchanged based on the individual accessory options). The appearance of the avatar displayed with the hairstyle and accessory options provides the user with feedback indicating the customization of the avatar with the selected hairstyle. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば600)は、第3の髪形オプション(例えば、図8CBの851-2)(例えば、現在選択されている髪形オプションと異なる髪形オプション)の選択を検出することに応じて、アバターの外観を、選択されたアバターの髪形(例えば、851-1)を有することから、第3の髪形オプションを有することに変更し、第3の髪形オプションに基づいて、個別のアクセサリオプション(例えば、8160)の表現の外観(例えば、位置、サイズ、形状など)を変更する。髪形オプションを伴って表示されたアバターの外観は、選択された髪形によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) detects the selection of a third hairstyle option (eg, 851-2 in FIG. 8CB) (eg, a hairstyle option different from the currently selected hairstyle option). Accordingly, the appearance of the avatar is changed from having the selected avatar hairstyle (eg, 851-1) to having a third hairstyle option, individually based on the third hairstyle option. Change the appearance (eg, position, size, shape, etc.) of the representation of an accessory option (eg, 8160). The appearance of the avatar displayed with the hairstyle option provides the user with feedback indicating the customization of the avatar with the selected hairstyle. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、個別のアクセサリオプションはアバターの帽子(例えば、8160)であり、個別のアクセサリオプションの表現の外観を変更することは、第3の髪形オプション(例えば、851-2)のサイズ(例えば、疑似的な毛髪のボリューム)に基づいてアバターの帽子の表現のサイズを変更することを含む(例えば、大きい髪形を選択すると、その大きい髪形を収容するために、帽子のサイズが増える)(例えば、小さい髪形を選択すると、その小さい髪形を収容するために、帽子のサイズが減る)。いくつかの実施形態では、個別のアクセサリオプションの表現の外観を変更することは、第3の髪形オプションのサイズに基づいて、アバターの帽子の表現の帽子ライン(例えば、頭部に適合して帽子を頭部に貼りけている帽子の一部)のサイズを変更する(例えば、髪形オプションのサイズに基づいて、帽子ラインの外周が変化する(増加又は減少する))ことを更に含む。いくつかの実施形態では、帽子ラインは、引き続き同じ位置で頭部を横切るように、頭部に対して同じ位置に留まるが、異なる外周を有する。帽子オプションを伴って表示されたアバターの外観は、選択された帽子によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the individual accessory option is an avatar hat (eg, 8160), and changing the appearance of the representation of the individual accessory option can be a third hairstyle option (eg, 851-2). Includes resizing the avatar's hat representation based on size (eg, pseudo-hair volume) (eg, choosing a larger hairstyle will increase the size of the hat to accommodate that larger hairstyle) (For example, choosing a small hairstyle reduces the size of the hat to accommodate that small hairstyle). In some embodiments, changing the appearance of the representation of the individual accessory option is based on the size of the third hairstyle option, the hat line of the representation of the avatar's hat (eg, a hat that fits the head). Further includes resizing (eg, changing (increasing or decreasing) the outer circumference of the hat line based on the size of the hairstyle option). In some embodiments, the cap line remains in the same position with respect to the head so as to continue across the head in the same position, but with different perimeters. The appearance of the avatar displayed with the hat option provides the user with feedback indicating the customization of the avatar with the selected hat. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1のアクセサリオプションはアバターの帽子(例えば、8160)であり、アバター(例えば、805)上に配置された第1のアクセサリオプションの表現を表示することは、アバターの毛髪(例えば、851)の一部の上に配置されたアバターの帽子を表示する(例えば、アバターの帽子が、アバターの頭部の上部に、毛髪と隣接して重ね合わせられて表示される)ことを含む。いくつかの実施形態では、アバターの毛髪の一部の形状を変更することは、アバターの帽子の帽子ライン(例えば、頭部に適合して帽子を頭部に貼りけている帽子の一部)に隣接する位置(例えば、8118-1又は8118-2)で圧縮された外観を有し、アバターの毛髪がアバターの帽子の帽子ラインに隣接する位置から広がるように拡大しているアバターの毛髪を表示することを含む(例えば、アバターの毛髪が帽子ラインで圧縮され、帽子ラインでの毛髪の圧縮に応じて、(選択された帽子及び髪形に応じて)帽子ラインの下及び/又は上に配置された毛髪が外に広がるように、アバターの毛髪が帽子の帽子ラインで変更される)。帽子オプションを伴って表示されたアバターの外観は、選択された帽子によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the first accessory option is the avatar's hat (eg, 8160), and displaying the representation of the first accessory option placed on the avatar (eg, 805) is the avatar's. Display an avatar hat placed on top of a portion of hair (eg, 851) (eg, the avatar hat appears on top of the avatar's head, adjacent to the hair). Including that. In some embodiments, changing the shape of part of the avatar's hair is the hat line of the avatar's hat (eg, part of the hat that fits the head and has the hat on the head). Avatar hair that has a compressed appearance at a position adjacent to (eg, 8118-1 or 8118-2) and is expanded so that the avatar's hair extends from a position adjacent to the hat line of the avatar's hat. Includes displaying (eg, the avatar's hair is compressed at the hat line and placed below and / or above the hat line (depending on the hat and hairstyle selected) depending on the compression of the hair at the hat line. The avatar's hair is modified with the hat line of the hat so that the shaving hair spreads out). The appearance of the avatar displayed with the hat option provides the user with feedback indicating the customization of the avatar with the selected hat. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、複数のアバターのアクセサリオプション(例えば、8108)のうちの第2のアバターの帽子オプション(例えば、8108e)の選択(例えば、8168)を検出することに応じて、アバターの帽子(例えば、8160)の表現を、第2のアバターの帽子(例えば、8170)の表現に置き換え、一方で、帽子ライン(例えば、8118)を維持し、かつ帽子ラインに隣接する位置で圧縮された外観を有し、アバターの毛髪が帽子ラインに隣接する位置から広がるように拡大している、アバターの毛髪の一部の形状を維持する(例えば、異なるアバターの帽子が同じ帽子ラインを有する)(例えば、異なるアバターを選択することによって、帽子ライン及び帽子ラインに対するアバターの毛髪の形状を維持しながら、現在選択されているアバターの帽子を異なるアバターの帽子に置き換える)。帽子オプションを伴って表示されたアバターの外観は、選択された帽子によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) selects a second avatar hat option (eg, 8108e) out of a plurality of avatar accessory options (eg, 8108) (eg, 8168). Depending on the detection, the representation of the avatar's hat (eg, 8160) is replaced with the representation of the second avatar's hat (eg, 8170), while maintaining the hat line (eg, 8118) and Maintains the shape of a portion of the avatar's hair that has a compressed appearance adjacent to the hat line and the avatar's hair extends from the position adjacent to the hat line (eg, a different avatar). Hats have the same hat line) (For example, by selecting different avatars, the currently selected avatar hat can be changed to a different avatar hat while maintaining the avatar's hair shape against the hat line and hat line. replace). The appearance of the avatar displayed with the hat option provides the user with feedback indicating the customization of the avatar with the selected hat. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、(例えば、図8BYに示されている)物理モデル(例えば、慣性のモデル、重力のモデル、力伝達モデル、摩擦モデル)に基づいて、アバターの動きに対するアバターの毛髪の疑似的な物理的反応に従い、アバターの毛髪(例えば、851)が動く。物理モデルに基づくアバターの動きに対するアバターの毛髪の疑似的な物理的反応は、第1のアクセサリオプションがアバターの帽子である場合、変化する(例えば、アバターの毛髪の動きは、アバターが帽子を着用している場合、変化する)。いくつかの実施形態では、アバターが帽子を着用していない場合、アバターの毛髪は、物理モデルに基づいて、アバターの頭部の動きと共に動く。いくつかの実施形態では、アバターが帽子を着用している場合、アバターの頭部上の帽子の位置に基づいて、アバターの頭部に対するアバターの毛髪の動きが変化する。いくつかの実施形態では、物理モデルは、入力(例えば、8XX)(例えば、アバターを回転するか、又はアバターの倍率を調整するためのアバター上のジェスチャ、あるいは顔又は顔の一部の動き)の大きさ及び方向、並びに疑似的質量、疑似的弾性、疑似的摩擦係数、又はその他の疑似的な物理的特性などの、仮想アバター特徴部の1つ以上の予め定義された特性に基づいて、アバター特徴部の動きの大きさ及び方向を規定する。いくつかの実施形態では、毛髪の取り付けポイントが、毛髪が頭部に取り付けられている位置から帽子ラインにずれるため、アバターの毛髪の疑似的な物理的反応が変化する。 According to some embodiments, based on a physical model (eg, inertial model, gravity model, force transfer model, friction model) (eg, shown in FIG. 8BY), the avatar's hair with respect to the avatar's movement. The avatar's hair (eg, 851) moves according to a pseudo-physical reaction. The pseudo-physical reaction of the avatar's hair to the avatar's movement based on the physical model changes if the first accessory option is the avatar's hat (for example, the avatar's hair movement is that the avatar wears the hat). If so, it will change). In some embodiments, when the avatar does not wear a hat, the avatar's hair moves with the movement of the avatar's head, based on a physical model. In some embodiments, when the avatar is wearing a hat, the movement of the avatar's hair relative to the avatar's head changes based on the position of the hat on the avatar's head. In some embodiments, the physics model is an input (eg, 8XX) (eg, a gesture on the avatar to rotate the avatar or adjust the magnification of the avatar, or the movement of the face or part of the face). Based on one or more predefined properties of the virtual avatar feature, such as the size and orientation of the virtual avatar, as well as pseudo-mass, pseudo-elasticity, pseudo-friction, or other pseudo-physical properties. Specifies the magnitude and direction of movement of the avatar feature. In some embodiments, the hair attachment point shifts from the position where the hair is attached to the head to the hat line, thus altering the pseudo-physical reaction of the avatar's hair.

いくつかの実施形態に従って、第1のアクセサリオプションはアバターの眼鏡(例えば、8140)であり、アバターの毛髪(例えば、851)の一部の形状を変更することは、アバターの眼鏡の少なくとも一部を遮るのを防ぐように配置されたアバターの毛髪の一部(例えば、8145)を表示することを含む(例えば、アバターの頭部の側面の、アバターの耳の上の毛髪が、後方又は横に移動されるか、あるいは眼鏡のテンプルの背後に配置される)。いくつかの実施形態では、第1のアクセサリオプションはアバターの眼鏡であり、アバター上に配置された第1のアクセサリオプションの表現を表示することは、アバターの眼鏡のレンズ部分(例えば、8140-2)での反射(例えば、8150)の表現を表示すること(例えば、反射の表現は、眼鏡の表現に重ね合わせられる)(例えば、眼鏡上の反射の位置は、表示された眼鏡及び疑似的な光源の相対位置に基づいて決定され、この光源は、任意選択的に、カメラの視野内で検出された光源に基づいて決定される)と、アバターの少なくとも一部に表示されたアバターの眼鏡の表現によって落とされた影の表現を表示すること(例えば、眼鏡によって落とされた影の表現が、100%未満の不透明度で、アバターの表現に重ね合わせられる)(例えば、表示されたアバター及び疑似的な光源の相対位置に基づいて決定されるアバターの一部であり、この光源は、任意選択的に、カメラの視野内で検出された光源に基づいて決定される)とを含む。眼鏡オプションを伴って表示されたアバターの外観は、選択された帽子によるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the first accessory option is the avatar's glasses (eg, 8140), and changing the shape of some of the avatar's hair (eg, 851) is at least part of the avatar's glasses. Includes displaying a portion of the avatar's hair (eg, 8145) arranged to prevent obstruction (eg, the hair on the sides of the avatar's head, above the avatar's ears, posterior or lateral. Moved to or placed behind the temples of the glasses). In some embodiments, the first accessory option is the avatar's eyeglasses, and displaying the representation of the first accessory option placed on the avatar is the lens portion of the avatar's eyeglasses (eg, 8140-2). ) To display the representation of the reflection (eg, 8150) (eg, the representation of the reflection is superimposed on the representation of the spectacles) (eg, the position of the reflection on the spectacles is the displayed spectacles and the pseudo Determined based on the relative position of the light source, which is optionally determined based on the light source detected within the camera's field of view) and of the avatar's glasses displayed on at least part of the avatar. Displaying the representation of the shadow cast by the representation (eg, the representation of the shadow cast by the glasses is superimposed on the representation of the avatar with less than 100% opacity) (eg, the displayed avatar and pseudo). It is part of an avatar that is determined based on the relative position of a typical light source, which is optionally determined based on the light source detected within the field of the camera). The appearance of the avatar displayed with the eyeglass option provides the user with feedback indicating the customization of the avatar with the selected hat. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、アバター上に配置された第1のアクセサリオプションの表現を表示することは、第1のアクセサリオプション(例えば、アバターの帽子(例えば、8170)又はアバターの眼鏡(例えば、8140))又はアバターの毛髪(例えば、851)によって落とされた(例えば、アバター上に落とされた)1つ以上の影(例えば、8142、8147、8172)の表現を表示することを含む(例えば、毛髪、眼鏡、及び/又は帽子によって落とされた影の表現が、100%未満の不透明度で、アバターの表現に重ね合わせられる)(例えば、表示されたアバター及び疑似的な光源の相対位置に基づいて決定されるアバターの一部であり、この光源は、任意選択的に、カメラの視野内で検出された光源に基づいて決定される)。影を伴って表示されたアバターの外観は、アバターのより現実的な表現を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, displaying the representation of the first accessory option placed on the avatar is the first accessory option (eg, the avatar's hat (eg, 8170) or the avatar's glasses (eg, 8140). )) Or the representation of one or more shadows (eg, 8142, 8147, 8172) cast by the avatar's hair (eg, 851) (eg, dropped onto the avatar) (eg, 8142, 8147, 8172). The representation of shadows cast by hair, glasses, and / or hats is superimposed on the representation of the avatar with less than 100% opacity (eg, based on the relative position of the displayed avatar and pseudo-light source). It is part of the avatar determined by, and this light source is optionally determined based on the light source detected in the field of view of the camera). The appearance of the avatar, displayed with shadows, provides the user with feedback that provides a more realistic representation of the avatar. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1のアクセサリオプションは、アバターのイヤリング(例えば、8125)である。アバターのイヤリングは、物理モデル(例えば、慣性のモデル、重力のモデル、力伝達モデル、摩擦モデル)に従って動く(いくつかの実施形態では、アバターは、電子デバイスの1つ以上のカメラの視野内の顔において検出された変化に基づいて動く)。イヤリングを伴って表示されたアバターの外観は、選択されたイヤリングによるアバターのカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the first accessory option is an avatar earring (eg, 8125). The avatar earrings move according to a physical model (eg, inertial model, gravity model, force transfer model, friction model) (in some embodiments, the avatar is within the field of one or more cameras of the electronic device. Moves based on the changes detected in the face). The appearance of the avatar displayed with the earrings provides the user with feedback indicating the customization of the avatar with the selected earrings. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

なお、方法1200に関して上述された処理(例えば、図12)の詳細はまた、以下及び上で説明されている方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1200に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。アバターを編集する方法700は、アバターユーザインターフェースをナビゲートする方法に組み込まれ得る。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図9に関して前述した方法900に従って実現されてよい。追加の例として、方法1000、1100、及び1400は、方法1200に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10~図11に関して後述される方法に従って実現されてよい。別の例として、いくつかの実施形態では、ナビゲーションユーザインターフェースが、仮想アバターを変更する処理を呼び出し、この処理は、図14A及び図14Bに関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は繰り返されていない。 It should be noted that the details of the process described above for method 1200 (eg, FIG. 12) are also applicable in a similar manner to the methods described below and above. For example, the method 700 optionally includes one or more of the characteristics of the various methods described above with respect to the method 1200. The method of editing an avatar 700 may be incorporated into a method of navigating the avatar user interface. For example, in some embodiments, the navigation user interface may call a process of creating or editing a customizable avatar, which process may be implemented according to method 900 described above with respect to FIG. As an additional example, methods 1000, 1100, and 1400 optionally include one or more of the properties of the various methods described above in connection with method 1200. For example, in some embodiments, the navigation user interface may call a process for creating or editing a customizable avatar, which may be implemented according to the methods described below with respect to FIGS. 10-11. As another example, in some embodiments, the navigation user interface calls a process of modifying a virtual avatar, which process may be implemented according to the methods described below with respect to FIGS. 14A and 14B. For the sake of brevity, these details have not been repeated.

図13A~図13Oは、アバターナビゲーションユーザインターフェース内のアバターを変更する例示的なユーザインターフェースを示している。これらの図のユーザインターフェースは、図14の処理を含む、以下で説明される処理を示すために使用される。 13A-13O show an exemplary user interface that modifies an avatar within the avatar navigation user interface. The user interface in these figures is used to indicate the processes described below, including the process in FIG.

図13Aで、デバイス600は、図6Aのメッセージングユーザインターフェース603に類似するメッセージングユーザインターフェース1303を表示する。デバイス600は、アプリケーションドックアフォーダンス1310上の入力1302を検出し、図13Bで、縮小されたアバター選択インターフェース1315(図6Lの縮小されたアバター選択インターフェース668に類似する)を表示する。縮小されたアバター選択インターフェースは、カスタマイズ可能な女性アバター1321、サルアバター1322、及びロボットアバター1323を含んでいる、アバターのスクロール可能なリスト1320(図6Lのアバターのスクロール可能なリスト675に類似する)を含む。 In FIG. 13A, device 600 displays a messaging user interface 1303 similar to the messaging user interface 603 of FIG. 6A. The device 600 detects the input 1302 on the application dock affordance 1310 and displays the reduced avatar selection interface 1315 (similar to the reduced avatar selection interface 668 of FIG. 6L) in FIG. 13B. The reduced avatar selection interface contains a customizable female avatar 1321, monkey avatar 1322, and robot avatar 1323, a scrollable list of avatars 1320 (similar to the scrollable list 675 of avatars in FIG. 6L). including.

図13B~図13Oに示されているように、デバイス600は、顔において検出された変化に応じて、縮小されたアバター選択インターフェース1315に表示されたアバター(例えば、サルアバター1322)を変更する。参考のために、図13B~図13Oは、カメラ(例えば、602)の視野内で検出された顔1325(例えば、ユーザの顔)の表現を含んでいる。図13B~図13Oは、顔1325において検出された変化に応じて表示される、様々なアバターに対する変更を示している。いくつかの実施形態では、図13B~図13Oでの顔1325の表示は、顔1325を向いて配置されたデバイスの視点から表示されている。したがって、表示されたアバターに対する対応する変化が、顔1325の動きに関して反映されて、図13B~図13Oに示されている。 As shown in FIGS. 13B-13O, the device 600 modifies the avatar displayed on the reduced avatar selection interface 1315 (eg, monkey avatar 1322) in response to changes detected in the face. For reference, FIGS. 13B-13O include representations of the face 1325 (eg, the user's face) detected in the field of view of the camera (eg, 602). 13B-13O show changes to the various avatars displayed in response to the changes detected in the face 1325. In some embodiments, the display of the face 1325 in FIGS. 13B-13O is displayed from the point of view of the device arranged facing the face 1325. Therefore, the corresponding changes to the displayed avatar are reflected with respect to the movement of the face 1325 and are shown in FIGS. 13B-13O.

図13Bで、デバイス600は、顎1325-2及び口1325-1を閉じて前方を向いている顔1325を検出する。それに応じて、デバイス600は、口1325-1の顔面表情に一致する、顎1322-2及び口1321-1を閉じた同じ顔面表情を有するように、表示されたアバター(サルアバター1322)を変更する。 In FIG. 13B, the device 600 detects a face 1325 facing forward with the chin 1325-2 and mouth 1325-1 closed. Accordingly, the device 600 modifies the displayed avatar (sal avatar 1322) to have the same facial expression with the chin 1322-2 and mouth 1321-1 closed, matching the facial expression of mouth 1325-1. do.

図13Cで、デバイス600は、開いた位置に向かって動いている顎1325-2及び口1325-1を検出し、サルアバター1322の顎1322-2及び口1322-1を、顎1325-2及び口1325-1の動きに一致するように、わずかに開いた位置に変更する。舌1325-3は伸ばされていない。したがって、デバイス600は、口1323-1から伸ばされたサルアバターの舌1323-3を表示しないが、代わりに口1323-1内に配置された舌1323-3を表示する。 In FIG. 13C, the device 600 detects jaw 1325-2 and mouth 1325-1 moving towards an open position, and jaws 1322-2 and mouth 1322-1 of salavat 1322, jaw 1325-2 and mouth 1322-1. Change to a slightly open position to match the movement of mouth 1325-1. The tongue 1325-3 is not stretched. Therefore, the device 600 does not display the monkey avatar tongue 1323-3 extended from the mouth 1323-1 but instead displays the tongue 1323-3 disposed within the mouth 1323-1.

いくつかの実施形態では、デバイス600は、ユーザの口から伸びているユーザの舌を検出することに応じて、アバターの口から突き出ているアバターの舌を表示する。例えば、図13Dで、顎1325-2はわずかに開かれ、舌1325-3は口1325-1から伸びている。その結果、デバイス600は、舌1322-3を口1322-1から伸ばすように、サルアバター1322を変更するが、一方、顎1322-2はわずかに開いた位置に留まっている。 In some embodiments, the device 600 displays the avatar's tongue protruding from the avatar's mouth in response to detecting the user's tongue extending from the user's mouth. For example, in FIG. 13D, the jaw 1325-2 is slightly open and the tongue 1325-3 extends from the mouth 1325-1. As a result, the device 600 modifies the monkey avatar 1322 to extend the tongue 1322-3 from the mouth 1322-1, while the jaw 1322-2 remains in a slightly open position.

いくつかの実施形態では、デバイス600は、伸ばされていない舌(例えば、図13Cの舌1322-3を参照)から伸ばされた舌(例えば、図13Dの舌1322-3を参照)への移行を、アバターの口(例えば、口1322-1)の内部から伸ばされたポーズまで動く舌のアニメーションとして表示する。いくつかの実施形態では、このアニメーションは、舌が口の内部から伸ばされた位置まで動くときに、アバターの歯の上で曲がるアバターの舌を表示することを含む。例えば、図13Dで、アバターの舌1322-3は、アバターの口の下の歯の上でわずかに曲げられている。いくつかの実施形態では、デバイス600は、舌が伸びるアニメーションを反転することによって、(任意選択的に、アバターの舌の曲がる動きの反転を表示することを含めて)アバターの口の中に戻る舌を表示する。 In some embodiments, the device 600 transitions from an unstretched tongue (see, eg, tongue 1322-3 in FIG. 13C) to a stretched tongue (eg, see tongue 1322-3 in FIG. 13D). Is displayed as an animation of the tongue moving from the inside of the avatar's mouth (for example, mouth 1322-1) to the extended pose. In some embodiments, the animation comprises displaying the avatar's tongue bending over the avatar's teeth as the tongue moves from the inside of the mouth to a stretched position. For example, in FIG. 13D, the avatar's tongue 1322-3 is slightly bent over the teeth under the avatar's mouth. In some embodiments, the device 600 returns to the avatar's mouth (including optionally displaying a reversal of the avatar's tongue bending movement) by reversing the tongue stretching animation. Show tongue.

いくつかの実施形態では、デバイス600は、ユーザの舌以外のユーザの顔の特徴の検出された動き(例えば、ユーザの頭部の傾斜又は回転、あるいは顎1325-2の上向き/下向き及び/又は左右の動き)に基づいて、アバターの舌の動きを表示する。例えば、図13Eは、ユーザの顎1325-2の位置において検出された変化に応答したサルの舌1322-3の動きを示している。デバイス600が下に動くユーザの顎1325-2及び広く開いているユーザの口1325-1を検出したときに、デバイス600は、サルの口1322-1を広げ、サルの顎1322-2を下げる。サルの顎1322-2が下げられるときに、デバイス600は、顎1322-2と共に下に動き、口1322-1から更に垂れ下がるサルの舌1322-3を表示する。デバイス600は、ユーザの顎1325-2のその他の動きに基づいて、舌1322-3の位置を変更することもできる。例えば、ユーザが顎を左右に動かしたときに、ユーザの顎1325-2の左右の動きに従って、アバターの顎1322-2及び舌1322-3が動く。同様に、ユーザが顎を上に動かした(例えば、図13Dの位置に戻すか、又は図13Hに示されているように上に傾けた)場合、デバイス600は、それに応じて動くアバターの顎1322-2及び舌1322-3を表示する(例えば、図13Dに示されている位置に戻すか、又は図13Hに示されているように、上に傾ける)。 In some embodiments, the device 600 comprises a detected movement of a user's facial features other than the user's tongue (eg, tilt or rotation of the user's head, or upward / downward and / or of the jaw 1325-2. Display the movement of the avatar's tongue based on the left and right movement). For example, FIG. 13E shows the movement of the monkey tongue 1322-3 in response to the changes detected at the position of the user's jaw 1325-2. When the device 600 detects the user's jaw 1325-2 moving down and the wide open user's mouth 1325-1, the device 600 widens the monkey's mouth 1322-1 and lowers the monkey's jaw 1322-2. .. When the monkey's jaw 1322-2 is lowered, the device 600 moves down with the jaw 1322-2 and displays the monkey's tongue 1322-3 further hanging from the mouth 1322-1. The device 600 can also reposition the tongue 1322-3 based on other movements of the user's jaw 1325-2. For example, when the user moves the jaw left and right, the avatar's jaw 1322-2 and the tongue 1322-3 move according to the left and right movement of the user's jaw 1325-2. Similarly, if the user moves the jaw up (eg, back to position in FIG. 13D or tilted up as shown in FIG. 13H), the device 600 will move the jaw of the avatar accordingly. Display 1322-2 and tongue 1322-3 (eg, return to position shown in FIG. 13D or tilt up as shown in FIG. 13H).

図13Fは、ユーザの舌以外のユーザの顔の特徴の動きに基づいて舌1322-3の動きを変更しているデバイス600の別の例を示している。図13Fで、ユーザは頭部を横に傾けている。デバイス600は、ユーザの頭部の傾斜を検出することに応じて、サルの頭部を傾けることによって、サルアバター1322を変更する。サルの頭部が傾くときに、サルの頭部の傾斜(例えば、大きさ及び方向の両方)及び舌1322-2のモデル化された重力に基づいて、舌1322-3の位置が変化し、それによって舌1322-3が垂れ下がるが、アバターの頭部及び顎1322-2の動きと共に、わずかに傾く。 FIG. 13F shows another example of a device 600 that modifies the movement of the tongue 1322-3 based on the movement of a user's facial features other than the user's tongue. In FIG. 13F, the user is tilting his head sideways. The device 600 modifies the monkey avatar 1322 by tilting the monkey's head in response to detecting the tilt of the user's head. When the monkey's head tilts, the position of the tongue 1322-3 changes based on the monkey's head tilt (eg, both size and orientation) and the modeled gravity of the tongue 1322-2. This causes the tongue 1322-3 to hang down, but tilts slightly with the movement of the avatar's head and jaw 1322-2.

いくつかの実施形態では、デバイス600は、アバターに適用された物理モデル(例えば、モデル化された重力、慣性など)に基づいて、アバターの舌の動きを変更する。アバターの舌がアバターの口から更に長く伸びるときに、物理モデルに対する舌の応答は、アバターの口から伸ばされた舌の量に基づいて悪化する。例えば、図13Eで、サルの舌1322-3は、図13Dに示されている舌よりも大きく湾曲している。これは、デバイス600が(図13Dに示されている舌と比較して)図13Eの口1322-1から更に長く伸びている舌1322-3を表示しているためであり、舌1322-3に適用されたモデル化された重力の影響によって、舌が口から更に低く垂れ下がっている(サルの歯の上で、舌が大きく湾曲している)。 In some embodiments, the device 600 modifies the movement of the avatar's tongue based on a physical model applied to the avatar (eg, modeled gravity, inertia, etc.). As the avatar's tongue extends longer from the avatar's mouth, the tongue's response to the physical model deteriorates based on the amount of tongue extended from the avatar's mouth. For example, in FIG. 13E, the monkey tongue 1322-3 is more curved than the tongue shown in FIG. 13D. This is because the device 600 displays the tongue 1322-3 extending further from the mouth 1322-1 of FIG. 13E (compared to the tongue shown in FIG. 13D), the tongue 1322-3. Due to the effect of the modeled gravity applied to, the tongue hangs even lower from the mouth (on the monkey's teeth, the tongue is greatly curved).

いくつかの実施形態では、デバイス600は、アバターの舌が伸ばされるときに、特定の顔面表情を表示するようにアバターを変更しない(又は、特定の顔面表情を形成するアバター特徴部(例えば、唇、口など)の動きを縮小する)。これは、表示されたアバターの舌を妨げる(例えば、影響を与えるか、又は衝突する)方法でアバターを変更することを防ぐためである。例えば、デバイス600は、唇のしわを形成するようにアバターの唇を変更すること、アバターの口を閉じること、下唇を伸ばすこと(例えば、口をとがらせるポーズ)、又は唇を延ばして口を閉じた位置に動かす(例えば、口をじょうご状にする)ことを止めることができる。 In some embodiments, the device 600 does not modify the avatar to display a particular facial expression when the avatar's tongue is stretched (or an avatar feature that forms a particular facial expression (eg, lips). , Mouth, etc.) Reduce movement). This is to prevent the avatar from being modified in a way that interferes with (eg, influences or collides with) the displayed avatar's tongue. For example, the device 600 modifies the avatar's lips to form lips wrinkles, closes the avatar's mouth, stretches the lower lip (eg, a pointed pose), or stretches the lips to the mouth. Can be stopped from moving to a closed position (eg, making the mouth gorgeous).

図13Fで、デバイス600は、入力1327(例えば、ロボットアバター1323上の横方向のジェスチャ(例えば、スワイプ又はドラッグ)又はタップジェスチャ)を検出し、アバターのリスト1320をスクロールして、図13Gに示されているように、ロボットアバター1323を縮小されたアバター選択インターフェース1315の中央に表示する。 In FIG. 13F, device 600 detects input 1327 (eg, a lateral gesture (eg, swipe or drag) or tap gesture on robot avatar 1323), scrolls through the list of avatars 1320, and shows in FIG. 13G. As shown above, the robot avatar 1323 is displayed in the center of the reduced avatar selection interface 1315.

ロボットアバター1323が縮小されたアバター選択インターフェース1315の中央に配置されたときに、デバイス600は、検出された顔1325に基づいてロボットアバターの変更を開始する。図13Gに示されているように、ユーザの頭部は傾けられていないが、ユーザの顎1325-2及び口1325-1が開かれ、舌1325-3が伸ばされている。デバイス600は、ロボットの口1323-1を開き、ロボットの舌1323-3を伸ばすことによって、顔1325のポーズに一致するようにロボットアバター1323を変更する。いくつかの実施形態では、ロボットアバターは、ロボットの頭部の他の部分と区別できる顎を含んでいないが、ロボットの顎の動きは、ロボットの口1323-1の開口部を縦方向に広げることによって表され得る。 When the robot avatar 1323 is centered in the reduced avatar selection interface 1315, the device 600 initiates a change of the robot avatar based on the detected face 1325. As shown in FIG. 13G, the user's head is not tilted, but the user's jaw 1325-2 and mouth 1325-1 are open and the tongue 1325-3 is extended. The device 600 modifies the robot avatar 1323 to match the pose of the face 1325 by opening the robot's mouth 1323-1 and extending the robot's tongue 1323-3. In some embodiments, the robot avatar does not include a jaw that is distinguishable from the rest of the robot's head, but the movement of the robot's jaw vertically widens the opening of the robot's mouth 1323-1. Can be represented by

図13Gに示されているように、ロボットの舌1323-3は、ロボットの舌1323-3を、ロボットの口1323-1に接続されたベース部1323-3a(例えば、舌1323-3の近位端)と、垂れ下がってヒンジ接続1323-4から自由に揺れる先端部1323-3b(例えば、舌1323-3の遠位端)とに分割するヒンジ接続1323-4を含む。いくつかの実施形態では、先端部1323-3bは、ロボットの口1323-1及びロボットの頭部の動きと共に揺れる。 As shown in FIG. 13G, the robot tongue 1323-3 connects the robot tongue 1323-3 to a base portion 1323-3a (eg, near the tongue 1323-3) connected to the robot mouth 1323-1. Includes a hinge connection 1323-4 that divides into a tip (eg, the distal end of the tongue 1323-3) that hangs down and swings freely from the hinge connection 1323-4. In some embodiments, the tip 1323-3b sways with the movement of the robot's mouth 1323-1 and the robot's head.

例えば、図13Hで、デバイス600は、舌1325-3が延ばされて、後ろに傾けられたユーザの頭部を検出する。デバイス600は、口1323-1が開かれ、舌1323-3が延ばされたロボットの頭部を後ろに傾けることによって、ロボットアバター1323を変更する。ロボットの頭部が後ろに傾くときに、ベース部1323-3aがロボットの口1323-1と共に動くため、先端部1323-3bがロボットの頭部の下部に向かって(例えば、ロボットの顎先領域に向かって)揺れる。図13Iでユーザが頭部を再び中立位置に傾けたときに、デバイス600は、ロボットアバター1323を再び中立位置に傾け、ロボットの頭部、口1323-1、及びベース部1323-3aの動きに応じて、アバターの舌1323-3の先端部1323-3bがヒンジ接続1323-4から前後に揺れる。 For example, in FIG. 13H, device 600 detects the user's head with the tongue 1325-3 extended and tilted backwards. The device 600 modifies the robot avatar 1323 by tilting the robot's head back with its mouth 1323-1 opened and its tongue 1323-3 extended. When the robot's head tilts backwards, the base portion 1323-3a moves with the robot's mouth 1323-1 so that the tip portion 1323-3b moves toward the bottom of the robot's head (eg, the robot's chin area). Shake (towards). When the user tilts the head again to the neutral position in FIG. 13I, the device 600 tilts the robot avatar 1323 again to the neutral position to move the robot's head, mouth 1323-1, and base 1323-3a. Accordingly, the tip of the avatar's tongue 1323-3 sways back and forth from the hinge connection 1323-4.

図13Iで、デバイス600は、入力1329(例えば、宇宙人アバター1324上の横方向のジェスチャ(例えば、スワイプ又はドラッグ)又はタップジェスチャ)を検出し、アバターのリスト1320をスクロールして、図13Jに示されているように、ロボットアバター1324を縮小されたアバター選択インターフェース1315の中央に表示する。 In FIG. 13I, the device 600 detects an input 1329 (eg, a lateral gesture (eg, swipe or drag) or tap gesture on the alien avatar 1324) and scrolls through the list of avatars 1320 to FIG. 13J. As shown, the robot avatar 1324 is displayed in the center of the reduced avatar selection interface 1315.

いくつかの実施形態では、デバイス600は、特定のアバターに基づいて決定される視覚効果を有するアバターの舌を表示する。例えば、ロボットアバターの舌はヒンジ接続を有し、一角獣アバターはキラキラ光る舌を有し、宇宙人アバターは虹色の効果を有する。いくつかの実施形態では、アバターの舌の表示された位置に基づいて、視覚効果が変化する。例えば、図13J~図13Lは、宇宙人の舌1324-3の変化する虹色の効果1324-4を示している。宇宙人の舌1324-3が動くときに、舌の虹色の効果1324-4が変化する(舌1324-3の上の虹色の効果1324-4の変化する位置によって表される)。図13Jは、舌1325-3が伸ばされて、ユーザの顔1325が前を向いているときに、虹色1324-4を有する宇宙人の舌1324-3を示している。宇宙人の顎1324-2及び口1324-1が開かれ、虹色の効果1324-4が舌根に配置されて、舌1324-3が伸ばされている。図13Kで、舌1325-3が伸ばされた顔1325が回転し、デバイス600が宇宙人アバター1324を回転させ、舌1324-3の虹色を変更する(舌1324-3上の虹色の効果1324-4の変更された位置によって表される)。図13Lで、ユーザは顎1325-2をわずかに閉じ、それによってユーザの舌1325-3が持ち上げられている。デバイス600は、顎1324-2をわずかに閉じ、舌1324-3を持ち上げ、舌1324-3の虹色を変更することによって、宇宙人アバター1324を変更する(舌1324-3の上の虹色の効果1324-4の変更された位置によって表される)。 In some embodiments, the device 600 displays the tongue of an avatar with a visual effect that is determined based on a particular avatar. For example, the tongue of a robot avatar has a hinged connection, the one-horned beast avatar has a glittering tongue, and the alien avatar has a rainbow-colored effect. In some embodiments, the visual effect changes based on the displayed position of the avatar's tongue. For example, FIGS. 13J-13L show the changing iridescent effect 1324-4 of the alien tongue 1324-3. As the alien tongue 1324-3 moves, the iridescent effect 1324-4 of the tongue changes (represented by the changing position of the iridescent effect 1324-4 on the tongue 1324-3). FIG. 13J shows an alien tongue 1324-3 with iridescent color 1324-4 when the tongue 1325-3 is stretched and the user's face 1325 is facing forward. The alien jaw 1324-2 and mouth 1324-1 are opened, the iridescent effect 1324-4 is placed at the base of the tongue, and the tongue 1324-3 is stretched. In FIG. 13K, the face 1325 with the tongue 1325-3 stretched rotates and the device 600 rotates the alien avatar 1324 to change the rainbow color of the tongue 1324-3 (the effect of the rainbow color on the tongue 1324-3). (Represented by the changed position of 1324-4). In FIG. 13L, the user slightly closes the jaw 1325-2, thereby lifting the user's tongue 1325-3. Device 600 modifies the alien avatar 1324 by slightly closing jaw 1324-2, lifting tongue 1324-3 and changing the iridescent color of tongue 1324-3 (rainbow color on tongue 1324-3). The effect of 1324-4 is represented by the changed position).

いくつかの実施形態では、デバイス600は、アバターの口の位置(ユーザの口の検出された位置に基づいて決定される)に応じて、異なる形状を有するアバターの舌を表示する。例えば、ユーザの口1325-1が開かれたときに、デバイス600は、図13E内のサルの舌1322-3及び図13Jの宇宙人の舌1324-3によって示されているように、平らな形状を有するアバターの舌を表示する。ユーザの口1325-1が舌1325-3を囲んで閉じられたときに、デバイス600は、円錐形又は「イチゴ」の形状を有するアバターの舌を表示する。例えば、図13M及び図13Nで、デバイス600は、ユーザが舌を口1325-1の中に引っ込めるときに、舌1325-3を囲んで閉じられたユーザの口1325-1を検出する。それに応じて、デバイス600は、図13M及び図13Nで、舌1324-3を囲んで閉じられた宇宙人の口1324-1、及び宇宙人の口1324-1の中に引っ込むときに円錐形を有する舌1324-3を表示する。図13Oで、デバイス600は、ユーザの舌1325-3が伸ばされておらず、口1325-1及び顎1325-2が閉じられていることを検出する。デバイス600は、舌のない、口1324-1及び顎1324-2が閉じられた宇宙人アバター1324を表示する。 In some embodiments, the device 600 displays the tongue of an avatar with a different shape, depending on the position of the avatar's mouth (determined based on the detected position of the user's mouth). For example, when the user's mouth 1325-1 is opened, the device 600 is flat, as shown by the monkey tongue 1322-3 in FIG. 13E and the alien tongue 1324-3 in FIG. 13J. Display the tongue of an avatar with a shape. When the user's mouth 1325-1 surrounds and closes the tongue 1325-3, the device 600 displays the avatar's tongue in the shape of a cone or "strawberry". For example, in FIGS. 13M and 13N, the device 600 detects the user's mouth 1325-1 that surrounds and closes the tongue 1325-1 as the user retracts the tongue into the mouth 1325-1. Accordingly, in FIGS. 13M and 13N, the device 600 has a conical shape when retracted into the alien's mouth 1324-1 and the alien's mouth 1324-1 which are closed around the tongue 1324-. The tongue with 1324-3 is displayed. In FIG. 13O, device 600 detects that the user's tongue 1325-3 is not stretched and the mouth 1325-1 and jaw 1325-2 are closed. Device 600 displays an alien avatar 1324 with no tongue, mouth 1324-1 and jaw 1324-2 closed.

図14A及び図14Bは、いくつかの実施形態に従って、アバターナビゲーションユーザインターフェース内のアバターを変更する方法を示すフロー図である。方法1400は、表示装置を備えたデバイス(例えば、100、300、500、600)にて実行される。方法1400のいくつかの動作は任意選択的に組み合わせられ、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 14A and 14B are flow diagrams illustrating how to modify the avatar in the avatar navigation user interface according to some embodiments. Method 1400 is performed on a device equipped with a display device (eg, 100, 300, 500, 600). Some actions of Method 1400 are arbitrarily combined, some actions are arbitrarily changed in order, and some actions are optionally omitted.

下で説明されているように、方法1400は、アバターナビゲーションユーザインターフェースでアバターを変更する直感的な方法を提供する。この方法は、アバターを変更する際のユーザの認知負担を軽減し、それによって、より効率的なヒューマン-マシンインターフェースを作り出す。バッテリ動作コンピューティングデバイスでは、ユーザがアバターナビゲーションユーザインターフェースを使用してより素早く効率的にアバターの特性を変更できるようにするので、電力を節約し、バッテリの充電間の時間を延ばす。 As described below, Method 1400 provides an intuitive way to change avatars in the avatar navigation user interface. This method reduces the user's cognitive burden when changing avatars, thereby creating a more efficient human-machine interface. Battery-powered computing devices allow users to change avatar characteristics more quickly and efficiently using the avatar navigation user interface, saving power and extending the time between battery charges.

電子デバイス(例えば、600)は、表示装置(例えば、601)を介して、複数のアバター特徴部(例えば、1322-1、1322-2、1322-3)(例えば、顔の特徴(例えば、目、口、口の一部)又は大きい特徴(例えば、頭部、首))を有する仮想アバター(例えば、1322、1323、1324)を表示し(1402)、この仮想アバターは、1つ以上のカメラ(例えば、602)の視野内の顔(例えば、1325)のポーズ(例えば、向き、並進移動)において検出された変化(例えば、顔面表情における変化)に応じて、外観を変更する。1つ以上のカメラの視野内で顔が検出されている間に、この顔が、ユーザの舌以外の第1の顔の特徴(例えば、1325-2)(例えば、顎)を含む複数の検出された顔の特徴を含んでおり、電子デバイスは、第1の顔の特徴の動きを検出する(1404)。アバターの外観を表示することは、アバターの特定の特徴のカスタマイズを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The electronic device (eg, 600) may have a plurality of avatar features (eg, 1322-1, 1322-2, 1322-3) (eg, facial features (eg, eyes)) via a display device (eg, 601). , Mouth, part of the mouth) or a virtual avatar with large features (eg, head, neck) (eg, 1322, 1323, 1324) (1402), where the virtual avatar is one or more cameras. The appearance is changed according to the change (eg, the change in facial expression) detected in the pose (eg, orientation, translational movement) of the face (eg, 1325) in the field of view (eg, 602). While a face is being detected in the field of view of one or more cameras, the face will have multiple detections that include a first facial feature other than the user's tongue (eg, 1325-2) (eg, chin). Containing the facial features that have been made, the electronic device detects the movement of the first facial features (1404). Displaying the appearance of an avatar provides the user with feedback indicating customization of a particular feature of the avatar. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

デバイス(例えば、600)は、第1の顔の特徴(例えば、1325-2)の動きを検出することに応じて(1406)、次のステップのうちの1つ以上を実行する。電子デバイス(例えば、600)は、ユーザの舌(例えば、1325-3)が、個別の基準が満たされるためにはユーザの舌が(例えば、図13Dに示されているように)可視であるという要件を含む、個別の基準(例えば、舌表示基準)を満たしている(例えば、ユーザの舌が可視であり、ユーザの口から突き出ていると識別されるポーズにある)という判定に従って(1408)、アバターの舌(例えば、1322-3)を表示する(例えば、アバターの舌は、表示された仮想アバターの一部として持続的に表示されない(例えば、可変的に表示される))。いくつかの実施形態では、アバターの舌は、アバターの舌表示基準の集合(例えば、カメラの視野内で検出された顔が可視の舌を含んでいることを検出することと、顔が閾値距離だけ開かれた口(例えば、十分に下方の位置にある低い顎を有する口)を含んでいることを検出することとのうちの1つ以上を含む基準の集合)が満たされているという判定に従って表示される。アバターの舌の動きを伴ってアバターの外観を表示することは、ユーザの動きに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 The device (eg, 600) performs one or more of the following steps in response to detecting the movement of the first facial feature (eg, 1325-2) (1406). The electronic device (eg, 600) is visible to the user's tongue (eg, 1325-3) for the individual criteria to be met (eg, as shown in FIG. 13D). According to the determination that individual criteria (eg, tongue display criteria) are met (eg, the user's tongue is visible and in a pose identified as protruding from the user's mouth), including the requirement (1408). ), Display the avatar's tongue (eg, 1322-3) (eg, the avatar's tongue is not persistently displayed as part of the displayed virtual avatar (eg, variably displayed)). In some embodiments, the avatar's tongue is a set of avatar's tongue display criteria (eg, detecting that a face detected in the camera's field of view contains a visible tongue, and the face is a threshold distance. Determining that only an open mouth (eg, a set of criteria including one or more of detecting that it contains a mouth with a low jaw that is well below) is satisfied. Is displayed according to. Displaying the appearance of the avatar with the movement of the avatar's tongue provides the user with feedback indicating the movement of the avatar's tongue according to the movement of the user. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

電子デバイス(例えば、600)は、第1の顔の特徴(例えば、1325-2)の動き(例えば、動きの方向及び大きさ)に基づいて、アバターの舌(例えば、1322-3)の位置を変更する(1408)(例えば、アバターの舌の位置は、ユーザの顎の検出された位置(例えば、完全に開かれた状態から完全に閉じられた状態までの範囲内の位置)に基づいて決定される)。いくつかの実施形態では、第1の顔の特徴の動きを検出することに応じて、第1の顔の特徴の検出された動きに基づいて、第1の顔の特徴に対応するアバター特徴部(例えば、1322-2)(例えば、アバターの舌以外のアバター特徴部))も変更/動かされる。電子デバイスは、ユーザの舌が個別の基準を満たさないという判定に従って、アバターの舌の表示を止める(1414)。 The electronic device (eg, 600) positions the avatar's tongue (eg, 1322-3) based on the movement (eg, direction and magnitude of movement) of the first facial feature (eg, 1325-2). (For example, the position of the avatar's tongue is based on the detected position of the user's jaw (eg, within the range from fully open to fully closed). It is determined). In some embodiments, the avatar feature unit corresponding to the first facial feature is based on the detected movement of the first facial feature in response to detecting the movement of the first facial feature. (For example, 1322-2) (for example, the avatar feature part other than the tongue of the avatar)) is also changed / moved. The electronic device stops displaying the avatar's tongue according to the determination that the user's tongue does not meet the individual criteria (1414).

いくつかの実施形態に従って、アバターの舌(例えば、1323-3)は、第1の部分(例えば、1323-3a)及び第2の部分(例えば、1323-3b)を含み、第2の部分は、第1の部分又は第2の部分よりも柔軟であるコネクタ(例えば、1323-4)(例えば、ヒンジ)によって、第1の部分に接続される(例えば、アバターの舌は、1つ以上のヒンジで結合された2つ以上のセグメントを有する)。いくつかの実施形態では、仮想アバターがロボットアバター(例えば、1323)である場合、アバターの舌は、ヒンジで連結されたセグメントで形成される。いくつかの実施形態では、第1の部分及び第2の部分は固定されている。いくつかの実施形態では、(例えば、図13G~図13Iに示されているように)アバターの舌が伸ばされ、ユーザの頭部の動きに従って動くときに、第1の部分は自由にぶら下がる。 According to some embodiments, the tongue of the avatar (eg, 1323-3) comprises a first portion (eg, 1323-3a) and a second portion (eg, 1323-3b), the second portion. , Connected to the first part by a connector (eg, 1323-4) (eg, a hinge) that is more flexible than the first part or the second part (eg, the tongue of the avatar is one or more. Has two or more segments hinged together). In some embodiments, when the virtual avatar is a robotic avatar (eg, 1323), the tongue of the avatar is formed by hinged segments. In some embodiments, the first and second parts are fixed. In some embodiments, the tongue of the avatar is stretched (eg, as shown in FIGS. 13G-13I) and the first portion hangs freely as it moves according to the movement of the user's head.

いくつかの実施形態に従って、アバターの舌(例えば、1323-3)は、アバターの舌の位置を変更することに応じて変化する視覚効果(例えば、1324-4(例えば、キラキラ光る、虹色))を有する。いくつかの実施形態では、仮想アバターは一角獣であり、アバターの舌は、アバターの舌が動くときにきらめく、キラキラ光る効果を含む。いくつかの実施形態では、仮想アバターは宇宙人(例えば、1324)であり、アバターの舌は、アバターの舌が動くときに変化する虹色の効果を含む。アバターの舌の動きの視覚効果の表示は、ユーザの動きに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the avatar's tongue (eg, 1323-3) has a visual effect that changes in response to changing the position of the avatar's tongue (eg, 1324-4 (eg, glittering, iridescent). ). In some embodiments, the virtual avatar is a unicorn, and the avatar's tongue comprises a shimmering, shimmering effect as the avatar's tongue moves. In some embodiments, the virtual avatar is an alien (eg, 1324) and the avatar's tongue comprises a rainbow-colored effect that changes as the avatar's tongue moves. The visual effect display of the avatar's tongue movement provides the user with feedback indicating the avatar's tongue movement according to the user's movement. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、第1の顔の特徴(例えば、1325-2)の動きに基づいてアバターの舌(例えば、1322-3)の位置を変更することは、次のステップのうちの1つ以上を含む。電子デバイス(例えば、600)は、第1の顔の特徴が第1の方向に動く(例えば、ユーザの顎が左及び/又は上に動く)という判定に従って、アバターの舌の位置を第1の方向に変更する(1410)(例えば、アバターの舌を左及び/又は上に動かす)。電子デバイスは、第1の顔の特徴が第1の方向と異なる第2の方向に動く(例えば、ユーザの顎が右及び/又は下に動く)という判定に従って、アバターの舌の位置を第2の方向に変更する(1412)(例えば、アバターの舌を右及び/又は下に動かす)。アバターの舌の表示は、第1の顔の特徴の動きに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, repositioning the avatar's tongue (eg, 1322-3) based on the movement of a first facial feature (eg, 1325-2) is one of the following steps: Including one or more. The electronic device (eg, 600) first positions the tongue of the avatar according to the determination that the first facial feature moves in the first direction (eg, the user's jaw moves left and / or up). Change direction (1410) (eg, move the avatar's tongue to the left and / or up). The electronic device secondly positions the tongue of the avatar according to the determination that the first facial feature moves in a second direction different from the first direction (eg, the user's jaw moves to the right and / or down). (1412) (eg, move the avatar's tongue to the right and / or down). The display of the avatar's tongue provides the user with feedback indicating the movement of the avatar's tongue according to the movement of the first facial feature. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第1の顔の特徴(例えば、1325-2)の動きに基づいてアバターの舌(例えば、1322-3)の位置を変更することは、次のステップのうちの1つ以上を含む。第1の顔の特徴が第1の大きさだけ動く(例えば、ユーザの顎が前を向いている位置から右に30度動く)という判定に従って、第1の大きさに比例する量だけアバターの舌の位置を変更する(例えば、アバターの舌が前を向いている位置から右に30度動く)。電子デバイス(例えば、600)は、第1の顔の特徴が第1の大きさと異なる第2の大きさだけ動く(例えば、ユーザの顎が前を向いている位置から右に45度動く)という判定に従って、第2の大きさに比例する量だけアバターの舌の位置を変更する(例えば、アバターの舌が前を向いている位置から右に45度動く)。アバターの舌の表示は、第1の顔の特徴の動きに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Repositioning the avatar's tongue (eg 1322-3) based on the movement of a first facial feature (eg 1325-2) according to some embodiments is one of the following steps: Including one or more. According to the determination that the feature of the first face moves by the first size (for example, the user's jaw moves 30 degrees to the right from the position where the user's jaw is facing forward), the amount of the avatar is proportional to the first size. Change the position of the tongue (for example, move 30 degrees to the right from the position where the avatar's tongue is facing forward). The electronic device (eg, 600) is said to move the first facial feature by a second magnitude different from the first (eg, move 45 degrees to the right from the position where the user's jaw is facing forward). According to the determination, the position of the avatar's tongue is changed by an amount proportional to the second size (for example, the avatar's tongue moves 45 degrees to the right from the position facing forward). The display of the avatar's tongue provides the user with feedback indicating the movement of the avatar's tongue according to the movement of the first facial feature. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、物理モデル(例えば、慣性のモデル、重力のモデル、力伝達モデル、摩擦モデル)に従い、アバターの舌(例えば、1322-3)が動く。いくつかの実施形態では、アバターの舌の動きの程度(例えば、頭部及び/又は顔の特徴の動きに基づく、物理モデルに従う動きの程度)は、仮想アバター(例えば、1322)の口から伸ばされた舌の増加(又は、例えば減少)量に基づいて増える(又は、例えば減る)。物理モデルによって、被写体の動きに従ってアバターの舌を現実的に表示することが可能になる。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the tongue of the avatar (eg, 1322-3) moves according to a physical model (eg, inertia model, gravity model, force transfer model, friction model). In some embodiments, the degree of tongue movement of the avatar (eg, the degree of movement according to a physical model based on the movement of head and / or facial features) is extended from the mouth of the virtual avatar (eg, 1322). Increases (or decreases, for example) based on the amount of increase (or decrease) of the tongue. The physical model makes it possible to realistically display the tongue of the avatar according to the movement of the subject. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、アバターの舌(例えば、1324-3)が表示されている間に、電子デバイス(例えば、600)は、ユーザの舌(例えば、1325-3)が個別の基準(例えば、舌表示基準)を満たさなくなっていることを検出する(1416)。電子デバイスは、ユーザの舌が個別の基準を満たさなくなっているということを検出することに応じて、アバターの舌(例えば、図13O)を表示することを止める(1418)。いくつかの実施形態では、(例えば、以前に表示されていない)アバターの舌を表示することは、仮想アバター(例えば、1322)の口(例えば、1322-1)から伸びるアバターの舌のアニメーションを表示することを含む。いくつかの実施形態では、アバターの舌を表示するのを止めることは、仮想アバターの口の中に引っ込むアバターの舌のアニメーションを表示することを含む。いくつかの実施形態では、仮想アバターの口から伸びる舌のアニメーション又は仮想アバターの口の中に引っ込む舌のアニメーションのうちの少なくとも1つは、仮想アバターの1つ以上の歯(例えば、仮想アバターの顎の中の歯の下側の集合)の上で曲がるアバターの舌の動きを表示することを含む(例えば、アバターの舌は、直線状の動きで伸びる/引っ込むのではなく、アバターの歯の上で曲がるか、又は弧を描くように動いて表示される)。舌をアバターの口の中に引っ込めることによってアバターの舌の表示を止めることで、アバターの舌の特徴が表示されなくなっていることを示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, while the avatar's tongue (eg, 1324-3) is displayed, the electronic device (eg, 600) has the user's tongue (eg, 1325-3) as an individual criterion (eg, 1325-3). , Tongue display criteria) is no longer satisfied (1416). The electronic device stops displaying the avatar's tongue (eg, FIG. 13O) in response to detecting that the user's tongue no longer meets the individual criteria (1418). In some embodiments, displaying the avatar's tongue (eg, not previously displayed) animates the avatar's tongue extending from the mouth (eg, 1322-1) of the virtual avatar (eg, 1322). Including displaying. In some embodiments, stopping the display of the avatar's tongue involves displaying an animation of the avatar's tongue retracting into the mouth of the virtual avatar. In some embodiments, at least one of the tongue animations extending from the mouth of the virtual avatar or the tongue retracting into the mouth of the virtual avatar is one or more teeth of the virtual avatar (eg, of the virtual avatar). Includes displaying the movement of the avatar's tongue to bend over (the lower set of teeth in the jaw) (eg, the avatar's tongue does not stretch / retract in a linear motion, but the avatar's teeth Bends on or moves in an arc). By retracting the tongue into the avatar's mouth to stop displaying the avatar's tongue, it provides the user with feedback that the avatar's tongue features are no longer visible. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、電子デバイス(例えば、600)は、第1の位置(例えば、図13O)(例えば、ユーザの口の閉じられた位置)への第2の顔の特徴(例えば、ユーザの口(1325-1))の移動を検出する。デバイスは、第1の位置への第2の顔の特徴の動きを検出することに応じて、次のステップのうちの1つ以上を実行する。電子デバイスは、アバターの舌(例えば、1324-2)が表示されないという判定に従って、第2の顔の特徴の動きに基づいて、第1のアバター特徴部(例えば、アバターの口1324-1)(例えば、アバターの舌の位置に影響を与える、アバターの顎以外のアバター特徴部)(例えば、アバターの口、アバターの下唇など)を変更する(例えば、ユーザの口の閉じられた位置に対応する閉じられた位置を有するように、アバターの口を変更する)。個別の基準を満たしていることに基づいて、アバターの舌が表示されるという判定に従って、第2の顔の特徴の動きに基づいて第1のアバター特徴部の動きを弱める(例えば、振幅を除去するか、又は減らす)(例えば、アバターの舌が表示されるときに、ユーザの口の閉じられた位置を検出することに応じて、アバターの口の動きを弱める)。いくつかの実施形態では、アバターの舌が表示されるときに、ユーザの顔において検出された変化に応じて、アバターの特定の位置が変更されない(又は、制限された量だけ変更される)。いくつかの実施形態では、アバターの舌が表示されるときに、ユーザの顔において検出された変化に応じて、特定のポーズを表示するようにアバターが変更されない(又は、特定のポーズが制限される)。アバターの舌の表示は、第2の顔の特徴の動きに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the electronic device (eg, 600) has a second facial feature (eg, the user) to a first position (eg, FIG. 13O) (eg, the closed position of the user's mouth). The movement of the mouth (1325-1)) is detected. The device performs one or more of the following steps in response to detecting the movement of the second facial feature to the first position. The electronic device determines that the avatar's tongue (eg, 1324-2) is not visible, and the first avatar feature portion (eg, avatar's mouth 1324-1) (eg, avatar's mouth 1324-1) based on the movement of the second facial feature. For example, changing the avatar features other than the avatar's jaw that affect the position of the avatar's tongue (eg, the avatar's mouth, the avatar's lower lip, etc.) (eg, corresponding to the closed position of the user's mouth). Change the avatar's mouth to have a closed position). According to the determination that the avatar's tongue is displayed based on meeting the individual criteria, the movement of the first avatar feature is weakened (eg, the amplitude removed) based on the movement of the second facial feature. (Or reduce) (eg, weaken the movement of the avatar's mouth in response to detecting the closed position of the user's mouth when the avatar's tongue is displayed). In some embodiments, when the tongue of the avatar is displayed, the particular position of the avatar is not changed (or changed by a limited amount) in response to the changes detected in the user's face. In some embodiments, when the tongue of the avatar is displayed, the avatar is not modified (or restricted) to display a particular pose, depending on the changes detected in the user's face. Ru). The display of the avatar's tongue provides the user with feedback indicating the movement of the avatar's tongue according to the movement of the second facial feature. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第2の顔の特徴はユーザの口(例えば、1325-1)であり、第2の顔の特徴の第1の位置は、ユーザの口が閉じられている(例えば、顎が開かれている)位置に対応し、第1のアバター特徴部はアバターの口である。いくつかの実施形態では、アバターの口の動きは、口が完全に閉じることによって、伸ばされたアバターの舌と衝突するか、又は舌に影響を与えることを防ぐために、デバイスの1つ以上のカメラ(例えば、602)の視野内で検出された顔の口の動きと比べて弱められる。アバターの舌の表示は、口を閉じているユーザに従うアバターの舌の動きを示すフィードバックを、ユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 According to some embodiments, the second facial feature is the user's mouth (eg, 1325-1) and the first position of the second facial feature is the user's mouth closed (eg, eg). The first avatar feature is the avatar's mouth, corresponding to the position (with the jaw open). In some embodiments, the movement of the avatar's mouth is one or more of the devices to prevent it from colliding with or affecting the tongue of the stretched avatar by completely closing the mouth. It is weakened compared to the movement of the mouth of the face detected in the field of view of the camera (eg, 602). The display of the avatar's tongue provides the user with feedback indicating the movement of the avatar's tongue according to the user with the mouth closed. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態に従って、第2の顔の特徴はユーザの下唇であり、第2の顔の特徴の第1の位置は、ユーザの下唇が伸ばされている(例えば、口をとがらせるポーズでユーザの下唇が突き出ている)位置に対応し、第1のアバター特徴部はアバターの下唇である。いくつかの実施形態では、アバターの下唇の動きは、下唇が伸ばされたアバターの舌と衝突するか、又は舌に影響を与えることを防ぐために、デバイスの1つ以上のカメラ(例えば、602)の視野内で検出された顔の下唇の動きと比べて弱められる。 According to some embodiments, the second facial feature is the user's lower lip, and the first position of the second facial feature is where the user's lower lip is stretched (eg, pointed). The first avatar feature is the avatar's lower lip, corresponding to the position (where the user's lower lip is protruding in the pose). In some embodiments, the movement of the lower lip of the avatar is one or more cameras of the device (eg, to prevent the lower lip from colliding with or affecting the tongue of the stretched avatar. It is weakened as compared with the movement of the lower lip of the face detected in the field of view of 602).

いくつかの実施形態に従って、第2の顔の特徴はユーザの上唇及び下唇であり、第2の顔の特徴の第1の位置は、ユーザの上唇及び下唇がすぼめられている位置に対応し、第1のアバター特徴部はアバターの上唇及び下唇である。いくつかの実施形態では、アバターの上唇及び下唇の動きは、唇が伸ばされたアバターの舌と衝突するか、又は舌に影響を与えることを防ぐために、デバイスの1つ以上のカメラ(例えば、602)の視野内で検出された顔の上唇及び下唇の動きと比べて弱められる。 According to some embodiments, the second facial feature is the user's upper and lower lips, and the first position of the second facial feature corresponds to the position where the user's upper and lower lips are pursed. The first avatar feature is the upper and lower lips of the avatar. In some embodiments, the movement of the upper and lower lips of the avatar is one or more cameras of the device (eg, to prevent the lips from colliding with or affecting the tongue of the stretched avatar. , 602) is weakened compared to the movements of the upper and lower lips of the face detected in the field of view.

いくつかの実施形態に従って、第2の顔の特徴はユーザの口(例えば、1325-1)であり、第2の顔の特徴の第1の位置は、ユーザの口が閉じている位置(例えば、ユーザの唇がすぼめられて、開いた位置から閉じた位置に動いている口の中間の位置)に対応し、第1のアバター特徴部はアバターの口である。いくつかの実施形態では、アバターの口の動きは、口が閉じることによって、伸ばされたアバターの舌と衝突するか、又は舌に影響を与えることを防ぐために、デバイスの1つ以上のカメラ(例えば、602)の視野内で検出された顔の口の動きと比べて弱められる。 According to some embodiments, the second facial feature is the user's mouth (eg, 1325-1) and the first position of the second facial feature is the position where the user's mouth is closed (eg, eg). , The position in the middle of the mouth where the user's lips are deflated and moving from the open position to the closed position), the first avatar feature is the avatar's mouth. In some embodiments, the movement of the avatar's mouth is one or more cameras of the device to prevent the mouth from colliding with or affecting the stretched avatar's tongue by closing. For example, it is weakened as compared with the movement of the mouth of the face detected in the field of view of 602).

いくつかの実施形態に従って、アバターの舌(例えば、1322-3)を表示することは、次のステップのうちの1つ以上を含む。第3の顔の特徴(例えば、1325-1)(例えば、ユーザの口)の位置を検出する。電子デバイス(例えば、600)は、第3の顔の特徴が第1の位置(例えば、実質的に閉じられた位置)を有するという判定に従って、第1の形状(例えば、図13M及び13Nに示されている)(例えば、円錐形又は「イチゴ」の形状)を有するアバターの舌を表示する。電子デバイスは、第1の顔の特徴が第1の位置(例えば、実質的に開かれた位置)と異なる第2の位置を有するという判定に従って、第1の形状(例えば、図13Eに示されているような平らな形状)と異なる第2の形状を有するアバターの舌を表示する。いくつかの実施形態では、アバターの舌が第2の形状を有する場合、アバターの舌は、アバターの舌が第1の形状を有する場合よりも長く、口から外に伸びる。アバターの舌の表示は、アバターの口が開かれているのか、又は閉じられているのかに応じて異なる舌の形状を示すフィードバックをユーザに提供する。改善された視覚フィードバックをユーザに提供することにより、デバイスの操作性が改善され、ユーザ-デバイスインターフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 Displaying an avatar's tongue (eg, 1322-3) according to some embodiments comprises one or more of the following steps. The position of the third facial feature (eg, 1325-1) (eg, the user's mouth) is detected. The electronic device (eg, 600) is shown in the first shape (eg, FIGS. 13M and 13N) according to the determination that the third facial feature has a first position (eg, a substantially closed position). Shows the tongue of an avatar with) (eg, conical or "strawberry" shape). The electronic device is shown in the first shape (eg, FIG. 13E) according to the determination that the first facial feature has a second position different from the first position (eg, a substantially open position). Display the tongue of an avatar with a second shape that is different from the flat shape). In some embodiments, when the avatar's tongue has a second shape, the avatar's tongue is longer and extends out of the mouth than when the avatar's tongue has a first shape. The display of the avatar's tongue provides the user with feedback indicating different tongue shapes depending on whether the avatar's mouth is open or closed. By providing users with improved visual feedback, the usability of the device is improved and the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, It makes it more efficient (by reducing user error) and, in addition, reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

なお、方法1400に関して上述された処理(例えば、図14)の詳細はまた、前述の方法にも類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1400に関して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。アバターを編集する方法700は、アバターユーザインターフェースをナビゲートする方法に組み込まれ得る。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図9に関して前述した方法900に従って実現されてよい。追加の例として、方法1000、1100、及び1200は、方法1400に関連して前述された様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、いくつかの実施形態では、ナビゲーションユーザインターフェースが、カスタマイズ可能なアバターを作成又は編集する処理を呼び出し、この処理は、図10~図12に関して後述される方法に従って実現されてよい。簡潔にするために、これらの詳細は繰り返されていない。 It should be noted that the details of the process described above for Method 1400 (eg, FIG. 14) are also applicable to the method described above in a similar manner. For example, method 700 optionally includes one or more of the characteristics of the various methods described above with respect to method 1400. The method of editing an avatar 700 may be incorporated into a method of navigating the avatar user interface. For example, in some embodiments, the navigation user interface may call a process of creating or editing a customizable avatar, which process may be implemented according to method 900 described above with respect to FIG. As an additional example, methods 1000, 1100, and 1200 optionally include one or more of the properties of the various methods described above in connection with method 1400. For example, in some embodiments, the navigation user interface may call a process for creating or editing a customizable avatar, which may be implemented according to the methods described below with respect to FIGS. 10-12. For the sake of brevity, these details have not been repeated.

説明を目的とした上述した説明は、特定の実施形態を参照して説明されてきた。しかしながら、上記例示的な議論は、包括的であることを意図しておらず、又は発明を開示された簡易的な形式に限定することを意図していない。上記教示を考慮して多くの修正及び変形が可能である。技術の原理及びそれらの実際の適用を最良に説明するために実施形態が選択及び説明されてきた。それによって、他の当業者は、考えられる特定の使用に適切な様々な修正で、技術及び様々な実施形態を最良に利用することが可能である。 The above description for purposes of illustration has been described with reference to specific embodiments. However, the above exemplary discussion is not intended to be comprehensive or to limit the invention to the disclosed simplified form. Many modifications and modifications are possible in consideration of the above teachings. Embodiments have been selected and described to best explain the principles of the art and their practical application. Thereby, other skill in the art will be able to make the best use of the technique and various embodiments with various modifications suitable for the particular possible use.

開示及び実施例が添付図面を参照して完全に説明されてきたが、様々な変更及び修正が当業者にとって明らかであることに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるように、開示及び実施例の範囲内に含まれるものとして理解されることになる。 It should be noted that although the disclosures and examples have been fully described with reference to the accompanying drawings, various changes and amendments will be apparent to those of skill in the art. Such changes and amendments will be understood as being included within the scope of the disclosure and examples, as defined by the claims.

上述のように、本技術の一態様は、他のユーザと共有するために、様々なソースから入手可能なデータを収集及び使用することである。本開示は、場合によっては、この収集されたデータは、特定の人を一意的に特定するか、又はその人に連絡するか、若しくはその人のロケーションを特定するために用いることができる個人情報データを含んでよいことを企図している。このような個人情報データは、人口統計データ、ロケーションベースのデータ、電話番号、電子メールアドレス、ツイッターID、自宅の住所、ユーザの健康又はフィットネスのレベル(例えば、バイタルサイン測定、服薬情報、運動情報)に関するデータ若しくは記録、誕生日又は任意のその他の識別情報若しくは個人情報を含むことができる。 As mentioned above, one aspect of the art is to collect and use data available from various sources for sharing with other users. In this disclosure, in some cases, this collected data may be used to uniquely identify, contact, or locate a particular person. It is intended to contain data. Such personal information data includes demographic data, location-based data, phone numbers, email addresses, Twitter IDs, home addresses, user health or fitness levels (eg, vital sign measurements, medication information, exercise information). ) May include data or records, birthdays or any other identification or personal information.

本開示は、この技術のそのような個人情報データを使用してユーザを利することができることを理解する。例えば、個人情報データは、会話中のユーザをより良く表すために使用され得る。更に、ユーザを利する個人情報データに関するその他の使用もまた、本開示により意図されている。例えば、健康データ及びフィットネスデータは、ユーザの全般的なウェルネスについての洞察を提供するために使用されてもよく、あるいはウェルネスの目標を追求するために技術を使用して個人に積極的なフィードバックとして使用されてもよい。 The present disclosure understands that such personal information data of this technology can be used to benefit users. For example, personal information data can be used to better represent a user in a conversation. In addition, other uses for personal information data that benefit the user are also intended by this disclosure. For example, health and fitness data may be used to provide insights into a user's general wellness, or as positive feedback to an individual using technology to pursue wellness goals. May be used.

本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶又はその他の使用に応答するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守することとなることを企画する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための業界又は政府の要件を満たすか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し常に使用すべきである。このようなポリシーは、ユーザが容易にアクセスすることができ、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更に、そのような収集/共有は、ユーザに告知して同意を得た後にのみ実施すべきである。加えて、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じるべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。加えて、ポリシー及び慣行は、収集かつ/又はアクセスされる特定の種類の個人情報データに適合され、また、管轄権特有の考慮を含む、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国において、ある健康データの収集又はアクセスは、例えば、Health Insurance Portability and Accountability Act(HIPAA)なのどの、連邦法及び/又は州法によって管理されてもよく、一方、他の国における健康データは、他の規制及び政策の影響下にあってもよく、それに従って対処されるべきである。したがって、異なるプライバシー慣行を、各国の異なる個人データの種類に対して保つべきである。 This disclosure contemplates that the entity responding to the collection, analysis, disclosure, transmission, storage or other use of such personal information data will comply with a strong privacy policy and / or privacy practice. Specifically, such entities always implement privacy policies and practices that are generally recognized as meeting or surpassing industry or government requirements for the confidential and rigorous maintenance of personal information data. Should be used. Such policies should be easily accessible to users and updated as data collection and / or use changes. Personal information from users should be collected for the legitimate and legitimate use of that entity and should not be shared or sold except for their legitimate use. Moreover, such collection / sharing should only be carried out after notifying and consenting to the user. In addition, such entities protect and secure access to such personal information data and ensure that others with access to that personal information data comply with their privacy policies and procedures. All necessary steps should be taken to do so. Moreover, such entities may be subject to third party evaluation to prove their compliance with widely accepted privacy policies and practices. In addition, policies and practices should be adapted to the particular type of personal information data collected and / or accessed, and to applicable laws and standards, including jurisdiction-specific considerations. For example, in the United States, the collection or access to certain health data may be controlled by federal and / or state law, such as, for example, Health Insurance Portability and Accountability Act (HIPAA), while health data in other countries. , May be under the influence of other regulations and policies and should be addressed accordingly. Therefore, different privacy practices should be maintained for different types of personal data in each country.

前述のことがらにもかかわらず、本開示はまた、ユーザが、個人情報データの使用又は個人情報データへのアクセスを選択的に阻止する実施形態も企図している。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、アバターを送信する場合、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成され得る。「オプトイン」及び「オプトアウト」オプションを提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを企画している。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。 Despite the above, the disclosure also contemplates embodiments that selectively prevent users from using or accessing personal information data. That is, it is conceivable that the present disclosure may provide hardware and / or software elements to prevent or prevent access to such personal information data. For example, when sending an avatar, the technology may be configured to allow the user to select "opt-in" or "opt-out" to participate in the collection of personal information data during or at any time during or after registration of the service. In addition to providing "opt-in" and "opt-out" options, this disclosure is intended to provide notice regarding the access or use of personal information. For example, the user may be notified at the time of downloading the application that will access the user's personal information data, and then the user may be warned again immediately before the personal information data is accessed by the application.

更に、本開示の意図は、個人情報データを、意図しない又は不正なアクセス又は使用の危険性を最小にする方法で管理かつ取り扱うべきであることである。リスクは、データの収集を制限し、データがもはや必要ではなくなった時点でデータを削除することによって、最小化することができる。加えて、適用可能な場合には、ある健康関連アプリケーションにおいても、データ非特定化は、ユーザのプライバシーを保護するために使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって情報集約すること)及び/又は他の方法によって、容易にすることができる。 Furthermore, the intent of this disclosure is that personal information data should be managed and handled in a manner that minimizes the risk of unintended or unauthorized access or use. Risk can be minimized by limiting the collection of data and deleting it when it is no longer needed. In addition, where applicable, even in certain health-related applications, data non-specification can be used to protect the privacy of the user. De-specification, where appropriate, removes certain identifiers (eg, date of birth), controls the amount or specificity of stored data (eg, location data rather than address level). It can be facilitated by collecting at the city level), controlling how the data is stored (eg, aggregating the data across users) and / or other methods.

したがって、本開示は、1つ以上の様々な開示された実施形態を実施するための個人情報データの使用を広範に網羅しているが、本開示は、それらの様々な実施形態がまた、そのような個人情報データにアクセスすることを必要とせずに実施されることも可能であることも企図している。すなわち、本技術の様々な実施形態は、そのような個人情報データのすべて又は一部分の欠如により、実施不可能となるものではない。 Accordingly, while the present disclosure broadly covers the use of personal information data to implement one or more of the various disclosed embodiments, the present disclosure also covers those various embodiments thereof as well. It is also intended that it can be carried out without the need to access such personal information data. That is, various embodiments of the present technology are not infeasible due to the lack of all or part of such personal information data.

Claims (19)

表示装置を有する電子デバイスで、
前記表示装置を介して、
1つ以上の色の第1の集合を有する個別の特徴を含んでいるユーザインターフェースオブジェクトと、
前記個別の特徴のための複数の色オプションと、を表示することと、
前記複数の色オプションのうち1つ以上の色の第2の集合に対応する色オプションの選択を検出することと、
前記選択を検出することに応じて、
前記個別の特徴の前記色を、1つ以上の色の前記第2の集合に対応する前記色オプションに変更することと、
1つ以上の色の前記第2の集合に対応する前記色オプションのための第1の色調整コントロールを表示することと、
前記ユーザインターフェースオブジェクトの前記個別の特徴が1つ以上の色の前記第2の集合で表示されている間に、前記第1の色調整コントロールに対応する入力を検出することと、
前記第1の色調整コントロールに対応する前記入力を検出することに応じて、前記個別の特徴の前記色を、1つ以上の色の前記第2の集合から、色の前記第2の集合の変更されたバージョンに変更することと、を含み、
色の前記第2の集合の前記変更されたバージョンは、複数の色を含み、1つ以上の色の前記第2の集合に基づき、
前記個別の特徴の前記色を、1つ以上の色の前記第2の集合から、前記複数の色を含む色の前記第2の集合の前記変更されたバージョンに変更することが、前記複数の色を含む色の前記第2の集合のための複数の値を変更することを含んでいる、方法。
An electronic device with a display device
Through the display device,
A user interface object containing individual features with a first set of one or more colors, and
Displaying multiple color options for the individual features, and
To detect the selection of a color option corresponding to a second set of one or more of the plurality of color options.
In response to detecting the selection
To change the color of the individual feature to the color option corresponding to the second set of one or more colors.
To display a first color adjustment control for the color option corresponding to the second set of one or more colors.
To detect an input corresponding to the first color adjustment control while the individual feature of the user interface object is displayed in the second set of one or more colors.
In response to detecting the input corresponding to the first color adjustment control, the color of the individual feature is from the second set of one or more colors to the second set of colors. Including changing to a changed version,
The modified version of the second set of colors comprises a plurality of colors and is based on the second set of one or more colors.
It is possible to change the color of the individual feature from the second set of one or more colors to the modified version of the second set of colors containing the plurality of colors. A method comprising changing a plurality of values for the second set of colors, including colors.
前記個別の特徴の前記色を、1つ以上の色の前記第2の集合から、複数の色を含む色の前記第2の集合の前記変更されたバージョンに変更することが、前記第1の色調整コントロールに対応する前記入力の大きさ及び方向に更に基づく、請求項1に記載の方法。 The first is to change the color of the individual feature from the second set of one or more colors to the modified version of the second set of colors containing a plurality of colors. The method of claim 1, further based on the size and direction of the input corresponding to the color adjustment control. 前記第1の色調整コントロールに対応する前記入力を検出することに応じて、前記色オプションの前記色を、1つ以上の色の前記第2の集合から、複数の色を含む色の前記第2の集合の前記変更されたバージョンに変更することを更に含んでいる、請求項1又は2に記載の方法。 In response to detecting the input corresponding to the first color adjustment control, the color of the color option is the second set of colors comprising a plurality of colors from the second set of one or more colors. The method of claim 1 or 2, further comprising changing to the modified version of a set of two. 第2の特徴のための第2の複数の色オプションを表示することと、
前記第2の複数の色オプションのうちの第2の色オプションの選択を検出することと、
前記第2の色オプションの前記選択を検出することに応じて、
前記第2の特徴の色を前記第2の色オプションに変更することと、
1つ以上の色の第3の集合に対応する前記第2の色オプションのための第2の色調整コントロールを表示することと、を更に含んでいる、請求項1から3のいずれか一項に記載の方法。
Displaying a second plurality of color options for the second feature,
To detect the selection of the second color option among the second plurality of color options, and to detect the selection of the second color option.
In response to detecting the selection of the second color option,
Changing the color of the second feature to the second color option,
One of claims 1 to 3, further comprising displaying a second color adjustment control for the second color option corresponding to a third set of one or more colors. The method described in.
前記個別の特徴及び第2の特徴が、それぞれアバターの眼鏡の特徴の一部に対応し、
前記複数の色オプションが前記アバターの眼鏡のフレームの色に対応し、
前記第2の複数の色オプションが前記アバターの眼鏡のレンズの色に対応する、請求項4に記載の方法。
The individual features and the second feature each correspond to some of the features of Avatar's eyeglasses.
The plurality of color options correspond to the color of the frame of the avatar's eyeglasses.
The method of claim 4, wherein the second plurality of color options correspond to the color of the lens of the avatar's spectacles.
前記第2の色調整コントロールに対応する入力を検出することと、
前記第2の色調整コントロールに対応する前記入力を検出することに応じて、前記アバターの眼鏡の前記レンズの不透明度を変更することと、を更に含んでいる、請求項5に記載の方法。
To detect the input corresponding to the second color adjustment control,
5. The method of claim 5, further comprising changing the opacity of the lens of the avatar's eyeglasses in response to detecting the input corresponding to the second color adjustment control.
前記第2の色オプションの前記選択を検出することに応じて、1つ以上の色の前記第2の集合に対応する前記色オプションのための前記第1の色調整コントロールを表示することを止めることを更に含んでいる、請求項4から6のいずれか一項に記載の方法。 Stop displaying the first color adjustment control for the color option corresponding to the second set of one or more colors in response to detecting the selection of the second color option. The method according to any one of claims 4 to 6, further comprising the above. 1つ以上の色の前記第2の集合に対応する前記色オプションのための前記第1の色調整コントロールを表示することを止めた後に、前記複数の色オプションのうち1つ以上の色の前記第2の集合に対応する前記色オプションの後続の選択を検出することと、
前記後続の選択を検出することに応じて、前記色オプションのための前記第1の色調整コントロールの表示を再開することと、を更に含んでおり、前記第1の色調整コントロールが複数の色を含む色の前記第2の集合の前記変更されたバージョンに対応している、請求項7に記載の方法。
After stopping displaying the first color adjustment control for the color option corresponding to the second set of one or more colors, the color of one or more of the plurality of color options. To detect the subsequent selection of the color option corresponding to the second set,
Further including resuming the display of the first color adjustment control for the color option in response to detecting the subsequent selection, the first color adjustment control has a plurality of colors. 7. The method of claim 7, corresponding to the modified version of the second set of colors comprising.
1つ以上の色の前記第2の集合に対応する前記第1の色調整コントロールを表示することを止めた後に、前記複数の色オプションのうち、複数の色を含む色の前記第2の集合の前記変更されたバージョンを有する前記色オプションの表示を維持することを更に含んでいる、請求項4から8のいずれか一項に記載の方法。 After stopping displaying the first color adjustment control corresponding to the second set of one or more colors, the second set of colors containing the plurality of colors among the plurality of color options. The method of any one of claims 4-8, further comprising maintaining the display of the color option having the modified version of. 前記第1の色調整コントロールに対応する前記入力が第1の方向を含んでいるという判定に応じて、1つ以上の色の前記第2の集合を第1の方法で変更することと、
前記第2の色調整コントロールに対応する第2の入力が前記第1の方向を含んでいるという判定に応じて、1つ以上の色の前記第3の集合を前記第1の方法で変更することと、を更に含んでいる、請求項4から9のいずれか一項に記載の方法。
Responding to the determination that the input corresponding to the first color adjustment control comprises the first direction, the second set of one or more colors is modified in the first way.
The third set of one or more colors is modified by the first method in response to the determination that the second input corresponding to the second color adjustment control comprises the first direction. The method according to any one of claims 4 to 9, further comprising the above.
前記個別の特徴の前記色を、1つ以上の色の前記第2の集合から、複数の色を含み1つ以上の色の前記第2の集合に基づく色の前記第2の集合の変更されたバージョンに変更することが、
前記第1の色調整コントロールに対応する前記入力が第2の方向の移動を含んでいるという判定に従って、1つ以上の色の前記第2の集合の赤色の値を増やすことと、
前記第1の色調整コントロールに対応する前記入力が第3の方向の移動を含んでいるという判定に従って、1つ以上の色の前記第2の集合の緑色の値を増やすことと、を含んでおり、
前記方法が、
前記ユーザインターフェースオブジェクトの前記個別の特徴が前記1つ以上の色の第3の集合を有している間に、前記第2の色調整コントロールに対応する第3の入力を検出することと、
前記第2の色調整コントロールに対応する前記第3の入力を検出することに応じて、前記個別の特徴の前記色を、1つ以上の色の前記第3の集合から、1つ以上の色の前記第3の集合に基づく1つ以上の色の前記第3の集合の変更されたバージョンに変更することと、を含んでおり、前記変更することが、
前記第2の色調整コントロールに対応する前記第3の入力が前記第2の方向の移動を含んでいるという判定に従って、1つ以上の色の前記第3の集合の赤色の値を増やすことと、
前記第2の色調整コントロールに対応する前記第3の入力が前記第3の方向の移動を含んでいるという判定に従って、1つ以上の色の前記第3の集合の緑色の値を増やすことと、を含んでいる、請求項4から10のいずれか一項に記載の方法。
The color of the individual feature is modified from the second set of one or more colors to the second set of colors based on the second set of one or more colors containing a plurality of colors. Can be changed to another version
Increasing the red value of the second set of one or more colors according to the determination that the input corresponding to the first color adjustment control involves movement in the second direction.
Increasing the green value of the second set of one or more colors according to the determination that the input corresponding to the first color adjustment control involves movement in a third direction. Ori,
The above method
To detect a third input corresponding to the second color adjustment control while the individual feature of the user interface object has a third set of the one or more colors.
One or more colors from the third set of one or more colors, in response to detecting the third input corresponding to the second color adjustment control. The modification comprises changing to a modified version of the third set of one or more colors based on the third set of.
Increasing the red value of the third set of one or more colors according to the determination that the third input corresponding to the second color adjustment control involves movement in the second direction. ,
Increasing the green value of the third set of one or more colors according to the determination that the third input corresponding to the second color adjustment control involves movement in the third direction. The method according to any one of claims 4 to 10, comprising the above.
前記個別の特徴がアバターの肌の色である、請求項1から11のいずれか一項に記載の方法。 The method according to any one of claims 1 to 11, wherein the individual feature is the skin color of the avatar. 前記個別の特徴がアバターの目の色である、請求項1から12のいずれか一項に記載の方法。 The method according to any one of claims 1 to 12, wherein the individual feature is the eye color of the avatar. 前記個別の特徴がアバターの毛髪の色である、請求項1から13のいずれか一項に記載の方法。 The method according to any one of claims 1 to 13, wherein the individual feature is the hair color of the avatar. 1つ以上の色の前記第2の集合に対応する前記色オプションのための前記第1の色調整コントロールが、トラック及び前記トラック内で移動するサムを有するスライダーを含んでおり、前記入力が前記トラック内の前記サムの移動を引き起こし、前記方法が、
前記入力を検出することに応じて、前記サムが既定の位置に移動されることに従って、触覚フィードバックを生成することを更に含んでいる、請求項1から14のいずれか一項に記載の方法。
The first color adjustment control for the color option corresponding to the second set of one or more colors includes a track and a slider with a thumb moving within the track, the input being said. The method, which causes the movement of the thumb in the truck,
The method of any one of claims 1-14, further comprising generating tactile feedback as the thumb is moved to a predetermined position in response to detecting the input.
前記複数の値は、ハイライト値と、中間調値と、影値とのうちの少なくとも1つを含む、請求項1から15のいずれか一項に記載の方法。 The method according to any one of claims 1 to 15, wherein the plurality of values include at least one of a highlight value, a halftone value, and a shadow value. 請求項1から16のいずれか一項に記載の方法をコンピュータに実行させるコンピュータプログラム。 A computer program that causes a computer to execute the method according to any one of claims 1 to 16. 請求項17に記載のコンピュータプログラムを記憶するメモリと、
前記メモリに記憶された前記コンピュータプログラムを実行可能な1つ以上のプロセッサと、
を備える電子デバイス。
A memory for storing the computer program according to claim 17,
With one or more processors capable of executing the computer program stored in the memory.
Electronic device with.
請求項1から16のいずれか一項に記載の方法を実行するための手段を備える電子デバイス。 An electronic device comprising means for performing the method according to any one of claims 1 to 16.
JP2020120086A 2018-05-07 2020-07-13 Avatar creation user interface Active JP6991283B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021153573A JP7249392B2 (en) 2018-05-07 2021-09-21 Avatar creation user interface

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
US201862668200P 2018-05-07 2018-05-07
US62/668,200 2018-05-07
US201862679950P 2018-06-03 2018-06-03
US62/679,950 2018-06-03
DKPA201870374 2018-06-12
DKPA201870377 2018-06-12
DKPA201870374A DK201870374A1 (en) 2018-05-07 2018-06-12 Avatar creation user interface
DKPA201870375 2018-06-12
DKPA201870372 2018-06-12
DKPA201870375A DK180078B1 (en) 2018-05-07 2018-06-12 USER INTERFACE FOR AVATAR CREATION
DKPA201870377A DK179874B1 (en) 2018-05-07 2018-06-12 USER INTERFACE FOR AVATAR CREATION
DKPA201870372A DK180212B1 (en) 2018-05-07 2018-06-12 USER INTERFACE FOR CREATING AVATAR
US16/116,221 US10580221B2 (en) 2018-05-07 2018-08-29 Avatar creation user interface
US16/116,221 2018-08-29

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018184254A Division JP6735325B2 (en) 2018-05-07 2018-09-28 Avatar creation user interface

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021153573A Division JP7249392B2 (en) 2018-05-07 2021-09-21 Avatar creation user interface

Publications (2)

Publication Number Publication Date
JP2020187775A JP2020187775A (en) 2020-11-19
JP6991283B2 true JP6991283B2 (en) 2022-01-12

Family

ID=66286280

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018184254A Active JP6735325B2 (en) 2018-05-07 2018-09-28 Avatar creation user interface
JP2020120086A Active JP6991283B2 (en) 2018-05-07 2020-07-13 Avatar creation user interface
JP2021153573A Active JP7249392B2 (en) 2018-05-07 2021-09-21 Avatar creation user interface
JP2023043407A Pending JP2023085356A (en) 2018-05-07 2023-03-17 Avatar creation user interface

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018184254A Active JP6735325B2 (en) 2018-05-07 2018-09-28 Avatar creation user interface

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021153573A Active JP7249392B2 (en) 2018-05-07 2021-09-21 Avatar creation user interface
JP2023043407A Pending JP2023085356A (en) 2018-05-07 2023-03-17 Avatar creation user interface

Country Status (3)

Country Link
JP (4) JP6735325B2 (en)
CN (6) CN110457092A (en)
WO (1) WO2019216999A1 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (en) 2010-04-07 2014-06-01 Apple Inc Avatar editing environment
KR20230144661A (en) 2017-05-16 2023-10-16 애플 인크. Emoji recording and sending
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
DK179874B1 (en) 2018-05-07 2019-08-13 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
CN110882539B (en) 2019-11-22 2022-06-07 腾讯科技(深圳)有限公司 Animation display method and device, storage medium and electronic device
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11682002B2 (en) * 2020-06-05 2023-06-20 Marketspringpad Ip Usa Llc. Methods and systems for interactive data management
US11604562B2 (en) 2020-06-10 2023-03-14 Snap Inc. Interface carousel for use with image processing software development kit
CN112037338A (en) * 2020-08-31 2020-12-04 深圳传音控股股份有限公司 AR image creating method, terminal device and readable storage medium
CN115309302A (en) * 2021-05-06 2022-11-08 阿里巴巴新加坡控股有限公司 Icon display method, device, program product and storage medium
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
JP7348943B2 (en) * 2021-12-22 2023-09-21 凸版印刷株式会社 Content management system, content management method, and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006520053A (en) 2003-03-03 2006-08-31 アメリカ オンライン インコーポレイテッド How to use an avatar to communicate
JP2007528240A (en) 2004-02-12 2007-10-11 アリヴァンディ,ベスジョン System and method for creating a product from a virtual environment
JP2011517810A (en) 2008-03-12 2011-06-16 イマージョン コーポレーション Tactilely enabled user interface
US20110252344A1 (en) 2010-04-07 2011-10-13 Apple Inc. Personalizing colors of user interfaces
US20120075328A1 (en) 2010-09-28 2012-03-29 Apple Inc. Systems, methods, and computer-readable media for changing colors of displayed assets
US20140078144A1 (en) 2012-09-14 2014-03-20 Squee, Inc. Systems and methods for avatar creation
JP2014206817A (en) 2013-04-11 2014-10-30 株式会社スクウェア・エニックス Video game processing device and video game processing program
US20180047200A1 (en) 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
WO2018057272A1 (en) 2016-09-23 2018-03-29 Apple Inc. Avatar creation and editing

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
WO1999038149A1 (en) 1998-01-26 1999-07-29 Wayne Westerman Method and apparatus for integrating manual input
KR20010056965A (en) * 1999-12-17 2001-07-04 박희완 Method for creating human characters by partial image synthesis
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
KR20090002176A (en) * 2007-06-20 2009-01-09 엔에이치엔(주) System for providing ranking of game-avatar in network and method thereof
KR101687689B1 (en) 2008-04-30 2016-12-19 가부시키가이샤 아크로디아 Character display data generation device and method
WO2009149076A1 (en) 2008-06-02 2009-12-10 Nike International, Ltd. System and method for creating an avatar
JP5256001B2 (en) * 2008-11-20 2013-08-07 京セラドキュメントソリューションズ株式会社 Color adjustment apparatus, method and program
CN101692681A (en) * 2009-09-17 2010-04-07 杭州聚贝软件科技有限公司 Method and system for realizing virtual image interactive interface on phone set terminal
US20110074807A1 (en) * 2009-09-30 2011-03-31 Hitachi, Ltd. Method of color customization of content screen
KR20120013727A (en) * 2010-08-06 2012-02-15 삼성전자주식회사 Display apparatus and control method thereof
CN102142149A (en) * 2011-01-26 2011-08-03 深圳市同洲电子股份有限公司 Method and device for obtaining contact image
GB201102794D0 (en) * 2011-02-17 2011-03-30 Metail Ltd Online retail system
CN102298797A (en) * 2011-08-31 2011-12-28 深圳市美丽同盟科技有限公司 Three-dimensional virtual fitting method, device and system
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
KR101958582B1 (en) 2012-12-29 2019-07-04 애플 인크. Device, method, and graphical user interface for transitioning between touch input to display output relationships
CN104753762B (en) * 2013-12-31 2018-07-27 北京发现角科技有限公司 The method and system that ornament is added into avatar icon applied to instant messaging
KR102367550B1 (en) * 2014-09-02 2022-02-28 삼성전자 주식회사 Controlling a camera module based on physiological signals
CN104376160A (en) * 2014-11-07 2015-02-25 薛景 Real person simulation individuality ornament matching system
CN114527881B (en) * 2015-04-07 2023-09-26 英特尔公司 avatar keyboard
CN105100462A (en) * 2015-07-10 2015-11-25 广州市久邦数码科技有限公司 Short message system having custom theme edition function

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006520053A (en) 2003-03-03 2006-08-31 アメリカ オンライン インコーポレイテッド How to use an avatar to communicate
JP2007528240A (en) 2004-02-12 2007-10-11 アリヴァンディ,ベスジョン System and method for creating a product from a virtual environment
JP2011517810A (en) 2008-03-12 2011-06-16 イマージョン コーポレーション Tactilely enabled user interface
US20110252344A1 (en) 2010-04-07 2011-10-13 Apple Inc. Personalizing colors of user interfaces
US20120075328A1 (en) 2010-09-28 2012-03-29 Apple Inc. Systems, methods, and computer-readable media for changing colors of displayed assets
US20140078144A1 (en) 2012-09-14 2014-03-20 Squee, Inc. Systems and methods for avatar creation
JP2014206817A (en) 2013-04-11 2014-10-30 株式会社スクウェア・エニックス Video game processing device and video game processing program
US20180047200A1 (en) 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
WO2018057272A1 (en) 2016-09-23 2018-03-29 Apple Inc. Avatar creation and editing

Also Published As

Publication number Publication date
JP2020187775A (en) 2020-11-19
WO2019216999A1 (en) 2019-11-14
JP7249392B2 (en) 2023-03-30
JP6735325B2 (en) 2020-08-05
CN110457092A (en) 2019-11-15
CN110456965A (en) 2019-11-15
CN116309023A (en) 2023-06-23
JP2022008470A (en) 2022-01-13
CN111488193A (en) 2020-08-04
JP2023085356A (en) 2023-06-20
JP2019207670A (en) 2019-12-05
CN110457103A (en) 2019-11-15
CN113535306A (en) 2021-10-22
CN113535306B (en) 2023-04-07

Similar Documents

Publication Publication Date Title
JP6991283B2 (en) Avatar creation user interface
KR102283613B1 (en) Avatar Creation User Interface
AU2023201250B2 (en) Avatar navigation, library, editing and creation user interface
AU2020101715A4 (en) Avatar creation user interface
EP3567457B1 (en) Avatar creation user interface

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200805

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200805

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201120

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210921

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210921

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211004

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211207

R150 Certificate of patent or registration of utility model

Ref document number: 6991283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150