JP7196183B2 - Media Capture Lock Affordances for Graphical User Interfaces - Google Patents

Media Capture Lock Affordances for Graphical User Interfaces Download PDF

Info

Publication number
JP7196183B2
JP7196183B2 JP2020542592A JP2020542592A JP7196183B2 JP 7196183 B2 JP7196183 B2 JP 7196183B2 JP 2020542592 A JP2020542592 A JP 2020542592A JP 2020542592 A JP2020542592 A JP 2020542592A JP 7196183 B2 JP7196183 B2 JP 7196183B2
Authority
JP
Japan
Prior art keywords
touch
media capture
media
input
affordance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020542592A
Other languages
Japanese (ja)
Other versions
JP2021513161A (en
Inventor
アントン エム ダヴィドフ
ジェーン イー クー
ベーキッシュ ジェイ マンザリ
グラント アール ポール
ザ サード ウィリアム エイ ソレンティノ
ドス サントス アンドレ ソウザ
ダニエル ジェイ ウィアセマ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/995,040 external-priority patent/US20190253619A1/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2021513161A publication Critical patent/JP2021513161A/en
Priority to JP2022199433A priority Critical patent/JP2023036715A/en
Application granted granted Critical
Publication of JP7196183B2 publication Critical patent/JP7196183B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Recording Measured Values (AREA)
  • Water Treatment By Sorption (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)

Description

関連出願の相互参照
本出願は、2018年2月9日に出願の「Media Capture Lock Affordance for Graphical User Interface」と題する米国特許仮出願第62/628,825号、2018年5月31日に出願の「Media Capture Lock Affordance for Graphical User Interface」と題する米国特許出願第15/995,040号、及び2019年2月7日に出願の「Media Capture Lock Affordance for Graphical User Interface」と題する米国特許仮出願第62/802,603号の優先権を主張する。これらの出願の内容は、全体が、参照により本明細書に組み込まれる。
CROSS-REFERENCE TO RELATED APPLICATIONS This application is filed May 31, 2018, U.S. Provisional Patent Application No. 62/628,825, entitled "Media Capture Lock Affordance for Graphical User Interface," filed February 9, 2018 No. 15/995,040, entitled "Media Capture Lock Affordance for Graphical User Interface," and U.S. Provisional Patent Application, entitled "Media Capture Lock Affordance for Graphical User Interface," filed Feb. 7, 2019; 62/802,603 priority is claimed. The contents of these applications are incorporated herein by reference in their entireties.

本開示は概して、メディアキャプチャアプリケーションのグラフィカルユーザインタフェースに関する。 The present disclosure relates generally to graphical user interfaces for media capture applications.

メディアキャプチャデバイス(例えば、スマートフォン、タブレットコンピュータ)は、ユーザが1つ以上の組み込まれたカメラ及びマイクロフォンを使用してメディアクリップ(例えば、ビデオクリップ、オーディオクリップ)を記録することを可能にするアプリケーションを含む。ユーザは、仮想記録ボタンを押したままにしてメディアクリップをキャプチャする。ユーザが記録を行うと、ユーザは、メディアクリップをドラッグして他のメディアクリップと共に所望の順序にし、フィルタ、絵文字、アニメーションアイコン、及びタイトルを追加することができる。メディアクリップは、ソーシャルネットワークを通じて間接的に共有することができ、かつ/又は、例えばインスタントメッセージングアプリケーションを通じて友人に直接送信することができる。 Media capture devices (e.g., smartphones, tablet computers) run applications that allow users to record media clips (e.g., video clips, audio clips) using one or more built-in cameras and microphones. include. The user holds down the virtual record button to capture a media clip. Once the user has recorded, the user can drag media clips into the desired order with other media clips, add filters, emojis, animated icons, and titles. Media clips can be shared indirectly through social networks and/or sent directly to friends through instant messaging applications, for example.

しかし、電子デバイスを使用してメディアキャプチャを実行するためのいくつかの技法は、一般的に扱いにくく非効率である。例えば、一部の既存の技法では、複数回のキー押圧又はキーストロークを含み得る、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技法は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。後者について考慮することは、バッテリ動作式デバイスにおいて特に重大である。 However, some techniques for performing media capture using electronic devices are generally cumbersome and inefficient. For example, some existing techniques use complex and time-consuming user interfaces that may involve multiple key presses or keystrokes. Existing techniques take longer than necessary, wasting user time and device energy. The latter consideration is especially critical in battery operated devices.

したがって、本技法は、ジェスチャによるメディアキャプチャを実行するための、より速く、より効率的な方法及びインタフェースを電子デバイスに提供する。このような方法及びインタフェースは、ジェスチャによるメディアキャプチャを実行するための他の方法を任意選択的に補完するか、又は置き換える。そのような方法及びインタフェースは、ユーザにかかる認識的負担を減らし、より効率的なヒューマン-マシンインタフェースを生成する。バッテリ動作式コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、電池充電の間隔を長くする。加えて、このような方法及びインタフェースは、メディアキャプチャを実行するために不要な又は本質的でないユーザ入力の数を低減し、それによってユーザ時間を節約し、デバイスエネルギを節約する。 Accordingly, the techniques provide electronic devices with faster, more efficient methods and interfaces for performing gestural media capture. Such methods and interfaces optionally complement or replace other methods for performing gestural media capture. Such methods and interfaces reduce the cognitive burden placed on users and produce more efficient human-machine interfaces. For battery-operated computing devices, such methods and interfaces conserve power and increase intervals between battery charges. Additionally, such methods and interfaces reduce the number of unnecessary or non-essential user inputs to perform media capture, thereby saving user time and saving device energy.

開示される実施形態は、グラフィカルユーザインタフェースのためのメディアキャプチャロックアフォーダンスを対象とする。一実施形態では、メディアをキャプチャする方法は、メディアキャプチャデバイスによって、メディアキャプチャデバイスのディスプレイスクリーン上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を検出することと、タップアンドホールドジェスチャ入力に応答して、メディアキャプチャデバイスによって、メディアキャプチャデバイス上のメディアキャプチャセッションを、アンロック状態で開始することと、タップアンドホールドジェスチャ入力がメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所からリフトする第1のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションを終了させることと、メディアキャプチャセッション中にメディアキャプチャアフォーダンスがグラフィカルユーザインタフェース上の第1の場所から第2の場所までスライドするスライドジェスチャ入力をメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更することと、スライドジェスチャ入力がメディアキャプチャセッション中に第2の場所でグラフィカルユーザインタフェースからリフトする第2のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションをロック状態に遷移させることと、を含む。 The disclosed embodiments are directed to media capture locking affordances for graphical user interfaces. In one embodiment, a method of capturing media includes tapping and targeting media capture affordances displayed by a media capture device at a first location on a graphical user interface presented on a display screen of the media capture device. detecting hold gesture input; starting a media capture session on the media capture device in an unlocked state by the media capture device in response to the tap-and-hold gesture input; terminating the media capture session by the media capture device in response to the media capture device detecting a first lift gesture of lifting from a first location on the graphical user interface during the capture session; In response to the media capture device detecting a slide gesture input in which the media capture affordance slides from a first location to a second location on the graphical user interface during the session, the media capture affordance is displayed on the media by the media capture device. In response to changing to the capture lock affordance and the media capture device detecting a second lift gesture in which the slide gesture input lifts from the graphical user interface at a second location during the media capture session. transitioning the media capture session to a locked state by.

他の実施形態は、装置、コンピューティングデバイス、及び非一時的コンピュータ可読記憶媒体を含むことができる。 Other embodiments may include apparatus, computing devices, and non-transitory computer-readable storage media.

一部の実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は命令を記憶しており、命令はメディアキャプチャデバイスによって実行されると、メディアキャプチャデバイスに、メディアキャプチャデバイスによって、メディアキャプチャデバイスのディスプレイスクリーン上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を検出することと、タップアンドホールドジェスチャ入力に応答して、メディアキャプチャデバイスによって、メディアキャプチャデバイス上のメディアキャプチャセッションを、アンロックされたメディアセッションキャプチャ状態で開始することと、タップアンドホールドジェスチャ入力がメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所からリフトする第1のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションを終了させることと、メディアキャプチャアフォーダンスがメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所から第2の場所までスライドするスライドジェスチャ入力をメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更することと、スライドジェスチャ入力がメディアキャプチャセッション中に第2の場所でグラフィカルユーザインタフェースからリフトする第2のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションをロックされたメディアキャプチャセッション状態に遷移させることと、を含む動作を実行させる。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores instructions that, when executed by the media capture device, present a graphical user interface to the media capture device and by the media capture device on a display screen of the media capture device. detecting a tap-and-hold gesture input directed to the media capture affordance displayed in a first location above; starting the session in an unlocked media session capture state; Terminating the media capture session by the media capture device in response to detecting and a slide gesture in which the media capture affordance slides from a first location to a second location on the graphical user interface during the media capture session. changing, by the media capture device, a media capture affordance to a media capture lock affordance in response to detection by the media capture device of the input; and transitioning the media capture session to a locked media capture session state by the media capture device in response to the media capture device detecting a second lift gesture that lifts from.

一部の実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は命令を記憶しており、命令はメディアキャプチャデバイスによって実行されると、メディアキャプチャデバイスに、メディアキャプチャデバイスのディスプレイスクリーン上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を検出することと、タップアンドホールドジェスチャ入力に応答して、メディアキャプチャデバイスによって、メディアキャプチャデバイス上のメディアキャプチャセッションを、アンロックされたメディアセッションキャプチャ状態で開始することと、タップアンドホールドジェスチャ入力がメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所からリフトする第1のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションを終了させることと、メディアキャプチャアフォーダンスがメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所から第2の場所までスライドするスライドジェスチャ入力をメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更することと、スライドジェスチャ入力がメディアキャプチャセッション中に第2の場所でグラフィカルユーザインタフェースからリフトする第2のリフトジェスチャを、メディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションをロックされたメディアキャプチャセッション状態に遷移させることと、を含む動作を実行させる。 According to some embodiments, a temporary computer-readable storage medium is described. The non-transitory computer-readable storage medium stores instructions that, when executed by the media capture device, cause the media capture device to display a first image on a graphical user interface presented on a display screen of the media capture device. Unlocking, by the media capture device, a media capture session on the media capture device in response to detecting tap-and-hold gesture input directed to the media capture affordance displayed at the location and in response to the tap-and-hold gesture input and in response to the media capture device detecting a first lift gesture in which the tap-and-hold gesture input lifts from a first location on the graphical user interface during the media capture session. and causing the media capture device to terminate the media capture session and a slide gesture input in which the media capture affordance slides from a first location to a second location on the graphical user interface during the media capture session. changing, by the media capture device, the media capture affordance to a media capture lock affordance in response to detecting a second slide gesture input lifts from the graphical user interface at a second location during the media capture session; and transitioning the media capture session to a locked media capture session state by the media capture device in response to detection by the media capture device of the lift gesture.

一部の実施形態によれば、メディアキャプチャデバイスが記載される。メディアキャプチャデバイスは、タッチスクリーンと、1つ以上のプロセッサと、1つ以上のプロセッサと結合しており、命令を記憶するように構成されたメモリと、を備え、命令は、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、タッチスクリーンによって、メディアキャプチャデバイスのタッチスクリーン上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を検出することと、タップアンドホールドジェスチャ入力に応答して、メディアキャプチャデバイス上のメディアキャプチャセッションを、アンロックされたメディアキャプチャセッション状態で開始することと、タップアンドホールドジェスチャ入力がメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所からリフトする第1のリフトジェスチャをタッチスクリーンが検出したことに応答して、メディアキャプチャセッションを終了させることと、メディアキャプチャアフォーダンスがメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所から第2の場所までスライドするスライドジェスチャ入力をタッチスクリーンが検出したことに応答して、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更することと、スライドジェスチャ入力がメディアキャプチャセッション中に第2の場所でグラフィカルユーザインタフェースからリフトする第2のリフトジェスチャを、タッチスクリーンが検出したことに応答して、メディアキャプチャセッションをロックされたメディアキャプチャセッション状態に遷移させることと、を含む動作を実行させる。 According to some embodiments, a media capture device is described. The media capture device comprises a touch screen, one or more processors, and a memory coupled to the one or more processors and configured to store instructions, the instructions being stored in the one or more processors. causes one or more processors to tap and target media capture affordances displayed by the touch screen at a first location on a graphical user interface presented on the touch screen of the media capture device; detecting the hold gesture input; starting a media capture session on the media capture device in an unlocked media capture session state in response to the tap-and-hold gesture input; terminating the media capture session in response to the touch screen detecting a first lift gesture lifting from a first location on the graphical user interface during the capture session; changing a media capture affordance to a media capture lock affordance in response to the touch screen detecting a slide gesture input that slides from a first location to a second location on the graphical user interface; and sliding gesture input. transitioning the media capture session to a locked media capture session state in response to the touch screen detecting a second lift gesture that lifts from the graphical user interface at a second location during the media capture session. , and causes an action including .

一部の実施形態によれば、電子デバイスが記載される。電子デバイスは、ディスプレイスクリーンと、メディアキャプチャデバイスのディスプレイスクリーン上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を検出するための手段と、タップアンドホールドジェスチャ入力に応答して、メディアキャプチャデバイス上のメディアキャプチャセッションを、アンロックされたメディアキャプチャセッション状態で開始する手段と、タップアンドホールドジェスチャ入力がメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所からリフトする第1のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャセッションを終了させる手段と、メディアキャプチャセッション中にメディアキャプチャアフォーダンスがグラフィカルユーザインタフェース上の第1の場所から第2の場所までスライドするスライドジェスチャ入力をメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更する手段と、スライドジェスチャ入力がメディアキャプチャセッション中に第2の場所でグラフィカルユーザインタフェースからリフトする第2のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャセッションをロックされたメディアキャプチャセッション状態に遷移させる手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device comprises a display screen and means for detecting a tap-and-hold gesture input directed to a media capture affordance displayed at a first location on a graphical user interface presented on the display screen of the media capture device. and means for, in response to the tap-and-hold gesture input, starting a media capture session on the media capture device in an unlocked media capture session state; means for terminating a media capture session in response to the media capture device detecting a first lift gesture lifting from a first location above; means for changing a media capture affordance to a media capture lock affordance in response to the media capture device detecting a slide gesture input that slides from a first location to a second location; means for transitioning the media capture session to a locked media capture session state in response to the media capture device detecting a second lift gesture lifting from the graphical user interface at the second location.

本明細書に開示する特定の実施形態は、以下の利点のうちの1つ以上を提供することができる。メディアキャプチャロックアフォーダンスは、ユーザが、メディアキャプチャデバイスを片手で保持しながら、ユーザの指(例えば、ユーザの親指)によって適用され得る単純かつ直感的なタッチジェスチャを使用して、メディアキャプチャデバイスのキャプチャ状態をロック及びアンロックすることを可能にする。 Certain embodiments disclosed herein can provide one or more of the following advantages. A media capture lock affordance allows a user to capture a media capture device using simple and intuitive touch gestures that can be applied by a user's finger (e.g., a user's thumb) while holding the media capture device in one hand. Allows to lock and unlock states.

主題の1つ以上の実装形態の詳細は、添付図面及び下掲の明細書に記載されている。本主題の他の特徴、態様、及び利点は、明細書、図面、及び特許請求の範囲から明らかとなるであろう。 The details of one or more implementations of the subject matter are set forth in the accompanying drawings and the description below. Other features, aspects, and advantages of the present subject matter will become apparent from the specification, drawings, and claims.

一部の実施形態によれば、方法が記載される。方法は、ディスプレイ、タッチ感知面、及び1つ以上のメディアキャプチャ構成要素を有するデバイスにおいて、ディスプレイ上に第1のユーザインタフェース要素を表示することと、タッチ感知面を介して、第1のユーザインタフェース要素に対応するタッチ感知面上の場所で開始するタッチ入力を検出することと、タッチ入力を検出したことに応答して、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、タッチ感知面からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャすることと、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディアをキャプチャすることと、タッチ入力が移動基準を満たし、第1の方向への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続することと、を含む。 According to some embodiments, a method is described. A method, in a device having a display, a touch-sensitive surface, and one or more media capture components, comprises displaying a first user interface element on the display; detecting touch input beginning at a location on the touch-sensitive surface corresponding to the element; capturing the first type of media according to a determination that it has been lifted from the touch-sensitive surface before the threshold time elapses; and before the touch input meets the movement criteria and after the touch input is detected. After the time has elapsed, capturing a second type of media having a duration based on the duration of the touch input on the touch-sensitive surface according to the determination that it has been lifted from the touch-sensitive surface; and begins capturing a second type of media in accordance with a determination that it involves movement in the first direction; continuing the capture;

一部の実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、ディスプレイ、タッチ感知面及び1つ以上のメディアキャプチャ構成要素を有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に第1のユーザインタフェースを表示する命令と、タッチ感知面を介して、第1のユーザインタフェース要素に対応するタッチ感知面上の場所で開始するタッチ入力を検出する命令と、タッチ入力を検出したことに応答して、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たし、第1の方向への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャ継続する命令と、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display, touch-sensitive surface, and one or more media capture components. , one or more programs provide instructions for displaying a first user interface on the display and, via the touch-sensitive surface, inputting a touch starting at a location on the touch-sensitive surface corresponding to the first user interface element. In response to the instruction to detect and detecting the touch input, the touch input lifts from the touch-sensitive surface before the touch input meets the movement criteria and before the threshold time has elapsed since the touch input was detected. capturing the first type of media according to the determination that the touch input was detected; instructions for capturing a second type of media having a duration based on the duration of the touch input on the touch-sensitive surface according to the lift determination; initiating capture of the second type of media in accordance with the determining to include and continuing to capture the second type of media after detecting lift-off of the touch input from the touch-sensitive surface.

一部の実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、ディスプレイ、タッチ感知面及び1つ以上のメディアキャプチャ構成要素を有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に第1のユーザインタフェースを表示する命令と、タッチ感知面を介して、第1のユーザインタフェース要素に対応するタッチ感知面上の場所で開始するタッチ入力を検出する命令と、タッチ入力を検出したことに応答して、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たす前、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たし、第1の方向への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続する命令と、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display, a touch-sensitive surface, and one or more media capture components; The one or more programs receive instructions to display a first user interface on the display and, via the touch-sensitive surface, detect a touch input starting at a location on the touch-sensitive surface corresponding to the first user interface element. and in response to detecting the touch input, the touch input is lifted from the touch-sensitive surface before the touch input meets the movement criteria and before the threshold time has elapsed since the touch input was detected. and lifting the touch input from the touch-sensitive surface before the touch input meets the movement criteria and after a threshold time has elapsed since the touch input was detected. and capturing a second type of media having a duration based on the duration of the touch input on the touch-sensitive surface, and wherein the touch input meets the movement criteria and includes movement in the first direction. initiating capture of the second type of media in accordance with the determination of and continuing capturing of the second type of media after detecting lift-off of touch input from the touch sensitive surface.

一部の実施形態によれば、電子デバイスが記載される。電子デバイスは、ディスプレイと、タッチ感知面と、1つ以上のメディアキャプチャ構成要素と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ディスプレイ上に第1のユーザインタフェースを表示する命令と、タッチ感知面を介して第1のユーザインタフェース要素に対応するタッチ感知面上の場所で開始するタッチ入力を検出する命令と、タッチ入力を検出したことに応答して、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たし、第1の方向への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続する命令と、を含む。 According to some embodiments, an electronic device is described. An electronic device stores a display, a touch-sensitive surface, one or more media capture components, one or more processors, and one or more programs configured to be executed by the one or more processors. one or more programs having instructions for displaying a first user interface on the display and at locations on the touch-sensitive surface corresponding to the first user interface elements via the touch-sensitive surface. an instruction to detect a touch input to initiate; an instruction to capture a first type of media in accordance with a determination that it has been lifted from the touch-sensitive surface; is lifted from the touch-sensitive surface, capturing a second type of media having a duration based on the duration of the touch-input on the touch-sensitive surface; instructions for initiating capture of a second type of media according to a determination that it involves movement in a direction of and continuing capturing of the second type of media after detecting lift-off of touch input from the touch-sensitive surface; and including.

一部の実施形態によれば、電子デバイスが記載される。電子デバイスは、ディスプレイと、タッチ感知面と、1つ以上のメディアキャプチャ構成要素と、ディスプレイ上に第1のユーザインタフェースを表示する手段と、タッチ感知面を介して、第1のユーザインタフェース要素に対応するタッチ感知面上の場所で開始するタッチ入力を検出する手段と、タッチ入力を検出したことに応答して、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャし、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディアをキャプチャし、タッチ入力が移動基準を満たし、第1の方向への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャ継続する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device comprises a display, a touch-sensitive surface, one or more media capture components, means for displaying a first user interface on the display, and a first user interface element via the touch-sensitive surface. means for detecting a touch input starting at a location on a corresponding touch-sensitive surface and, in response to detecting the touch input, a threshold time before the touch input meets the movement criteria and after the touch input is detected capturing a first type of media according to a determination that the touch input has been lifted from the touch-sensitive surface before elapses of a threshold time before the touch input meets the movement criteria and after the touch input is detected; capturing a second type of media having a duration based on the duration of the touch input on the touch sensitive surface after the touch input is lifted from the touch sensitive surface; and begins capturing a second type of media in accordance with a determination that it includes movement in the first direction; and means for continuing capture.

これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。 Executable instructions for performing these functions are optionally contained within a non-transitory computer-readable storage medium or other computer program product configured to be executed by one or more processors. Executable instructions for performing these functions are optionally contained within a temporary computer-readable storage medium or other computer program product configured to be executed by one or more processors.

このように、デバイスには、より速く、より効率的な、ジェスチャによるメディアキャプチャを実行するための方法及びインタフェースが設けられ、それによって、このようなデバイスについての有効性、効率及びユーザ満足度が増大する。このような方法及びインタフェースは、ジェスチャによるメディアキャプチャを実行するための他の方法を任意選択的に補完するか、又は取り替えることができる。 Devices are thus provided with faster, more efficient methods and interfaces for performing gestural media capture, thereby increasing the effectiveness, efficiency and user satisfaction of such devices. increase. Such methods and interfaces may optionally supplement or replace other methods for performing gestural media capture.

説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。 For a better understanding of the various described embodiments, reference should be made to the following detailed description in conjunction with the following drawings, where like reference numerals refer to the following figures. Refers to corresponding parts throughout.

一部の実施形態による、タッチ感知ディスプレイを有するポータブル多機能デバイスを示すブロック図である。FIG. 4 is a block diagram illustrating a portable multifunction device having a touch sensitive display according to some embodiments; 一部の実施形態による、イベント処理のための例示的な構成要素を示すブロック図である。FIG. 4 is a block diagram illustrating exemplary components for event processing, according to some embodiments; 一部の実施形態による、タッチスクリーンを有するポータブル多機能デバイスを示す。1 illustrates a portable multifunction device with a touch screen according to some embodiments; 一部の実施形態による、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。1 is a block diagram of an exemplary multifunction device having a display and touch sensitive surface, according to some embodiments; FIG. 一部の実施形態による、ポータブル多機能デバイス上のアプリケーションのメニューの例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface of a menu of applications on a portable multifunction device, according to some embodiments; 一部の実施形態による、ディスプレイとは別個のタッチ感知面を有する多機能デバイスの例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for a multifunction device having a touch-sensitive surface separate from the display, according to some embodiments; 一部の実施形態によるパーソナル電子デバイスを示す。1 illustrates a personal electronic device according to some embodiments; 一部の実施形態によるパーソナル電子デバイスを示すブロック図である。1 is a block diagram illustrating a personal electronic device according to some embodiments; FIG. 一部の実施形態による、タッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。4 illustrates exemplary components of a personal electronic device having a touch sensitive display and an intensity sensor, according to some embodiments; 一部の実施形態による、タッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。4 illustrates exemplary components of a personal electronic device having a touch sensitive display and an intensity sensor, according to some embodiments; 一部の実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device, according to some embodiments; 一部の実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device, according to some embodiments; 一部の実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device, according to some embodiments; 一部の実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device, according to some embodiments; 一実施形態による、メディアキャプチャロックアフォーダンスの動作を示す。4 illustrates the operation of media capture lock affordances, according to one embodiment. 一実施形態による、メディアキャプチャロックアフォーダンスの動作を示す。4 illustrates the operation of media capture lock affordances, according to one embodiment. 一実施形態による、メディアキャプチャロックアフォーダンスの動作を示す。4 illustrates the operation of media capture lock affordances, according to one embodiment. 一実施形態による、メディアキャプチャロックアフォーダンスの動作を示す。4 illustrates the operation of media capture lock affordances, according to one embodiment. 一実施形態による、メディアキャプチャロックアフォーダンスの動作を示す。4 illustrates the operation of media capture lock affordances, according to one embodiment. 一実施形態による、メディアキャプチャロックアフォーダンスの動作を示す。4 illustrates the operation of media capture lock affordances, according to one embodiment. 一実施形態による、メディアキャプチャロックアフォーダンスの動作を示す。4 illustrates the operation of media capture lock affordances, according to one embodiment. 一実施形態による、メディアキャプチャロックアフォーダンスの動作を示す。4 illustrates the operation of media capture lock affordances, according to one embodiment. 一実施形態による、図6A~図6Hに示したメディアキャプチャロックアフォーダンスのアニメーションプロセスのフロー図である。FIG. 6H is a flow diagram of an animation process for the media capture lock affordance shown in FIGS. 6A-6H, according to one embodiment. 一実施形態による、図1~図2を参照して説明したメディアキャプチャロックアフォーダンスを実装するメディアキャプチャデバイスの例示的なデバイスのアーキテクチャを示す。3 illustrates an exemplary device architecture of a media capture device implementing the media capture lock affordance described with reference to FIGS. 1-2, according to one embodiment; FIG. 図9Aは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。FIG. 9A illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. 図9Bは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。図9Cは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。FIG. 9B illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. FIG. 9C illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. 図9Dは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。図9Eは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。図9Fは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。FIG. 9D illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. FIG. 9E illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. FIG. 9F illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. 図9Gは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。図9Hは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。FIG. 9G shows an exemplary user interface for performing media capture with gestures, according to some embodiments. FIG. 9H illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. 図9Iは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。図9Jは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。FIG. 9I illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. FIG. 9J illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. 図9Kは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。FIG. 9K illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. 図9Lは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。FIG. 9L illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. 図9Mは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。図9Nは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。FIG. 9M shows an exemplary user interface for performing media capture with gestures, according to some embodiments. FIG. 9N illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. 図9Oは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。図9Pは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。FIG. 9O illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments. FIG. 9P shows an exemplary user interface for performing media capture with gestures, according to some embodiments. 一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments; 一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments; 一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments; 一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments; 一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments; 一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for performing media capture with gestures, according to some embodiments; 一部の実施形態による、ジェスチャによるメディアキャプチャを実行するためのフロー図である。FIG. 4 is a flow diagram for performing media capture with gestures, according to some embodiments; 一部の実施形態による、ジェスチャによるメディアキャプチャを実行するためのフロー図である。FIG. 4 is a flow diagram for performing media capture with gestures, according to some embodiments;

以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、代わりに例示的な実施形態の説明として提供されることを認識されたい。 The following description sets forth exemplary methods, parameters, and the like. It should be recognized, however, that such description is not intended as a limitation on the scope of the present disclosure, but is instead provided as a description of exemplary embodiments.

ジェスチャによるメディアキャプチャを実行する効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。このような技法は、メディアをキャプチャするためにデバイスを使用するユーザの認識的負担を軽減し、それにより、生産性を向上させることができる。更に、このような技法は、普通なら冗長なユーザ入力に浪費されるプロセッサ及び電池の電力を低減させることができる。 What is needed is an electronic device that provides an efficient method and interface for performing gestural media capture. Such techniques can reduce the cognitive burden of users using devices to capture media, thereby increasing productivity. In addition, such techniques can reduce processor and battery power otherwise wasted on redundant user input.

以下に、図1A~図1B、図2、図3、図4A~図4B、及び図5A~図5Hは、イベント通知を管理する技法を実行するための例示的なデバイスの説明を提供する。図6A~図6Hは、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。図7は、一部の実施形態による、ジェスチャによるメディアキャプチャを実行する方法を示すフロー図である。図6A~図6Hのユーザインタフェースは、図7の処理を含む、以下で説明する処理を示すために使用される。図9A~図10Fは、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。図11A~図11Bは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行する方法を示すフロー図である。図9A~図10Fのユーザインタフェースは、図11A~図11Bのプロセスを含む後述するプロセスを示すために使用される。 1A-1B, 2, 3, 4A-4B, and 5A-5H below provide descriptions of exemplary devices for implementing techniques for managing event notifications. 6A-6H illustrate exemplary user interfaces for performing gestural media capture. FIG. 7 is a flow diagram illustrating a method of performing media capture with gestures, according to some embodiments. The user interfaces of FIGS. 6A-6H are used to illustrate the processes described below, including the process of FIG. 9A-10F illustrate exemplary user interfaces for performing gestural media capture. 11A-11B are flow diagrams illustrating methods of performing media capture with gestures, according to some embodiments. The user interfaces of FIGS. 9A-10F are used to illustrate the processes described below, including the processes of FIGS. 11A-11B.

以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。 Although the following description uses terms such as "first," "second," etc. to describe various elements, these elements should not be limited by those terms. These terms are only used to distinguish one element from another. For example, a first touch could be referred to as a second touch, and similarly a second touch could be referred to as a first touch, without departing from the scope of various described embodiments. Both the first touch and the second touch are touches, but they are not the same touch.

本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。 The terminology used in the description of the various embodiments provided herein is for the purpose of describing particular embodiments only and is not intended to be limiting. In the description of the various embodiments described and in the appended claims, the singular forms "a," "an," and "the" are intended to include the plural as well, unless the context clearly dictates otherwise. Also, as used herein, the term "and/or" is understood to refer to and include any and all possible combinations of one or more of the associated listed items. want to be The terms "includes," "including," "comprises," and/or "comprising," as used herein, refer to the features mentioned, specifying the presence of an integer, step, operation, element, and/or component, but specifying the presence or addition of one or more other features, integers, steps, operations, elements, components, and/or groups thereof It will be further understood that no exclusions are made.

「~の場合(if)」という用語は、任意選択的に、文脈に応答して、「~とき(when)」若しくは「~とき(upon)」、又は「~と判定したことに応答して(in response to determining)」若しくは「~を検出したことに応答して(in response to detecting)」を意味すると解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の条件又はイベント]が検出された場合(if [a stated condition or event] is detected)」という語句は、任意選択的に、文脈に応答して、「~と判定したとき(upon determining)」若しくは「~と判定したことに応答して(in response to determining)」、又は「[記載の条件又はイベント]を検出したとき(upon detecting [the stated condition or event])」若しくは「[記載の条件又はイベント]を検出したことに応答して(in response to detecting [the stated condition or event])」を意味すると解釈される。 The term “if” is optionally used in response to context, “when” or “upon”, or “in response to determining that "in response to determining" or "in response to detecting". Similarly, the phrases "if it is determined" or "if [a stated condition or event] is detected" are optional. literally, in response to context, "upon determining" or "in response to determining", or "detect [statement or event] construed to mean “upon detecting [the stated condition or event]” or “in response to detecting [the stated condition or event]”. be.

電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。一部の実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面を有するラップトップ又はタブレットコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)などの他のポータブル電子デバイスも使用される。また、一部の実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面を有するデスクトップコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)であることも理解されたい。 Embodiments of electronic devices, user interfaces for such devices, and associated processes of using such devices are described. In some embodiments, the device is a portable communication device such as a mobile phone that also includes PDA functionality and/or other functionality such as music player functionality. Exemplary embodiments of portable multifunction devices include those manufactured by Apple Inc. of Cupertino, Calif. including, but not limited to, iPhone®, iPod Touch®, and iPad® devices from Apple Inc. Optionally, other portable electronic devices such as laptop or tablet computers with touch-sensitive surfaces (eg, touchscreen displays and/or touchpads) are also used. It should also be appreciated that in some embodiments the device is not a portable communication device, but a desktop computer with a touch-sensitive surface (eg, a touchscreen display and/or touchpad).

以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。 The following discussion describes electronic devices that include displays and touch-sensitive surfaces. However, it should be understood that the electronic device optionally includes one or more other physical user interface devices such as physical keyboards, mice and/or joysticks.

デバイスは、典型的には、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。 Devices are typically used in drawing applications, presentation applications, word processing applications, website creation applications, disc authoring applications, spreadsheet applications, gaming applications, telephony applications, video conferencing applications, e-mail applications, instant messaging applications, training It supports various applications such as one or more of a support application, a photo management application, a digital camera application, a digital video camera application, a web browsing application, a digital music player application, and/or a digital video player application.

本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透過的なユーザインタフェースを備える様々なアプリケーションをサポートする。 Various applications running on the device optionally use at least one common physical user interface device, such as a touch-sensitive surface. One or more functions of the touch-sensitive surface and corresponding information displayed on the device are optionally adjusted and/or changed from application to application and/or within each application. In this way, the common physical architecture of the device (such as the touch-sensitive surface) optionally supports various applications with a user interface that is intuitive and transparent to the user.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、一部の実施形態による、タッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光学センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号線103を介して通信する。 Attention is now directed to embodiments of portable devices with touch-sensitive displays. FIG. 1A is a block diagram illustrating portable multifunction device 100 having touch-sensitive display system 112, according to some embodiments. The touch-sensitive display 112 is sometimes referred to as a "touch screen" for convenience and is known or sometimes referred to as a "touch-sensitive display system." Device 100 includes memory 102 (optionally including one or more computer-readable storage media), memory controller 122, one or more processing units (CPUs) 120, peripherals interface 118, RF circuitry 108, audio circuitry. 110 , speaker 111 , microphone 113 , input/output (I/O) subsystem 106 , other input control devices 116 , and external ports 124 . Device 100 optionally includes one or more optical sensors 164 . Device 100 optionally includes one or more contact strength sensors 165 that detect the strength of contact on device 100 (eg, a touch-sensitive surface such as touch-sensitive display system 112 of device 100). Device 100 optionally generates tactile output on device 100 (eg, on a touch-sensitive surface such as touch-sensitive display system 112 of device 100 or touchpad 355 of device 300). It includes one or more tactile output generators 167 . These components optionally communicate via one or more communication buses or signal lines 103 .

本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代替物(代用物)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、判定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。一部の実装形態では、複数の力センサからの力測定値は、接触の推定される力を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。代替的に、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変化、接触に近接するタッチ感知面の静電容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化は、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。一部の実装形態では、接触の力又は圧力のための代替測定値は、強度閾値を超えているかどうかを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。一部の実装形態では、接触の力又は圧力に対する代替測定値は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超えているかどうかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを(例えば、タッチ感知ディスプレイ上に)表示するための、及び/又は、ユーザ入力を(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的制御部を介して)受信するための面積が制限されている、低減されたサイズのデバイス上で、通常であればユーザによってアクセスすることが不可能であり得る追加のデバイス機能への、ユーザのアクセスが可能となる。 As used herein and in the claims, the term "strength" of contact on the touch-sensitive surface refers to the force or pressure (force per unit area) of contact (e.g., finger contact) on the touch-sensitive surface. ), or a substitute for the force or pressure of contact on a touch-sensitive surface. The intensity of contact has a range of values including at least four distinct values, and more typically including several hundred (eg, at least 256) distinct values. The strength of contact is optionally determined (or measured) using various techniques and various sensors or combinations of sensors. For example, one or more force sensors under or adjacent to the touch-sensitive surface are optionally used to measure force at various points on the touch-sensitive surface. In some implementations, force measurements from multiple force sensors are combined (eg, weighted average) to determine the estimated force of the contact. Similarly, the stylus' pressure-sensitive tip is optionally used to determine the pressure of the stylus on the touch-sensitive surface. Alternatively, the size and/or change in the contact area detected on the touch sensitive surface, the capacitance and/or change in the touch sensitive surface proximate to the contact, and/or the touch sensitive surface proximate to the contact. The resistance of and/or changes thereof is optionally used as a proxy for contact force or pressure on the touch-sensitive surface. In some implementations, the alternate measure for contact force or pressure is used directly to determine whether an intensity threshold has been exceeded (e.g., the intensity threshold is in units corresponding to the alternate measure). ). In some implementations, the alternate measurement for contact force or pressure is converted to an estimated force or pressure, and the estimated force or pressure is used to determine whether the intensity threshold is exceeded. (eg, the intensity threshold is the pressure threshold measured in units of pressure). to display affordances (e.g., on a touch-sensitive display) and/or measure user input (e.g., on a touch-sensitive display, touch-sensitive surface, or Not normally accessible by the user on reduced size devices with limited area for receiving (via physical/mechanical controls such as knobs or buttons) It allows the user access to additional device functions that are available.

本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの以前の位置に対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、ハウジング)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変化に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。いくつかの場合、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。 As used herein and in the claims, the term "tactile output" refers to the physical displacement of the device relative to its previous position, which is to be detected by the user in the user's tactile sense. Refers to the physical displacement of a component (eg, touch-sensitive surface) relative to another component of the device (eg, housing) or the displacement of a component relative to the device's center of mass. For example, in situations where a device or device component is in contact with a touch-sensitive surface of a user (e.g., fingers, palm, or other part of the user's hand), tactile sensations generated by physical displacement The output will be interpreted by the user as a tactile sensation corresponding to a perceived change in the physical properties of the device or device components. For example, movement of a touch-sensitive surface (eg, touch-sensitive display or trackpad) is optionally interpreted by the user as a "down-click" or "up-click" of a physical actuator button. In some cases, a user can "down-click" or "up-click" even when there is no movement of the physical actuator button associated with the touch-sensitive surface that is physically pressed (e.g., displaced) by the user's motion. ” and other tactile sensations. As another example, movement of the touch-sensitive surface is optionally interpreted or perceived by the user as "roughness" of the touch-sensitive surface, even if there is no change in the smoothness of the touch-sensitive surface. be. Such a user's interpretation of touch depends on the user's personal sensory perception, but there are many sensory perceptions of touch that are common to the majority of users. Thus, when a tactile output is described as corresponding to a particular sensory perception of a user (e.g., "upclick", "downclick", "roughness"), the generated tactile A sensory output corresponds to the physical displacement of a device, or a component of a device, that produces the described sensory perception of a typical (or average) user.

デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実装される。 Device 100 is only one example of a portable multifunction device; device 100 optionally has more or fewer components than those shown; It should be understood that there are combinations of more than one component, or optionally different configurations or arrangements of those components. The various components shown in FIG. 1A are implemented in hardware, software, or a combination of both hardware and software, including one or more signal processing circuits and/or application specific integrated circuits.

メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。 Memory 102 optionally includes high speed random access memory and optionally non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. include. Memory controller 122 optionally controls access to memory 102 by other components of device 100 .

周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させるか、又は実行して、デバイス100のための様々な機能を実行し、データを処理する。一部の実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上で実装される。一部の他の実施形態では、それらは別々のチップ上に任意選択的に実装される。 Peripheral interface 118 may be used to couple input and output peripherals of the device to CPU 120 and memory 102 . One or more processors 120 operate or execute various software programs and/or instruction sets stored in memory 102 to perform various functions and process data for device 100 . In some embodiments, peripheral interface 118 , CPU 120 and memory controller 122 are optionally implemented on a single chip, such as chip 104 . In some other embodiments, they are optionally implemented on separate chips.

RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線機などによって近距離通信(near field communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、動き通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution,Data-Only、EV-DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetoothローエネルギー(Bluetooth Low Energy、BTLE(登録商標))、ワイヤレスフィデリティ(Wireless Fidelity、Wi-Fi(登録商標))(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/若しくはIEEE 802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX(登録商標)、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンションのためのセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適した通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 RF (radio frequency) circuitry 108 transmits and receives RF signals, also called electromagnetic signals. RF circuitry 108 converts electrical signals to electromagnetic signals or vice versa to communicate with communication networks and other communication devices via electromagnetic signals. RF circuitry 108 optionally includes well-known circuits for performing these functions, including, but not limited to, an antenna system, an RF transceiver, one or more amplifiers, Tuner, one or more oscillators, digital signal processor, CODEC chipset, subscriber identity module (SIM) card, memory, and the like. The RF circuit 108 is optionally connected to the Internet, also known as the World Wide Web (WWW), an intranet, and/or a cellular telephone network, a wireless local area network (LAN), and/or a metropolitan area network. (metropolitan area network, MAN) and other devices via wireless communication. RF circuitry 108 optionally includes well-known circuitry for detecting a near field communication (NFC) field, such as by a short-range communication radio. Wireless communication optionally includes, but is not limited to, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high speed downlink high-speed downlink packet access (HSDPA), high-speed uplink packet access (HSUPA), evolution, data-only, EV-DO, HSPA, HSPA+, dual cell HSPA (Dual-Cell HSPA, DC-HSPDA), long term evolution (LTE), near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiplex code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth®, Bluetooth Low Energy, BTLE®, Wireless Fidelity, Wi-Fi (eg, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, IEEE 802.11n, and/or IEEE 802.11ac), voice over Internet Protocol, VoIP), Wi-MAX®, protocols for email (e.g. Internet message access protocol (IMAP) and/or post office protocol (POP)), instant messaging (e.g. extensible messaging and presence protocol XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS)), and multiple communication standards, protocols, including Short Message Service (SMS), or any other suitable communication protocol, including communication protocols not yet developed as of the filing date of this specification; and techniques.

オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に送信する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に送信される。一部の実施形態では、オーディオ回路110はヘッドセットジャック(例えば、図2の212)も備える。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を備えるヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。 Audio circuitry 110 , speaker 111 , and microphone 113 provide an audio interface between the user and device 100 . Audio circuitry 110 receives audio data from peripherals interface 118 , converts the audio data to electrical signals, and transmits the electrical signals to speaker 111 . The speaker 111 converts the electrical signal into human audible sound waves. Audio circuitry 110 also receives electrical signals converted from sound waves by microphone 113 . Audio circuitry 110 converts the electrical signals to audio data and transmits the audio data to peripherals interface 118 for processing. Audio data is optionally retrieved from and/or transmitted to memory 102 and/or RF circuitry 108 by peripherals interface 118 . In some embodiments, audio circuitry 110 also includes a headset jack (eg, 212 in FIG. 2). A headset jack is provided between the audio circuitry 110 and a detachable audio input/output peripheral, such as an output-only headphone or a headset with both an output (e.g., monaural or binaural headphones) and an input (e.g., a microphone). provides an interface for

I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光学センサコントローラ158、深度カメラコントローラ169、強度センサコントローラ159、触覚フィードバックコントローラ161、及び、他の入力デバイス若しくは制御デバイス用の1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。一部の代替的な実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又はいずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量コントロールのための上下ボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。 I/O subsystem 106 couples input/output peripherals on device 100 , such as touch screen 112 and other input control devices 116 , to peripherals interface 118 . I/O subsystem 106 optionally includes one for display controller 156, optical sensor controller 158, depth camera controller 169, intensity sensor controller 159, tactile feedback controller 161, and other input or control devices. The above input controller 160 is included. One or more input controllers 160 receive/send electrical signals to/from other input control devices 116 . Other input control devices 116 optionally include physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, and the like. In some alternative embodiments, the input controller(s) 160 are optionally coupled to (or not bound to either). One or more buttons (eg, 208 in FIG. 2) optionally include up and down buttons for volume control of speaker 111 and/or microphone 113 . The one or more buttons optionally include push buttons (eg, 206 in FIG. 2).

全体として参照により本明細書に組み込まれている、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押圧は、任意選択的に、タッチスクリーン112のロックを係合解除し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをアンロックするプロセスを開始する。プッシュボタン(例えば、206)のより長い押圧は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能性は、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112は、仮想ボタン又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。 U.S. Patent Application No. 11/322,549, "Unlocking a Device by Performing Gestures on an Unlock Image," filed Dec. 23, 2005, which is incorporated herein by reference in its entirety, U.S. Patent No. 7, 657,849, a quick press of the push button optionally disengages the lock on the touch screen 112, or optionally using gestures on the touch screen. Start the process of unlocking the device. A longer press of a push button (eg, 206) optionally turns power to device 100 on or off. The functionality of one or more of the buttons is optionally customizable by the user. Touch screen 112 is used to implement virtual buttons or soft buttons and one or more soft keyboards.

タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信、及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚出力を表示する。この視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。一部の実施形態では、視覚出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。 Touch-sensitive display 112 provides an input and output interface between the device and the user. Display controller 156 receives electrical signals from touchscreen 112 and/or transmits electrical signals to touchscreen 112 . Touch screen 112 displays visual output to the user. This visual output optionally includes graphics, text, icons, video, and any combination thereof (collectively "graphics"). In some embodiments, some or all of the visual output optionally corresponds to user interface objects.

タッチスクリーン112は、触覚及び/若しくは触知接触に基づくユーザからの入力を受け入れるタッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)、タッチスクリーン112への接触(及びあらゆる接触の移動又は中断)を検出し、検出された接触をタッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)との対話に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。 Touch screen 112 has a touch-sensitive surface, sensor, or set of sensors that accepts input from a user based on tactile and/or tactile contact. Touchscreen 112 and display controller 156 (together with any associated modules and/or instruction sets in memory 102) detect contact (and any movement or interruption of contact) to touchscreen 112 and touch detected contact. Converts interaction with user interface objects (eg, one or more softkeys, icons, web pages, or images) displayed on screen 112 . In an exemplary embodiment, the contact point between touch screen 112 and the user corresponds to the user's finger.

タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術も使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、それだけに限定されるものではないが、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素を含む、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる移動又は中断を検出する。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるものなどの、投影型相互静電容量感知技術が使用される。 The touch screen 112 optionally uses LCD (Liquid Crystal Display) technology, LPD (Light Emitting Polymer Display) technology, or LED (Light Emitting Diode) technology, although other display technologies are also used in other embodiments. be. Touchscreen 112 and display controller 156 optionally use, but are not limited to, capacitive, resistive, infrared, and surface acoustic wave technologies, and one or more points of contact with touchscreen 112 . Any of a number of now known or later developed touch sensing technologies, including other proximity sensor arrays or other elements that determine, are used to detect contact and any movement or interruption thereof. In an exemplary embodiment, Apple Inc. of Cupertino, Calif. Projected mutual-capacitance sensing technology is used, such as that found in the iPhone® and iPod Touch® from Apple.

タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、任意選択的に、それぞれが全体として参照により本明細書に組み込まれている、米国特許第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/若しくは第6,677,932号(Westerman)、並びに/又は米国特許公開第2002/0015024A1号に記載されているマルチタッチ感知タッチパッドに類似している。しかし、タッチスクリーン112はデバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは視覚出力を提供しない。 The touch-sensitive display in some embodiments of touch screen 112 is optionally disclosed in U.S. Pat. 6,570,557 (Westerman et al.) and/or 6,677,932 (Westerman); there is However, the touchscreen 112 displays visual output from the device 100, whereas the touch-sensitive touchpad does not provide visual output.

タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi-Functional Hand-Held Device」という出願に記載されている。これらの出願は全て、全体として参照により本明細書に組み込まれている。 The touch sensitive display in some embodiments of the touch screen 112 is described in (1) U.S. patent application Ser. U.S. Patent Application Serial No. 10/840,862, "Multipoint Touchscreen," filed May 6, 2004; (4) U.S. Patent Application Serial No. 11/048,264, filed January 31, 2005; "Gestures For Touch Sensitive Input Devices"; 038,590, "Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices," (6) U.S. patent application Ser. User Interface", (7) U.S. patent application Ser. No. 11/228,700, filed Sep. 16, 2005; No. 11/228,737, "Activating Virtual Keys Of A Touch-Screen Virtual Keyboard," and (9) U.S. patent application Ser. Hand-Held Device" application. All of these applications are incorporated herein by reference in their entireties.

タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。一部の実施形態では、タッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の適した物体又は付属物を使用して、タッチスクリーン112に接触する。一部の実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャを主に扱うように設計されるが、これは、タッチスクリーン上の指の接触面積がより大きいため、スタイラスベースの入力ほど精密でない可能性がある。一部の実施形態では、デバイスは、粗い指ベースの入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。 Touch screen 112 optionally has a video resolution greater than 100 dpi. In some embodiments, the touch screen has a video resolution of approximately 160 dpi. A user optionally contacts touch screen 112 using any suitable object or attachment, such as a stylus, finger, or the like. In some embodiments, user interfaces are designed to primarily deal with finger-based contacts and gestures, which is not as precise as stylus-based input due to the larger finger contact area on touchscreens. may not be. In some embodiments, the device converts coarse finger-based input into precise pointer/cursor positions or commands to perform actions desired by the user.

一部の実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを含む。一部の実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112又はタッチスクリーンによって形成されるタッチ感知面の拡張部とは別個のタッチ感知面である。 In some embodiments, in addition to the touchscreen, device 100 optionally includes a touchpad for activating or deactivating certain functions. In some embodiments, a touchpad is a touch-sensitive area of a device that displays no visual output, unlike a touchscreen. The touchpad is optionally a touch-sensitive surface separate from the touchscreen 112 or an extension of the touch-sensitive surface formed by the touchscreen.

デバイス100は、様々な構成要素に電力を供給する電力システム162も含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。 Device 100 also includes a power system 162 that provides power to the various components. Power system 162 optionally includes a power management system, one or more power sources (eg, batteries, alternating current (AC)), a recharging system, power failure detection circuitry, a power converter or inverter, power status indicators (eg, lighting diodes (LEDs)) and any other component associated with the generation, management, and distribution of power within a portable device.

また、デバイス100は、任意選択的に、1つ以上の光学センサ164を含む。図1Aは、I/Oサブシステム106内の光学センサコントローラ158に結合された光学センサを示す。光学センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光学センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光学センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連動して、任意選択的に、静止画像又はビデオをキャプチャする。一部の実施形態では、光学センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対のデバイス100の裏面に位置するので、タッチスクリーンディスプレイは、静止画像及び/又はビデオ画像の取得のためのビューファインダとしての使用が可能になる。一部の実施形態では、光学センサは、デバイスの前面に位置するので、ユーザは他のテレビ会議参加者をタッチスクリーンディスプレイ上で閲覧しながら、ユーザの画像は任意選択的に、テレビ会議のために取得される。一部の実施形態では、光学センサ164の位置は、ユーザによって(例えば、デバイスハウジング内のレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光学センサ164が、タッチスクリーンディスプレイと共に、テレビ会議用にも静止画像及び/又はビデオ画像の取得のためにも使用される。 Device 100 also optionally includes one or more optical sensors 164 . FIG. 1A shows an optical sensor coupled to optical sensor controller 158 within I/O subsystem 106 . Optical sensor 164 optionally includes a charge-coupled device (CCD) or complementary metal-oxide semiconductor (CMOS) phototransistor. Optical sensor 164 receives light from the environment projected through one or more lenses and converts the light into data representing an image. Optical sensor 164 works in conjunction with imaging module 143 (also called a camera module) to optionally capture still images or video. In some embodiments, the optical sensors are located on the back side of the device 100 as opposed to the touch screen display 112 on the front side of the device, so that the touch screen display can be used for still and/or video image capture. Can be used as a viewfinder. In some embodiments, the optical sensor is located on the front of the device so that the user's image is optionally captured for videoconferencing while the user views other videoconference participants on the touchscreen display. to be obtained. In some embodiments, the position of the optical sensor 164 can be changed by the user (e.g., by rotating the lens and sensor within the device housing), so that a single optical sensor 164 can be used with a touch screen display. Together, they are used both for teleconferencing and for capturing still and/or video images.

デバイス100はまた、任意選択的に、1つ以上の深度カメラセンサ175を含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内のオブジェクト(例えば、顔面)の3次元モデルを作成する。一部の実施形態では、撮像モジュール143(カメラモジュールとも呼ばれるもの)と連携して、深度カメラセンサ175は、任意選択的に、撮像モジュール143によってキャプチャされた画像の種々の部分の深度マップを決定するために使用される。一部の実施形態では、デバイス100の前面に深度カメラセンサが位置しているので、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で閲覧しながら、深度マップデータを有する自撮り画像をキャプチャするために、深度情報を有するユーザの画像が、任意選択的に、テレビ会議のために取得される。一部の実施形態では、深度カメラセンサ175は、デバイスの背面に、あるいはデバイス100の背面及び前面に位置している。一部の実施形態では、深度カメラセンサ175の位置は、ユーザによって(例えば、デバイスハウジング内のレンズ及びセンサを回転させることによって)変更することができ、したがって深度カメラセンサ175が、タッチスクリーンディスプレイと共に、テレビ会議用にも静止画像及び/又はビデオ画像の取得のためにも使用される。 Device 100 also optionally includes one or more depth camera sensors 175 . FIG. 1A shows a depth camera sensor coupled to depth camera controller 169 within I/O subsystem 106 . Depth camera sensor 175 receives data from the environment and creates a three-dimensional model of an object (eg, face) in the scene from a viewpoint (eg, depth camera sensor). In some embodiments, in conjunction with imaging module 143 (also referred to as a camera module), depth camera sensor 175 optionally determines depth maps of various portions of the image captured by imaging module 143. used to In some embodiments, a depth camera sensor is located on the front of the device 100 so that users can view other videoconference participants on a touchscreen display while capturing selfies with depth map data. To do so, images of the user with depth information are optionally acquired for videoconferencing. In some embodiments, depth camera sensor 175 is located on the back of the device, or on the back and front of device 100 . In some embodiments, the position of the depth camera sensor 175 can be changed by the user (e.g., by rotating the lens and sensor within the device housing) so that the depth camera sensor 175 can be positioned in conjunction with the touch screen display. , is used both for teleconferencing and for capturing still and/or video images.

デバイス100は、任意選択で、1つ以上の接触強度センサ165も含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、静電容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に含む。接触強度センサ165は、環境から接触強度情報(例えば、圧力情報、又は圧力情報の代用物)を受信する。一部の実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接される。一部の実施形態では、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に位置している。 Device 100 optionally also includes one or more contact intensity sensors 165 . FIG. 1A shows a contact intensity sensor coupled to intensity sensor controller 159 within I/O subsystem 106 . Contact intensity sensor 165 may be one or more piezoresistive strain gauges, capacitive force sensors, electrical force sensors, piezoelectric force sensors, optical force sensors, capacitive touch sensitive surfaces, or other intensity sensors (e.g., touch sensitive A sensor used to measure the force (or pressure) of contact on the surface is optionally included. Contact intensity sensor 165 receives contact intensity information (eg, pressure information or a proxy for pressure information) from the environment. In some embodiments, at least one contact intensity sensor is juxtaposed or proximate to a touch-sensitive surface (eg, touch-sensitive display system 112). In some embodiments, at least one contact intensity sensor is located on the back of device 100 , opposite touch screen display 112 located on the front of device 100 .

また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。代わりに、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、全体として参照により本明細書に組み込まれている、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、第11/240,788号、「Proximity Detector In Handheld Device」第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されるように機能するものであり、これらの出願は、全体が参照により本明細書に組み込まれる。一部の実施形態では、多機能デバイスが、ユーザの耳の近くに配置される場合(例えば、ユーザが電話通話を行っている場合)、近接センサは、タッチスクリーン112をオフにして無効化する。 Device 100 also optionally includes one or more proximity sensors 166 . FIG. 1A shows proximity sensor 166 coupled to peripherals interface 118 . Alternatively, proximity sensor 166 is optionally coupled to input controller 160 within I/O subsystem 106 . Proximity sensor 166 is optionally disclosed in U.S. patent application Ser. 「Proximity Detector In Handheld Device」第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及びSerial No. 11/638,251, "Methods And Systems For Automatic Configuration Of Peripherals," which applications are hereby incorporated by reference in their entireties. In some embodiments, the proximity sensor turns off and disables the touchscreen 112 when the multifunction device is placed near the user's ear (e.g., when the user is making a phone call). .

デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。一部の実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と一緒に並べて配置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。一部の実施形態では、少なくとも1つの触知出力生成器センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に位置している。 Device 100 also optionally includes one or more tactile output generators 167 . FIG. 1A shows a tactile output generator coupled to haptic feedback controller 161 within I/O subsystem 106 . Tactile output generator 167 optionally includes one or more electroacoustic devices such as speakers or other audio components, and/or motors, solenoids, electroactive polymers, piezoelectric actuators, electrostatic actuators, or other electromechanical devices that convert energy into linear motion, such as tactile output-producing components of (eg, components that convert electrical signals to tactile outputs on the device). Contact intensity sensor 165 receives tactile feedback generation instructions from haptic feedback module 133 and generates a tactile output on device 100 that can be sensed by a user of device 100 . In some embodiments, at least one tactile output generator is juxtaposed with or in close proximity to a touch-sensitive surface (eg, touch-sensitive display system 112) and optionally Tactile output is generated by moving the touch-sensitive surface vertically (eg, into/out of the surface of device 100) or horizontally (eg, back and forth in the same plane as the surface of device 100). In some embodiments, at least one tactile output generator sensor is located on the back side of device 100 , opposite touch screen display 112 located on the front side of device 100 .

また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。代わりに、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、どちらも全体として参照により本明細書に組み込まれている、米国特許公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び米国特許公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。一部の実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の場所及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。 Device 100 also optionally includes one or more accelerometers 168 . FIG. 1A shows accelerometer 168 coupled to peripherals interface 118 . Alternatively, accelerometer 168 is optionally coupled to input controller 160 within I/O subsystem 106 . Accelerometer 168 is optionally disclosed in U.S. Patent Publication No. 20050190059, "Acceleration-based Theft Detection System for Portable Electronic Devices," and U.S. Patent Publication No. 20050190059, both of which are hereby incorporated by reference in their entireties. 20060017692, "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer". In some embodiments, information is displayed on the touch screen display in portrait or landscape view based on analysis of data received from one or more accelerometers. In addition to the accelerometer(s) 168, the device 100 includes a magnetometer and a GPS (or GLONASS or other global navigation system) for obtaining information about the location and orientation (e.g., longitudinal or lateral) of the device 100. system) optionally includes a receiver.

一部の実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、一部の実施形態では、メモリ102(図1A)又はメモリ370(図3)は、図1A及び図3に示すように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示すアクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占めているかを示す表示状態、デバイスの様々なセンサ及び入力コントロールデバイス116から取得した情報を含むセンサ状態、並びにデバイスの場所及び/又は姿勢に関する位置情報、のうちの1つ以上を含む。 In some embodiments, the software components stored in memory 102 include operating system 126, communication module (or instruction set) 128, touch/motion module (or instruction set) 130, graphics module (or instruction set), ) 132 , a text input module (or instruction set) 134 , a Global Positioning System (GPS) module (or instruction set) 135 , and an application (or instruction set) 136 . Additionally, in some embodiments, memory 102 (FIG. 1A) or memory 370 (FIG. 3) stores device/global internal state 157, as shown in FIGS. 1A and 3. FIG. The device/global internal state 157 is an active application state that indicates which, if any, applications are currently active, and which applications, views, or other information may be displayed in various areas of the touchscreen display 112 . display state indicating occupancy; sensor state, which includes information obtained from the device's various sensors and input control device 116; and positional information regarding the location and/or orientation of the device.

オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込みオペレーティングシステム)は、通常のシステムタスク(例えば、メモリ管理、記憶デバイスの制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。 operating system 126 (e.g., Darwin®, RTXC®, LINUX®, UNIX®, OS X®, iOS®, WINDOWS®, or Embedded operating systems, such as VxWorks®, include various software components and/or drivers that control and manage normal system tasks (e.g., memory management, storage device control, power management, etc.) and include various Facilitates communication between flexible hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えばユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに結合されるように適合されている。一部の実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは類似であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。 Communication module 128 facilitates communication with other devices via one or more external ports 124 and includes various software components for processing data received by RF circuitry 108 and/or external ports 124 . include. External port 124 (e.g., Universal Serial Bus (USB), FIREWIRE®, etc.) may be coupled to other devices, either directly or indirectly via a network (e.g., Internet, wireless LAN, etc.). is adapted to In some embodiments, the external port is a multi-pin (e.g., , 30 pin) connector.

接触/動きモジュール130は、任意選択的に、タッチスクリーン112(ディスプレイコントローラ156と連動して)及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が生じたかどうかを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するかどうかを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が中止したかどうかを判定すること(例えば、指を上げるイベント又は接触の中止を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。一部の実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。 Contact/motion module 130 optionally detects contact with touch screen 112 (in conjunction with display controller 156) and other touch-sensitive devices (eg, touchpads or physical click wheels). The contact/motion module 130 determines whether contact has occurred (e.g., detecting a finger down event), the strength of the contact (e.g., force or pressure of contact, or alternatives to force or pressure of contact). ), determining whether there is movement of the contact and tracking movement across the touch-sensitive surface (e.g., detecting one or more events of dragging a finger); It includes various software components for performing various operations related to contact detection, such as determining whether it has ceased (e.g., detecting a finger-up event or cessation of contact). Contact/motion module 130 receives contact data from the touch-sensitive surface. Determining the movement of the contact point, represented by the series of contact data, optionally includes speed (magnitude), velocity (magnitude and direction), and/or acceleration (magnitude and direction) of the contact point. and/or change of direction). These operations are optionally applied to single contacts (eg, single-finger contacts) or multiple simultaneous contacts (eg, “multi-touch”/multiple-finger contacts). In some embodiments, contact/motion module 130 and display controller 156 detect contact on the touchpad.

一部の実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたかどうかを判定するための(例えば、ユーザがアイコン上で「クリック」したかどうかを判定するための)、1つ以上の強度閾値のセットを使用する。一部の実施形態では、強度閾値の少なくとも1つのサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変化させることなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変化させることなく、広範囲の既定閾値のうちのいずれかに設定することができる。加えて、一部の実装形態では、デバイスのユーザは、強度閾値のセットのうちの1つ以上を調整するソフトウェア設定が提供される(例えば、システムレベルのクリック「強度」パラメータによって、個々の強度閾値を調整すること、及び/又は複数の強度閾値を一度に調整することによる)。 In some embodiments, the contact/motion module 130 includes one Use the above set of intensity thresholds. In some embodiments, at least one subset of the intensity thresholds is determined according to software parameters (e.g., the intensity thresholds are determined by the physical hardware of device 100, rather than being determined by the activation thresholds of a particular physical actuator). can be adjusted without changing the wear). For example, the mouse "click" threshold for a trackpad or touchscreen display can be set to any of a wide range of predefined thresholds without changing the trackpad or touchscreen display hardware. Additionally, in some implementations, the user of the device is provided with software settings that adjust one or more of a set of intensity thresholds (e.g., a system-level click "strength" parameter allows individual intensity by adjusting thresholds and/or adjusting multiple intensity thresholds at once).

接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指を下ろすイベントを検出し、それに続いて指を下ろすイベントと同じ位置(又は実質的に同じ位置)(例えば、アイコンの位置)で指を上げる(リフトオフ)イベントを検出することを含む。別の例として、タッチ感知面上で指スワイプジェスチャを検出することは、指を下ろすイベントを検出し、それに続いて1つ以上の指をドラッグするイベントを検出し、その後それに続いて指を上げる(リフトオフ)イベントを検出することを含む。 Contact/motion module 130 optionally detects gesture input by the user. Different gestures on the touch-sensitive surface have different contact patterns (eg, different movements, timing, and/or strength of the detected contacts). Thus, gestures are optionally detected by detecting specific contact patterns. For example, detecting a finger tap gesture involves detecting a finger down event followed by a finger lift (liftoff) at the same (or substantially the same) position as the finger down event (e.g., icon position) ) including detecting events. As another example, detecting a finger swipe gesture on a touch-sensitive surface involves detecting a finger down event, followed by one or more finger drag events, followed by a finger up event. (lift-off) event detection.

グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、さまざまな既知のソフトウェア構成要素を含む。本明細書で使用されるとき、用語「グラフィック」は、それだけに限定されるものではないが、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含む、ユーザに表示することができる任意のオブジェクトを含む。 The graphics module 132 can be used on the touch screen 112 or other display, including components for changing the visual effects (e.g., brightness, transparency, saturation, contrast, or other visual characteristics) of displayed graphics. contains various known software components for rendering and displaying graphics in As used herein, the term "graphics" includes, but is not limited to, text, web pages, icons (such as user interface objects including softkeys), digital images, videos, animations, etc. , including any object that can be displayed to the user.

一部の実施形態では、グラフィックモジュール132は、使用されるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データと共に、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力するためのスクリーン画像データを生成する。 In some embodiments, graphics module 132 stores data representing the graphics used. Each graphic is optionally assigned a corresponding code. The graphics module 132 receives, from an application or the like, one or more codes specifying the graphics to be displayed, along with coordinate data and other graphics characteristic data as appropriate, and then outputs to the display controller 156. Generate screen image data for

触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応答して、デバイス100上の1つ以上の場所で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。 Haptic feedback module 133 is used by tactile output generator(s) 167 to generate tactile outputs at one or more locations on device 100 in response to user interaction with device 100 . It contains various software components for generating instructions that

テキスト入力モジュール134は、任意選択で、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。 Text input module 134 is optionally a component of graphics module 132 and is used for various applications (e.g., contacts 137, email 140, IM 141, browser 147, and any other application requiring text input). ) to provide a soft keyboard for entering text.

GPSモジュール135は、デバイスの場所を判定し、この情報を様々なアプリケーションで使用するために(例えば、位置に基づくダイヤル発呼で使用するために電話138へ、画像/ビデオのメタデータとしてカメラ143へ、並びに、気象ウィジェット、地域のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどの、場所に基づくサービスを提供するアプリケーションへ)提供する。 The GPS module 135 determines the location of the device and uses this information in various applications (e.g., to the phone 138 for use in location-based dialing, to the camera 143 as image/video metadata). to, and to applications that provide location-based services such as weather widgets, local yellow pages widgets, and map/navigation widgets).

アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●任意選択的に気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって入手された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを一体化したビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は、
●オンラインビデオモジュール155。
Application 136 optionally includes the following modules (or instruction sets) or subsets or supersets thereof.
- the contacts module 137 (sometimes called an address book or contact list);
a telephone module 138;
a teleconferencing module 139,
- email client module 140;
an instant messaging (IM) module 141;
training support module 142,
- a camera module 143 for still and/or video images;
an image management module 144;
● video player module,
● music player module,
the browser module 147,
a calendar module 148;
- Optionally weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, dictionary widget 149-5, and other user-obtained and user-created widgets a widget module 149 including one or more of 149-6;
- a widget creator module 150 for creating user-created widgets 149-6;
a search module 151,
- a video and music player module 152 that integrates a video player module and a music player module;
memo module 153,
- map module 154 and/or
Online video module 155;

任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。 Examples of other applications 136 that are optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA enabled applications, cryptography, digital writing. Rights management, speech recognition, and speech replication.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、連絡先モジュール137は、任意選択的に、アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、実際の住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始及び/又は促進することなどを含めて、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)を管理するために使用される。 In conjunction with touch screen 112, display controller 156, contact/motion module 130, graphics module 132, and text input module 134, contact module 137 optionally adds name(s) to the address book. remove name(s) from address book, phone number(s), email address(es), physical address(es), or other information to name associating, associating images with names, sorting and sorting names, providing a phone number or email address to initiate communication by phone 138, videoconferencing module 139, email 140, or IM 141 and/or or to manage an address book or contact list (eg, stored within application internal state 192 of contact module 137 in memory 102 or memory 370).

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電話モジュール138は、任意選択的に、電話番号に対応する文字シーケンスの入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、それぞれの電話番号のダイヤル、会話の実施、会話が終了したときの通話停止又はハングアップのために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 In conjunction with RF circuitry 108, audio circuitry 110, speaker 111, microphone 113, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, telephone module 138 is optionally , enter a character sequence corresponding to a telephone number, access one or more telephone numbers in the contacts module 137, modify the entered telephone number, dial the respective telephone number, conduct a conversation, and end the conversation. Used to stop a call or hang up when As previously mentioned, wireless communication optionally uses any of a number of communication standards, protocols, and techniques.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光学センサ164、光学センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連動して、テレビ会議モジュール139は、ユーザ命令に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了するための実行可能な命令を含む。 RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, optical sensor 164, optical sensor controller 158, touch/motion module 130, graphics module 132, text input module 134, contact module 137. , and telephony module 138, the videoconferencing module 139 provides executable instructions for initiating, conducting, and terminating a videoconference between the user and one or more other participants according to user instructions. include.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電子メールクライアントモジュール140は、ユーザ命令に応答して電子メールを作成、送信、受信、及び管理するための実行可能な命令を含む。画像管理モジュール144と連動して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, email client module 140 composes emails in response to user commands, Contains executable instructions for sending, receiving, and managing. In conjunction with image management module 144 , email client module 140 greatly facilitates the creation and sending of emails with still or video images captured by camera module 143 .

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字シーケンスの入力、以前に入力された文字の修正、それぞれのインスタントメッセージの送信(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)、インスタントメッセージの受信、及び受信したインスタントメッセージの閲覧のための実行可能な命令を含む。一部の実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるグラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書では、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)との両方を指す。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, instant messaging module 141 allows the input of character sequences corresponding to instant messages, previously modification of entered characters, transmission of respective instant messages (e.g. Short Message Service (SMS) or Multimedia Message Service (MMS) protocols for telephony-based instant messages, or Internet (using XMPP, SIMPLE, or IMPS for instant messaging based), receiving instant messages, and viewing received instant messages. In some embodiments, instant messages sent and/or received are optionally graphics, photos, audio files, video files supported by MMS and/or Enhanced Messaging Service (EMS) , and/or other attachments. As used herein, "instant messaging" refers to telephony-based messages (e.g., messages sent using SMS or MMS) and Internet-based messages (e.g., using XMPP, SIMPLE, or IMPS). It refers to both

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽プレーヤモジュールと連動して、トレーニングサポートモジュール142は、トレーニング(例えば、時間、距離、及び/又はカロリー燃焼目標を有する)を作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択及び再生し、並びに、トレーニングデータを表示、記憶、及び送信するための実行可能な命令を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, GPS module 135, map module 154, and music player module, training support module 142: Create workouts (e.g., with time, distance, and/or calorie burn goals), communicate with workout sensors (sports devices), receive workout sensor data, and calibrate sensors used to monitor workouts , selecting and playing music for training, and displaying, storing, and transmitting training data.

タッチスクリーン112、ディスプレイコントローラ156、光学センサ(単数又は複数)164、光学センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連動して、カメラモジュール143は、静止画像若しくはビデオ(ビデオストリームを含む)のキャプチャ及びメモリ102内への記憶、静止画像若しくはビデオの特性の修正、又はメモリ102からの静止画像若しくはビデオの削除のための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, optical sensor(s) 164, optical sensor controller 158, touch/motion module 130, graphics module 132, and image management module 144, camera module 143 can capture still images or Contains executable instructions for capturing video (including a video stream) and storing it in memory 102 , modifying the characteristics of a still image or video, or deleting a still image or video from memory 102 .

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連動して、画像管理モジュール144は、静止画像及び/又はビデオ画像の配置、修正(例えば、編集)、あるいはその他の操作、ラベル付け、削除、提示(例えば、デジタルスライドショー又はアルバムにおける)、及び記憶のための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and camera module 143, image management module 144 arranges, modifies (or modifies) still and/or video images. edit), or other manipulation, labeling, deletion, presentation (eg, in a digital slideshow or album), and storage.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、ブラウザモジュール147は、ウェブページ又はその一部分、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含めて、ユーザ命令に従ってインターネットをブラウジングするための実行可能な命令を含む。 In conjunction with the RF circuit 108, the touch screen 112, the display controller 156, the touch/motion module 130, the graphics module 132, and the text input module 134, the browser module 147 provides web pages or portions thereof and links to web pages. Contains executable instructions for browsing the Internet according to user instructions, including retrieving, linking, receiving, and displaying attachments and other files.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、カレンダモジュール148は、ユーザの指示に従い、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダ項目、to doリストなど)を作成し、表示し、変更し、記憶するための実行可能な命令を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, email client module 140, and browser module 147, calendar module 148 is able to and executable instructions for creating, displaying, modifying, and storing calendars and data associated with calendars (eg, calendar items, to-do lists, etc.) in accordance with the .

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェットモジュール149は、任意選択的にユーザによってダウンロード及び使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。一部の実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScript(登録商標)ファイルを含む。一部の実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル及びJavaScript(登録商標)ファイル(例えば、Yahoo!ウィジェット)を含む。 In conjunction with RF circuit 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, widget module 149 is optionally downloaded and used by a user. (eg weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5) or mini-applications created by users (eg , user created widget 149-6). In some embodiments, widgets include Hypertext Markup Language (HTML) files, Cascading Style Sheets ( CSS) files, and JavaScript files. In some embodiments, widgets include XML (Extensible Markup Language) files and JavaScript® files ( eg, Yahoo! widgets).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェットクリエータモジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。 Widget creator module 150, in conjunction with RF circuit 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, optionally creates widgets. (eg, widgetize user-specified portions of web pages).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、検索モジュール151は、ユーザ命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)に一致するメモリ102内の文字、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索するための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, search module 151 provides one or more search criteria (e.g., one or more user executable instructions for searching for text, music, sounds, images, videos, and/or other files in memory 102 that match a specified search term).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びにビデオを(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生するための実行可能な命令を含む。一部の実施形態では、デバイス100は、任意選択的に、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108, and browser module 147, video and music player module 152 can play MP3 or AAC files. Executable instructions that enable a user to download and play pre-recorded music and other sound files stored in one or more file formats such as, and videos (on touch screen 112 or via external port 124). It contains executable instructions for displaying, presenting, or otherwise reproducing (on an external display connected via an external display). In some embodiments, device 100 optionally includes the functionality of an MP3 player such as an iPod (trademark of Apple Inc.).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、メモモジュール153は、ユーザ命令に従ってメモ、やることリストなどを作成及び管理するための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, notes module 153 executes to create and manage notes, to-do lists, etc. according to user instructions. Contains possible instructions.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連動して、地図モジュール154は、任意選択的に、ユーザ命令に従って、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の場所又はその付近の店舗及び他の対象地点に関するデータ、並びに他の場所ベースのデータ)を受信、表示、修正、及び記憶するために使用される。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, GPS module 135, and browser module 147, map module 154 optionally: Receive, display, modify, and, in accordance with user instructions, maps and data associated with maps (e.g., data regarding driving directions, stores and other points of interest at or near a particular location, and other location-based data) used to remember.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連動して、オンラインビデオモジュール155は、ユーザが特定のオンラインビデオへのアクセス、特定のオンラインビデオのブラウジング、受信(例えば、ストリーミング及び/又はダウンロードによる)、再生(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上)、特定のオンラインビデオへのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイル形式のオンラインビデオの他の管理を行うことを可能にする命令を含む。一部の実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションについての追加の説明は、その内容が全体として参照により本明細書に組み込まれている、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」において見ることができる。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108, text input module 134, email client module 140, and browser module 147, the online Video module 155 allows users to access, browse, receive (eg, by streaming and/or downloading), and play (eg, on a touch screen or connected via external port 124) specific online videos. on an external display), sending e-mails with links to specific online videos; contains instructions that allow for other management of online video in one or more file formats, such as H.264. In some embodiments, instant messaging module 141 is used rather than email client module 140 to send links to specific online videos. Additional discussion of online video applications is provided in U.S. Provisional Patent Application No. 60/936,562, entitled "Portable Multifunction Device," filed Jun. 20, 2007, the contents of which are incorporated herein by reference in their entirety. ,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」においてcan see.

上記で特定したモジュール及びアプリケーションはそれぞれ、前述した1つ以上の機能及び本出願に記載する方法(例えば、本明細書に記載するコンピュータにより実装される方法及び他の情報処理方法)を実行する実行可能な命令のセットに対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットが、任意選択的に、組み合わされ、又は他の形で再構成される。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)にされる。一部の実施形態では、メモリ102は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the modules and applications identified above may be implemented to perform one or more of the functions described above and the methods described herein (e.g., the computer-implemented methods and other information processing methods described herein). Corresponds to the set of possible instructions. These modules (e.g., instruction sets) need not be implemented as separate software programs, procedures, or modules, and thus, in various embodiments, various subsets of these modules optionally include: combined or otherwise rearranged. For example, a video player module is optionally combined with a music player module into a single module (eg, video and music player module 152 of FIG. 1A). In some embodiments, memory 102 optionally stores a subset of the modules and data structures identified above. In addition, memory 102 optionally stores additional modules and data structures not described above.

一部の実施形態では、デバイス100は、そのデバイスにおける所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。 In some embodiments, device 100 is a device in which operation of a predetermined set of functions is performed solely through a touchscreen and/or touchpad. number of physical input control devices (push buttons, dials, etc.) is reduced.

タッチスクリーン及び/又はタッチパッドを通じてのみ実行される既定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。一部の実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。一部の他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。 A default set of functions performed only through a touchscreen and/or touchpad optionally includes navigation between user interfaces. In some embodiments, the touchpad navigates device 100 to the main menu, home menu, or root menu from any user interface displayed on device 100 when touched by a user. In such embodiments, the "menu button" is implemented using a touchpad. In some other embodiments, the menu buttons are physical push buttons or other physical input control devices rather than touchpads.

図1Bは、一部の実施形態による、イベント処理のための例示的な構成要素を示すブロック図である。一部の実施形態では、メモリ102(図1A)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)と、それぞれのアプリケーション136-1(例えば、前述のアプリケーション137~151、155、380~390のうちのいずれか)とを含む。 FIG. 1B is a block diagram illustrating exemplary components for event processing, according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) includes event sorter 170 (eg, within operating system 126) and respective applications 136-1 (eg, the aforementioned applications 137-151, 155, any of 380-390).

イベントソータ170は、イベント情報を受信し、イベント情報が配信されるアプリケーション136-1、及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。一部の実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中のとき、タッチ感知ディスプレイ112で上に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192を含む。一部の実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーションが現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。 Event sorter 170 receives event information and determines the application 136-1 to which the event information is delivered and the application view 191 of application 136-1. Event sorter 170 includes event monitor 171 and event dispatcher module 174 . In some embodiments, application 136-1 includes an application internal state 192 that indicates the current application view(s) displayed over touch-sensitive display 112 when the application is active or running. . In some embodiments, device/global internal state 157 is used by event sorter 170 to determine which applications are currently active, and application internal state 192 is to which event information is delivered. Used by event sorter 170 to determine application view 191 .

一部の実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用すべき再開情報、アプリケーション136-1によって表示されている情報を示す又は表示する準備ができたユーザインタフェース状態情報、ユーザがアプリケーション136-1の以前の状態又はビューに戻ることを可能にする状態キュー、及びユーザによって行われた以前のアクションのリドゥ/アンドゥキューのうちの1つ以上などの追加の情報を含む。 In some embodiments, application internal state 192 indicates resume information to be used when application 136-1 resumes execution, information being displayed by application 136-1, or a user ready to display information. Additional features such as interface state information, one or more of a state queue that allows the user to return to a previous state or view of application 136-1, and a redo/undo queue of previous actions taken by the user. Contains information.

イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としてのタッチ感知ディスプレイ112上のユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。 Event monitor 171 receives event information from peripherals interface 118 . Event information includes information about sub-events (eg, a user touch on touch-sensitive display 112 as part of a multi-touch gesture). Peripherals interface 118 transmits information it receives from I/O subsystem 106 or sensors such as proximity sensor 166, accelerometer(s) 168, and/or microphone 113 (via audio circuitry 110). . Information that peripherals interface 118 receives from I/O subsystem 106 includes information from touch-sensitive display 112 or a touch-sensitive surface.

一部の実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回る及び/又は所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。 In some embodiments, event monitor 171 sends requests to peripherals interface 118 at predetermined intervals. In response, peripherals interface 118 transmits event information. In other embodiments, peripherals interface 118 transmits event information only when there is a significant event (eg, receipt of input above a predetermined noise threshold and/or exceeding a predetermined duration).

一部の実施形態では、イベントソータ170は、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。 In some embodiments, event sorter 170 includes hit view determination module 172 and/or active event recognizer determination module 173 .

ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示するとき、サブイベントが1つ以上のビュー内のどこで行われたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。 Hit view determination module 172 provides software procedures for determining where a sub-event occurred within one or more views when touch-sensitive display 112 displays more than one view. Views are made up of controls and other elements that the user can see on the display.

アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウインドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。 Another aspect of the user interface associated with an application is the set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and touch-based gestures occur. The application view (of the respective application) in which the touch is detected optionally corresponds to a program level within the application's program hierarchy or view hierarchy. For example, the lowest level view in which touch is detected is optionally called the hit view, and the set of events recognized as appropriate input is optionally the initial view that initiates a touch gesture. The determination is based at least in part on the hit view of the touch.

ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき、階層内の最下位のビューとしてのヒットビューを特定する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成するサブイベントシーケンス内の第1のサブイベント)が行われる最も低いレベルのビューである。ヒットビューがヒットビュー判定モジュール172によって特定されると、このヒットビューは、典型的には、ヒットビューとして特定されたのと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。 The hit view determination module 172 receives information related to sub-events of touch-based gestures. When an application has multiple views arranged in a hierarchy, the hit view determination module 172 identifies the hit view as the lowest view in the hierarchy that should process the sub-event. In most situations, the hit view is the lowest level view in which the initiating sub-event (eg, the first sub-event in the sequence of sub-events forming the event or potential event) takes place. Once a hit view is identified by the hit view determination module 172, this hit view typically receives all sub-events related to the same touch or input source that was identified as the hit view.

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。一部の実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理的な場所を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連付けられたエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。 Active event recognizer determination module 173 determines which view(s) in the view hierarchy should receive a particular sequence of sub-events. In some embodiments, active event recognizer determination module 173 determines that only hit views should receive a particular sequence of sub-events. In another embodiment, the active event recognizer determination module 173 determines that all views containing the physical location of the sub-event are actively involved views, thus all actively involved views. determines that it should receive a particular sequence of sub-events. In other embodiments, even if a touch sub-event is completely localized to an area associated with one particular view, views higher up in the hierarchy remain actively involved views.

イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。一部の実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部182によって取得されるイベント情報をイベント待ち行列に記憶する。 Event dispatcher module 174 dispatches event information to an event recognizer (eg, event recognizer 180). In embodiments that include active event recognizer determination module 173 , event dispatcher module 174 distributes event information to event recognizers determined by active event recognizer determination module 173 . In some embodiments, the event dispatcher module 174 stores event information obtained by each event receiver 182 in an event queue.

一部の実施形態では、オペレーティングシステム126は、イベントソータ170を含む。代替的に、アプリケーション136-1がイベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュールであり、又は接触/動きモジュール130などのメモリ102内に記憶されている別のモジュールの一部分である。 In some embodiments, operating system 126 includes event sorter 170 . Alternatively, application 136 - 1 includes event sorter 170 . In still other embodiments, event sorter 170 is a stand-alone module or part of another module stored in memory 102 , such as touch/motion module 130 .

一部の実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理するための命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット、又は、アプリケーション136-1が方法及び他の属性を継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。一部の実施形態では、それぞれのイベントハンドラ190は、データアップデータ176、オブジェクトアップデータ177、GUIアップデータ178、及び/又はイベントソータ170から受信されたイベントデータ179のうちの1つ以上を含む。イベントハンドラ190は、任意選択的に、データアップデータ176、オブジェクトアップデータ177、又はGUIアップデータ178を利用し又は呼び出して、アプリケーション内部状態192を更新する。代替的に、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベントハンドラ190を含む。また、一部の実施形態では、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178のうちの1つ以上は、それぞれのアプリケーションビュー191に含まれる。 In some embodiments, application 136-1 includes multiple event handlers 190 and one or more application views, each containing instructions for handling touch events that occur within respective views of the application's user interface. 191 included. Each application view 191 of application 136 - 1 includes one or more event recognizers 180 . Typically, each application view 191 includes multiple event recognizers 180 . In other embodiments, one or more of event recognizers 180 are part of separate modules, such as user interface kits or higher-level objects from which application 136-1 inherits methods and other attributes. is. In some embodiments, each event handler 190 includes one or more of data updater 176 , object updater 177 , GUI updater 178 , and/or event data 179 received from event sorter 170 . Event handler 190 optionally utilizes or calls data updater 176 , object updater 177 , or GUI updater 178 to update application internal state 192 . Alternatively, one or more of application views 191 include one or more respective event handlers 190 . Also, in some embodiments, one or more of data updater 176 , object updater 177 , and GUI updater 178 are included in each application view 191 .

それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、このイベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。一部の実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。 Each event recognizer 180 receives event information (eg, event data 179) from event sorter 170 and identifies events from this event information. The event recognizer 180 includes an event receiver 182 and an event comparator 184 . In some embodiments, event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188 (optionally including sub-event delivery instructions).

イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの場所などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。一部の実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。 The event receiver 182 receives event information from the event sorter 170 . Event information includes information about sub-events, such as touches or movement of touches. Depending on the sub-event, the event information also includes additional information such as the location of the sub-event. When the sub-event involves touch movement, the event information optionally also includes the speed and direction of the sub-event. In some embodiments, the event includes rotation of the device from one orientation to another (e.g., portrait to landscape or vice versa), and the event information is the device's current orientation (device (also called the attitude of the

イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。一部の実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば既定のサブイベントのシーケンス)の定義を含む。一部の実施形態では、イベント187におけるサブイベントは、例えば、タッチ開始、タッチ終了、タッチの移動、タッチの取り消し、及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に対する表示オブジェクト上のタッチ(又は接触)、タッチ感知ディスプレイ112におけるタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。一部の実施形態では、イベントは、1つ以上の関連付けられたイベントハンドラ190に関する情報も含む。 The event comparator 184 compares the event information to predefined event or sub-event definitions and determines the event or sub-event or determines or updates the state of the event or sub-event based on the comparison. . In some embodiments, event comparator 184 includes event definitions 186 . Event definitions 186 include definitions of events (eg, predefined sequences of sub-events), eg, event 1 (187-1) and event 2 (187-2). In some embodiments, sub-events in event 187 include, for example, touch initiation, touch termination, touch movement, touch cancellation, and multiple touches. In one embodiment, the definition for event 1 (187-1) is a double tap on a displayed object. A double-tap is, for example, a first touch on a display object for a given step (touch start), a first lift-off for a given step (touch end), a second touch on a display object for a given step (touch start), and a second lift-off (end of touch) for a given stage. In another example, the definition of event 2 (187-2) is a drag on a displayed object. Drag includes, for example, touch (or contact) on a display object for a given step, movement of touch on touch-sensitive display 112, and lift-off of touch (end of touch). In some embodiments, the event also includes information about one or more associated event handlers 190 .

一部の実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベント定義を含む。一部の実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112上に3つのユーザインタフェースオブジェクトが表示されているアプリケーションビュー内で、タッチ感知ディスプレイ112上でタッチが検出されたとき、イベント比較部184は、ヒットテストを実行して、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定する。表示された各オブジェクトが、それぞれのイベントハンドラ190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベントハンドラ190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトに関連付けられたイベントハンドラを選択する。 In some embodiments, event definitions 187 include event definitions for respective user interface objects. In some embodiments, event comparator 184 performs hit testing to determine which user interface objects are associated with sub-events. For example, when a touch is detected on touch-sensitive display 112 in an application view in which three user interface objects are displayed on touch-sensitive display 112, event comparator 184 performs a hit test to Determine which of the two user interface objects are associated with the touch (sub-event). If each displayed object is associated with a respective event handler 190, the event comparator uses the results of the hit test to determine which event handler 190 should be activated. For example, event comparator 184 selects event handlers associated with sub-events and objects that trigger hit testing.

一部の実施形態では、それぞれのイベント187の定義は、サブイベントのシーケンスがイベント認識部のイベントタイプに対応するかどうかが判定されるまで、イベント情報の配信を遅らせる遅延アクションも含む。 In some embodiments, each event 187 definition also includes a delay action that delays delivery of event information until it is determined if the sequence of sub-events corresponds to the event recognizer's event type.

それぞれのイベント認識部180が一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判定した場合、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。 If the respective event recognizer 180 determines that the sequence of sub-events does not match any of the events in the event definition 186, the respective event recognizer 180 enters an event unavailable, event failed, or event terminated state, After that, ignore the next sub-event of the touch-based gesture. In this situation, if there is another event recognizer that remains active for the hit view, that event recognizer will continue to track and process sub-events of the ongoing touch gesture.

一部の実施形態では、それぞれのイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。一部の実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話することができるようになっているかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。一部の実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。 In some embodiments, each event recognizer 180 has configurable properties, flags, and/or properties that indicate to actively participating event recognizers how the event delivery system should perform sub-event delivery. or includes metadata 183 with a list. In some embodiments, metadata 183 includes configurable properties that indicate how event recognizers interact with each other or how event recognizers are enabled to interact with each other; Contains flags and/or lists. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate whether sub-events are delivered to various levels in the view hierarchy or program hierarchy.

一部の実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントに関連付けられたイベントハンドラ190をアクティブ化する。一部の実施形態では、それぞれのイベント認識部180は、イベントに関連付けられたイベント情報をイベントハンドラ190に配信する。イベントハンドラ190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。一部の実施形態では、イベント認識部180は、認識したイベントに関連付けられたフラグを投入し、そのフラグに関連付けられたイベントハンドラ190は、そのフラグを捕らえ、所定のプロセスを実行する。 In some embodiments, each event recognizer 180 activates event handlers 190 associated with the event when one or more specific sub-events of the event are recognized. In some embodiments, each event recognizer 180 delivers event information associated with the event to event handlers 190 . Activating the event handler 190 is separate from sending (and deferring sending) the sub-event to each hit view. In some embodiments, event recognizer 180 populates a flag associated with a recognized event, and event handler 190 associated with that flag catches the flag and performs a predetermined process.

一部の実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベントハンドラに、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベントハンドラは、イベント情報を受信し、所定の処理を実行する。 In some embodiments, event delivery instructions 188 include sub-event delivery instructions to deliver event information about the sub-event without activating event handlers. Instead, sub-event delivery instructions deliver event information to event handlers associated with a sequence of sub-events or to actively participating views. A series of sub-events or event handlers associated with actively participating views receive the event information and perform predetermined processing.

一部の実施形態では、データアップデータ176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データアップデータ176は、連絡先モジュール137で使用される電話番号を更新し、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。一部の実施形態では、オブジェクトアップデータ177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデータ177は、新たなユーザインタフェースオブジェクトを作成し、又はユーザインタフェースオブジェクトの位置を更新する。GUIアップデータ178は、GUIを更新する。例えば、GUIアップデータ178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。 In some embodiments, data updater 176 creates and updates data used by application 136-1. For example, the data updater 176 updates phone numbers used by the contacts module 137 or stores video files used by the video player module. In some embodiments, object updater 177 creates and updates objects used by application 136-1. For example, object updater 177 creates new user interface objects or updates the positions of user interface objects. GUI updater 178 updates the GUI. For example, GUI updater 178 prepares display information and sends the display information to graphics module 132 for display on a touch-sensitive display.

一部の実施形態では、イベントハンドラ(単数又は複数)190は、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178を含む、又はそれらへのアクセスを有する。一部の実施形態では、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, event handler(s) 190 includes or has access to data updater 176 , object updater 177 , and GUI updater 178 . In some embodiments, data updater 176 , object updater 177 , and GUI updater 178 are included in a single module of each application 136 - 1 or application view 191 . In other embodiments, they are contained in two or more software modules.

タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、そのすべてがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された眼球運動、バイオメトリック入力、並びに/又はそれらの任意の組み合わせを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。 The foregoing description of event handling of a user's touch on a touch-sensitive display also applies to other forms of user input for operating multifunction device 100 using input devices, all of which are on touch screens. It should be understood that it does not start with . For example, mouse movement and mouse button presses, contact movement such as tapping, dragging, scrolling on touchpads, pen stylus input, devices optionally coupled with single or multiple presses or holds of the keyboard. , verbal commands, detected eye movements, biometric input, and/or any combination thereof are optionally utilized as inputs corresponding to sub-events that define the event to recognize.

図2は、一部の実施形態による、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに以下で説明される他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。一部の実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。一部の実施形態では、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上向きに及び/若しくは下向きに)、並びに/又は、デバイス100と接触した指のローリング(右から左へ、左から右へ、上向きに及び/若しくは下向きに)を、任意選択で含む。一部の実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。 FIG. 2 illustrates portable multifunction device 100 having touch screen 112, according to some embodiments. The touchscreen optionally displays one or more graphics within a user interface (UI) 200 . In this embodiment, as well as other embodiments described below, the user may, for example, use one or more fingers 202 (not drawn to scale) or one or more styluses 203 (not shown to scale). are not drawn to scale) to select one or more of the graphics by performing a gesture on the graphics. In some embodiments, selection of one or more graphics is performed when the user breaks contact with the one or more graphics. In some embodiments, the gesture is one or more taps, one or more swipes (left to right, right to left, upwards and/or downwards), and/or contact with device 100 Finger rolling (right to left, left to right, upwards and/or downwards) is optionally included. In some implementations or situations, accidental contact with a graphic does not select that graphic. For example, a swipe gesture that sweeps over an application icon optionally does not select the corresponding application if the gesture corresponding to selection is a tap.

デバイス100はまた、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンを含む。前述したように、メニューボタン204は、任意選択的に、任意選択的にデバイス100上で実行される1組のアプリケーション内の任意のアプリケーション136へナビゲートするために使用される。代替的に、一部の実施形態では、メニューボタンは、タッチスクリーン112上に表示されるGUI内のソフトキーとして実装される。 Device 100 also optionally includes one or more physical buttons such as a “home” button or menu button 204 . As previously mentioned, menu button 204 is optionally used to navigate to any application 136 within the set of applications optionally running on device 100 . Alternatively, in some embodiments, menu buttons are implemented as softkeys within a GUI displayed on touch screen 112 .

一部の実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフにしてデバイスをロックするプッシュボタン206、音量調整ボタン208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択で、ボタンを押し下げて、所定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、所定の期間が経過する前にボタンを解放することによってデバイスをロックするため、及び/又はデバイスをアンロックする、若しくはアンロックプロセスを開始するために、使用され得る。代替的実施形態では、デバイス100はまた、マイクロフォン113を介して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力も受け入れる。デバイス100はまた、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167を含む。 In some embodiments, the device 100 includes a touch screen 112, a menu button 204, push buttons 206 to power on/off and lock the device, volume control buttons 208, a subscriber identity module (SIM) card slot. 210, a headset jack 212, and an external port 124 for docking/charging. The push button 206 optionally powers the device on and off by depressing the button and holding the button depressed for a predetermined period of time such that the button is depressed and the predetermined period elapses. It can be used to lock the device by previously releasing the button and/or to unlock the device or initiate the unlocking process. In an alternative embodiment, device 100 also accepts verbal input via microphone 113 to activate or deactivate some functions. Device 100 also optionally includes one or more contact intensity sensors 165 that detect the intensity of contact on touch screen 112 and/or one or more tactile sensors that generate tactile outputs for the user of device 100 . An output generator 167 is included.

図3は、一部の実施形態による、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。一部の実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレイヤデバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は典型的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インタフェース330を含む。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350と、タッチパッド355と、デバイス300上に触知出力を生成する触知出力生成器357(例えば、図1Aを参照して前述した触知出力生成器167に類似している)と、センサ359(例えば、図1Aを参照して前述した接触強度センサ165に類似している光学センサ、加速度センサ、近接センサ、タッチ感知センサ、及び/又は接触強度センサ)とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光学ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、任意選択で、CPU(単数又は複数)310からリモートに位置する1つ以上の記憶デバイスを含む。一部の実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102内に記憶されているプログラム、モジュール、及びデータ構造に類似したプログラム、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は、任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。 FIG. 3 is a block diagram of an exemplary multifunction device having a display and touch-sensitive surface, according to some embodiments; Device 300 need not be portable. In some embodiments, device 300 is a laptop computer, desktop computer, tablet computer, multimedia player device, navigation device, educational device (such as a children's learning toy), gaming system, or control device (e.g., home controller for commercial use or business use). Device 300 typically includes one or more processing units (CPUs) 310, one or more network or other communication interfaces 360, memory 370, and one or more communication buses interconnecting these components. 320 included. Communication bus 320 optionally includes circuitry (sometimes called a chipset) that interconnects and controls communications between system components. Device 300 includes input/output (I/O) interface 330 including display 340, which is typically a touch screen display. The I/O interface 330 also optionally includes a keyboard and/or mouse (or other pointing device) 350, a touchpad 355, and a tactile output generator 357 ( For example, similar to tactile output generator 167 described above with reference to FIG. 1A), sensor 359 (eg, similar to contact intensity sensor 165 described above with reference to FIG. 1A), an optical sensor, acceleration sensors, proximity sensors, touch sensing sensors, and/or contact intensity sensors). Memory 370 includes high speed random access memory such as DRAM, SRAM, DDR RAM, or other random access solid state memory devices, and optionally one or more of magnetic disk storage devices, optical disk storage devices, flash memory. device, or other non-volatile solid-state storage device. Memory 370 optionally includes one or more storage devices located remotely from CPU(s) 310 . In some embodiments, memory 370 stores programs, modules and data structures similar to, or a subset thereof, stored in memory 102 of portable multifunction device 100 (FIG. 1A). memorize Additionally, memory 370 optionally stores additional programs, modules, and data structures not present in memory 102 of portable multifunction device 100 . For example, memory 370 of device 300 optionally stores drawing module 380, presentation module 382, word processing module 384, website creation module 386, disc authoring module 388, and/or spreadsheet module 390. In contrast, memory 102 of portable multifunction device 100 (FIG. 1A) optionally does not store these modules.

図3の上記で特定した要素はそれぞれ、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で特定したモジュールはそれぞれ、前述した機能を実行する命令セットに対応する。上記で特定したモジュール又はプログラム(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットは、任意選択的に、組み合わされ、又は他の形で再構成される。一部の実施形態では、メモリ370は、任意選択で、上記で特定されたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the above-identified elements of FIG. 3 are optionally stored in one or more of the memory devices previously described. Each of the modules identified above corresponds to a set of instructions that perform the functions previously described. The modules or programs (e.g., instruction set) identified above need not be implemented as separate software programs, procedures, or modules, and thus in various embodiments various subsets of these modules are optional. combined or otherwise rearranged. In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. In addition, memory 370 optionally stores additional modules and data structures not described above.

次に、任意選択的に例えばポータブル多機能デバイス100上で実装されるユーザインタフェースの実施形態に注意を向ける。 Attention is now directed to user interface embodiments that are optionally implemented, for example, on portable multifunction device 100 .

図4Aは、一部の実施形態による、ポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。一部の実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi-Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされる、iPod(Apple Inc.の商標)モジュール152とも呼ばれるビデオ及び音楽プレーヤモジュール152用のアイコン422、及び
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株式ウィジェット149-2のアイコン434、
○「地図」とラベル付けされた、地図モジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136についての設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション又はモジュール用のアイコン446。
FIG. 4A shows an exemplary user interface of a menu of applications on portable multifunction device 100, according to some embodiments. A similar user interface is optionally implemented on device 300 . In some embodiments, user interface 400 includes the following elements, or subsets or supersets thereof.
- signal strength indicator(s) 402 for wireless communication(s) such as cellular and Wi-Fi signals;
● Time 404,
- Bluetooth indicator 405,
- battery status indicator 406;
- A tray 408 with icons for frequently used applications, such as:
o an icon 416 for the phone module 138, labeled "phone", optionally including an indicator 414 of the number of missed calls or voicemail messages;
o an icon 418 for the email client module 140, labeled "Mail", optionally including an indicator 410 of the number of unread emails;
o icon 420 for browser module 147, labeled "Browser"; and o icon 422 for video and music player module 152, also called iPod (trademark of Apple Inc.) module 152, labeled "iPod". , and icons of other applications, such as
o IM module 141 icon 424, labeled "Message";
o Icon 426 of calendar module 148, labeled "Calendar";
o icon 428 of image management module 144, labeled "Photos";
o icon 430 for camera module 143, labeled "Camera";
o icon 432 for online video module 155, labeled "online video";
o icon 434 of stock widget 149-2, labeled "Stock Price";
o icon 436 of map module 154, labeled "Map";
o icon 438 for weather widget 149-1, labeled "Weather";
o icon 440 of alarm clock widget 149-4, labeled "Clock";
o Icon 442 for training support module 142, labeled "Training Support";
o Icon 444 of notes module 153, labeled "Notes"; and o Settings application or module, labeled "Settings", which provides access to settings for device 100 and its various applications 136. icon 446 for.

図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152のためのアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる、他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。一部の実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。一部の実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。 Note that the icon labels shown in FIG. 4A are merely exemplary. For example, the icon 422 for the video and music player module 152 is labeled "music" or "music player", other labels are optionally used for various application icons. In some embodiments, the label for each application icon includes the name of the application corresponding to each application icon. In some embodiments, the label of a particular application icon is different than the name of the application corresponding to that particular application icon.

図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を生成する1つ以上の触知出力生成器357を含む。 FIG. 4B is an exemplary illustration on a device (eg, device 300 of FIG. 3) having a touch-sensitive surface 451 (eg, tablet or touchpad 355 of FIG. 3) that is separate from display 450 (eg, touchscreen display 112). user interface. Device 300 also optionally includes one or more contact strength sensors (eg, one or more of sensors 359) that detect the strength of contact on touch-sensitive surface 451, and/or It includes one or more tactile output generators 357 that generate tactile outputs.

以下の例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、一部の実施形態では、デバイスは、図4Bに示すディスプレイとは別個のタッチ感知面上の入力を検出する。一部の実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の1次軸(例えば、図4Bの453)に対応する1次軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの場所に対応する場所(例えば、図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの動き)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。 Although some of the examples below are given with reference to input on the touch screen display 112 (which is a combined touch sensitive surface and display), in some embodiments the device is as shown in FIG. 4B. Detects input on a touch-sensitive surface separate from the display shown. In some embodiments, the touch-sensitive surface (eg, 451 in FIG. 4B) has a primary axis (eg, 453 in FIG. 4B) that corresponds to a primary axis (eg, 453 in FIG. 4B) on the display (eg, 450). 452). According to these embodiments, the device interacts with touch-sensitive surface 451 at locations corresponding to respective locations on the display (e.g., 460 corresponds to 468 and 462 corresponds to 470 in FIG. 4B). Touches (eg, 460 and 462 in FIG. 4B) are detected. In this way, user input (e.g., contacts 460 and 462, and their movements) detected by the device on the touch-sensitive surface (e.g., 451 in FIG. 4B) is detected by the touch-sensitive surface being separate from the display. When used by the device to operate the user interface on the multifunction device's display (eg, 450 in FIG. 4B). It should be appreciated that similar methods are optionally used for other user interfaces described herein.

加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられるが、一部の実施形態では、指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)と取り替えられることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりの)マウスクリックに続けた、(例えば、接触の移動の代わりの)スワイプの経路に沿ったカーソルの移動によって、任意選択的に取り替えられる。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの場所の上に位置する間はマウスクリックと取り替えられる(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。 Additionally, although the examples below are given primarily with reference to finger input (e.g., finger contact, finger tap gesture, finger swipe gesture), in some embodiments one or more of the finger inputs are , may be replaced by input from another input device (eg, mouse-based input or stylus input). For example, a swipe gesture is optionally replaced by a mouse click (eg, instead of contact) followed by cursor movement along the path of the swipe (eg, instead of contact movement). As another example, a tap gesture is optionally replaced with a mouse click while the cursor is positioned over the location of the tap gesture (e.g., detect contact and subsequently stop detecting contact). instead of). Similarly, when multiple user inputs are detected simultaneously, it will be appreciated that multiple computer mice are optionally used simultaneously, or mouse and finger contact are optionally used simultaneously. sea bream.

図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。一部の実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~図4B)に関して説明する特徴のうちのいくつか又は全てを含むことができる。一部の実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下ではタッチスクリーン504、を有する。代替的に、又はタッチスクリーン504に加えて、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、一部の実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。 FIG. 5A shows an exemplary personal electronic device 500. As shown in FIG. Device 500 includes body 502 . In some embodiments, device 500 can include some or all of the features described with respect to devices 100 and 300 (eg, FIGS. 1A-4B). In some embodiments, the device 500 has a touch-sensitive display screen 504, hereinafter touch screen 504. Alternatively, or in addition to touchscreen 504, device 500 has a display and a touch-sensitive surface. As with devices 100 and 300, in some embodiments, touch screen 504 (or touch-sensitive surface) optionally includes one or more sensors that detect the strength of contact (e.g., touch) being applied. Includes intensity sensor. One or more intensity sensors of touch screen 504 (or touch-sensitive surface) can provide output data representing the intensity of the touch. The user interface of device 500 can respond to touches based on the intensity of the touch, meaning that different intensity touches can invoke different user interface operations on device 500 .

タッチ強度を検出及び処理する例示的な技法は、例えば、それぞれ全体として参照により本明細書に組み込まれている、国際特許第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際特許第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」という関連出願に見られる。 Exemplary techniques for detecting and processing touch intensity are disclosed, for example, in International Patent Application No. PCT/US2013/040061, "Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application", and International Patent No. WO/2014/103712, published as See related application entitled "Device, Method, and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships," International Patent Application No. PCT/US2013/069483, filed Jan. 11.

一部の実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的機構とすることができる。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。一部の実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、アイウェア、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計のバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。 In some embodiments, device 500 has one or more input mechanisms 506 and 508 . Input mechanisms 506 and 508, if included, can be physical mechanisms. Examples of physical input mechanisms include push buttons and rotatable mechanisms. In some embodiments, device 500 has one or more attachment mechanisms. Such attachment mechanisms, if included, allow the device 500 to be attached to, for example, hats, eyewear, earrings, necklaces, shirts, jackets, bracelets, watch bands, chains, pants, belts, shoes, purses, backpacks, etc. can enable These attachment mechanisms allow the device 500 to be worn by the user.

図5Bは、例示的なパーソナル電子デバイス500を示す。一部の実施形態では、デバイス500は、図1A、図1B、及び図3に関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。加えて、I/Oセクション514は、Wi-Fi、Bluetooth、近距離通信(NFC)、セルラー、及び/又は他の無線通信技法を使用してアプリケーション及びオペレーティングシステムデータを受信する通信ユニット530に接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば回転可能入力デバイス又は押下可能及び回転可能入力デバイスである。いくつかの例では、入力機構508は、任意選択的にボタンである。 FIG. 5B shows an exemplary personal electronic device 500. As shown in FIG. In some embodiments, device 500 can include some or all of the components described with respect to FIGS. 1A, 1B, and 3. FIG. Device 500 has a bus 512 operatively coupling an I/O section 514 to one or more computer processors 516 and memory 518 . The I/O section 514 can be connected to a display 504, which can have a touch sensing component 522 and optionally an intensity sensor 524 (eg, a touch intensity sensor). Additionally, the I/O section 514 connects to a communication unit 530 that receives application and operating system data using Wi-Fi, Bluetooth, Near Field Communication (NFC), cellular, and/or other wireless communication techniques. can do. Device 500 can include input mechanisms 506 and/or 508 . Input mechanism 506 is optionally a rotatable input device or a depressible and rotatable input device, for example. In some examples, input mechanism 508 is optionally a button.

いくつかの例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はこれらの組み合わせなどの様々なセンサを含み、これらのセンサは全て、I/Oセクション514に動作可能に接続することができる。 In some examples, input mechanism 508 is optionally a microphone. Personal electronic device 500 optionally includes various sensors such as GPS sensor 532, accelerometer 534, orientation sensor 540 (e.g., compass), gyroscope 536, motion sensor 538, and/or combinations thereof, All of these sensors can be operatively connected to I/O section 514 .

パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶するための、1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、それら命令は、1つ以上のコンピュータプロセッサ516によって実行される時、例えば、コンピュータプロセッサに、プロセス700及びプロセス1100(図7及び図11)を含めた、後述する技法を行わせることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって使用するための、又は命令実行システム、装置、又はデバイスに接続されているコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体とすることができる。いくつかの例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それだけに限定されるものではないが、磁気記憶装置、光学記憶装置、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu-ray(登録商標)技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの常駐ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。 Memory 518 of personal electronic device 500 may include one or more non-transitory computer-readable storage media for storing computer-executable instructions, which are executed by one or more computer processors 516. For example, a computer processor may be caused to perform the techniques described below, including process 700 and process 1100 (FIGS. 7 and 11). A computer-readable storage medium is any capable of tangibly containing or storing computer-executable instructions for use by or in connection with an instruction execution system, apparatus, or device. can be a medium of In some examples the storage medium is a temporary computer readable storage medium. In some examples the storage medium is a non-transitory computer-readable storage medium. Non-transitory computer-readable storage media may include, but are not limited to, magnetic storage devices, optical storage devices, and/or semiconductor storage devices. Examples of such storage devices include magnetic discs, CDs, DVDs, or optical discs based on Blu- ray® technology, as well as resident solid-state memories such as flash, solid-state drives, and the like. Personal electronic device 500 is not limited to the components and configuration of FIG. 5B, but can include other or additional components in multiple configurations.

本明細書で使用されるとき、用語「アフォーダンス」は、任意選択的にデバイス100、300、及び/又は500(図1A、図3、及び図5A~図5B)のディスプレイスクリーン上に表示されるユーザ対話グラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及びテキスト(例えば、ハイパーリンク)はそれぞれ、任意選択的に、アフォーダンスを構成する。 As used herein, the term “affordance” is optionally displayed on the display screen of device 100, 300, and/or 500 (FIGS. 1A, 3, and 5A-5B) Refers to user interaction graphical user interface objects. For example, images (eg, icons), buttons, and text (eg, hyperlinks) each optionally constitute affordances.

本明細書で使用されるとき、使用される「フォーカスセレクタ」という用語は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の場所マーカを含む一部の実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の上に位置する間に、タッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で入力(例えば、押圧入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接的な対話を可能にするタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含む一部の実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の場所で入力(例えば、接触による押圧入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。一部の実装形態では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動(例えば、フォーカスを1つのボタンから別のボタンへ動かすためにタブキー又は矢印キーを使用することによる)なく、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域へ動かされ、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタがとる特有の形態にかかわらず、フォーカスセレクタは、一般に、ユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)であり、ユーザの意図するユーザインタフェースとの対話を(例えば、ユーザが対話することを意図しているユーザインタフェースの要素をデバイスに示すことによって)通信するように、ユーザによって制御される。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、対応のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の場所は、その対応のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。 As used herein, the term "focus selector" as used refers to an input element that indicates the current portion of the user interface with which the user is interacting. In some implementations that include a cursor or other location marker, the cursor acts as a "focus selector," so that the cursor is positioned over a particular user interface element (e.g., button, window, slider, or other user interface element). When an input (e.g., press input) is detected on a touch-sensitive surface (e.g., touch pad 355 in FIG. 3 or touch-sensitive surface 451 in FIG. 4B) while overlying, a particular user interface element Adjusted according to the detected input. In some implementations that include a touchscreen display that allows for direct interaction with user interface elements on the touchscreen display (eg, touch-sensitive display system 112 of FIG. 1A or touchscreen 112 of FIG. 4A), touch Detected touch on the screen acts as a "focus selector", thus allowing input (e.g., When a press input by contact) is detected, certain user interface elements are adjusted according to the detected input. In some implementations, focus can be adjusted without corresponding cursor movement or contact movement on the touch screen display (e.g., by using the tab or arrow keys to move focus from one button to another). is moved from one area of the user interface to another area of the user interface, and in these implementations the focus selector moves according to the movement of focus between different areas of the user interface. Regardless of the specific form that a focus selector takes, it is generally a user interface element (or contact on a touch screen display) that directs the user's intended interaction with the user interface (e.g., user interaction). controlled by the user to communicate by presenting the device with elements of the user interface intended to For example, the location of a focus selector (e.g., cursor, touch, or selection box) over the corresponding button while a press input is detected on a touch-sensitive surface (e.g., touchpad or touchscreen) It indicates that the user intends to activate the corresponding button (as opposed to other user interface elements shown on the device's display).

本明細書及び特許請求の範囲で使用される、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。一部の実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、すなわち、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後)に関連する所定の時間期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。一部の実施形態では、特性強度を判定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続時間が使用される。一部の実施形態では、特性強度は、ユーザによって動作が実行されたかどうかを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1つ以上の強度閾値のセットは、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この例では、第1の閾値を超過しない特性強度を有する接触は、第1の動作をもたらし、第1の強度閾値を超過するが第2の強度閾値を超過しない特性強度を有する接触は、第2の動作をもたらし、第2の閾値を超過する特性強度を有する接触は、第3の動作をもたらす。一部の実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、それぞれの動作を実行するべきか、それともそれぞれの動作を実行するのを取り止めるべきか)を判定するために使用される。 As used herein and in the claims, the term "characteristic strength" of contact refers to the properties of that contact based on one or more strengths of the contact. In some embodiments, the characteristic intensity is based on multiple intensity samples. The characteristic intensity is optionally a predefined number of intensity samples, i.e., a predefined event (e.g., after detecting a contact, before detecting lift-off of the contact, before or after detecting the start of movement of the contact, a predetermined time period (e.g., 0.05, 0.1, 0.2, 0.5, 1, 2, 5, 10 seconds). The characteristic strength of contact is optionally maximum strength of contact, mean strength of contact, average strength of contact, top 10 percentile strength of contact, strength of contact , a maximum 90 percent value of the intensity of contact, and so on. In some embodiments, the duration of contact is used in determining the characteristic strength (eg, when the characteristic strength is the average strength of the contact over time). In some embodiments, the characteristic strength is compared to a set of one or more strength thresholds to determine whether an action has been performed by the user. For example, the set of one or more intensity thresholds optionally includes a first intensity threshold and a second intensity threshold. In this example, a contact with a characteristic strength that does not exceed a first threshold results in a first action, and a contact with a characteristic strength that exceeds the first strength threshold but does not exceed a second strength threshold results in a second A contact that results in a motion of 2 and has a characteristic intensity exceeding a second threshold results in a third motion. In some embodiments, a comparison between the characteristic strength and one or more thresholds is used to determine whether to perform the first action or the second action. Instead, it is used to determine whether to perform one or more actions (e.g., whether to perform each action or not to perform each action).

図5Cは、複数の強度センサ524A~524Dによってタッチ感知ディスプレイスクリーン504上で複数の接触552A~552Eを検出することを示す。図5Cは、追加として、強度単位に対する強度センサ524A~524Dの現在の強度測定値を示す強度ダイアグラムを含む。この例では、強度センサ524A及び524Dの強度測定値はそれぞれ9強度単位であり、強度センサ524B及び524Cの強度測定値はそれぞれ7強度単位である。一部の実装形態では、集約強度は、複数の強度センサ524A~524Dの強度測定値の和であり、この例では32強度単位である。一部の実施形態では、各接触に、集約強度の一部分であるそれぞれの強度が割り当てられる。図5Dは、力の中心554からの距離に基づいて、集約強度を接触552A~552Eに割り当てることを示す。この例では、接触552A、552B、及び552Eのそれぞれに、集約強度の8強度単位の接触の強度が割り当てられ、接触552C及び552Dのそれぞれに、集約強度の4強度単位の接触の強度が割り当てられる。より一般的には、一部の実装形態では、各接触jは、所定の数学関数Ij=A・(Dj/ΣDi)に従って、集約強度Aの一部分である、それぞれの強度Ijが割り当てられ、ここで、Djは、力の中心からそれぞれの接触jまでの距離であり、ΣDiは、力の中心から全てのそれぞれ接触(例えば、i=1から最後まで)までの距離の和である。図5C~図5Dを参照して説明した動作は、デバイス100、300又は500と類似若しくは同一の電子デバイスを使用して実行することができる。一部の実施形態では、接触の特性強度は、接触の1つ以上の強度に基づいている。一部の実施形態では、強度センサは、単一の特性強度(例えば、単一の接触の単一の特性強度)を判定するために使用される。強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5C~図5Dに含まれていることに留意されたい。 FIG. 5C illustrates detecting multiple contacts 552A-552E on touch-sensitive display screen 504 by multiple intensity sensors 524A-524D. FIG. 5C additionally includes an intensity diagram showing current intensity measurements of intensity sensors 524A-524D versus intensity units. In this example, the intensity measurements of intensity sensors 524A and 524D are each 9 intensity units, and the intensity measurements of intensity sensors 524B and 524C are each 7 intensity units. In some implementations, the aggregate intensity is the sum of the intensity measurements of multiple intensity sensors 524A-524D, which in this example is 32 intensity units. In some embodiments, each contact is assigned a respective intensity that is a fraction of the aggregate intensity. FIG. 5D shows assigning aggregate strengths to contacts 552A-552E based on distance from center of force 554. FIG. In this example, contacts 552A, 552B, and 552E are each assigned a strength of contact of 8 intensity units of the aggregate strength, and contacts 552C and 552D are each assigned a strength of contact of 4 strength units of the aggregate strength. . More generally, in some implementations, each contact j is assigned a respective strength Ij that is a fraction of the aggregate strength A according to a predetermined mathematical function Ij=A·(Dj/ΣDi), where where Dj is the distance from the center of force to each contact j, and ΣDi is the sum of the distances from the center of force to all respective contacts (eg, from i=1 to the last). The operations described with reference to FIGS. 5C-5D may be performed using an electronic device similar or identical to device 100, 300 or 500. FIG. In some embodiments, the characteristic strength of contact is based on one or more strengths of contact. In some embodiments, an intensity sensor is used to determine a single characteristic intensity (eg, a single characteristic intensity of a single contact). Note that the intensity diagrams are not part of the display user interface and are included in FIGS. 5C-5D to aid the reader.

一部の実施形態では、特性強度を判定する目的のために、ジェスチャの一部分が特定される。例えば、タッチ感知面は、任意選択的に、開始場所から遷移して終了場所に到達する連続するスワイプ接触を受信し、その時点で接触の強度が増大する。この例では、終了場所での接触の特性強度は、任意選択的に、スワイプ接触全体ではなく、連続するスワイプ接触の一部分のみ(例えば、スワイプ接触のうち終了場所の部分のみ)に基づいている。一部の実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムがスワイプ接触の強度に適用される。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を判定する目的のために、スワイプ接触の強度の小幅な上昇又は降下を排除する。 In some embodiments, a portion of the gesture is identified for purposes of determining characteristic strength. For example, the touch-sensitive surface optionally receives successive swipe contacts transitioning from a starting location to reaching an ending location, at which point the contact increases in strength. In this example, the characteristic strength of the contact at the end location is optionally based on only a portion of the continuous swipe contact (eg, only the portion of the swipe contact at the end location) rather than the entire swipe contact. In some embodiments, a smoothing algorithm is optionally applied to the strength of the swipe contact prior to determining the characteristic strength of the contact. For example, the smoothing algorithm optionally includes one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and/or an exponential smoothing algorithm. In some situations, these smoothing algorithms eliminate small increases or decreases in strength of swipe contacts for purposes of determining characteristic strength.

タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押圧強度閾値、深い押圧の強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けられる。一部の実施形態では、軽い押圧の強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作をデバイスが実行する強度に相当する。一部の実施形態では、深い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作とは異なる動作をデバイスが実行する強度に相当する。一部の実施形態では、軽い押圧強度閾値を下回る(例えば、それを下回ると接触が検出されなくなる公称接触検出強度閾値を上回る)特性強度を有する接触が検出されたとき、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従ってフォーカスセレクタを動かす。一般に、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の様々なセットの間で一貫している。 The intensity of contact on the touch-sensitive surface is optionally determined by one or more intensity thresholds, such as a touch detection intensity threshold, a light press intensity threshold, a deep press intensity threshold, and/or one or more other intensity thresholds. characterized for In some embodiments, the light press intensity threshold corresponds to the intensity at which the device performs actions typically associated with clicking a physical mouse button or trackpad. In some embodiments, the deep press intensity threshold corresponds to an intensity at which the device performs a different action than is typically associated with clicking a physical mouse button or trackpad. In some embodiments, when a touch is detected with a characteristic strength below a light pressure intensity threshold (e.g., above a nominal touch detection intensity threshold below which no contact is detected), the device detects the light pressure intensity Moving the focus selector according to the movement of the contact on the touch-sensitive surface without performing the actions associated with the threshold or the deep pressure intensity threshold. In general, unless otherwise stated, these intensity thresholds are consistent between different sets of user interface diagrams.

軽い押圧強度閾値を下回る強度から、軽い押圧強度閾値と深い押圧強度閾値との間の強度への、接触の特性強度の増大は、「軽い押圧」入力と呼ばれることがある。深い押圧強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への、接触の特性強度の増大は、「深い押圧」入力と呼ばれることがある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への、接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれることがある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への、接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれることがある。一部の実施形態では、接触検出強度閾値はゼロである。一部の実施形態では、接触検出強度閾値は、ゼロより大きい。 An increase in the characteristic strength of a touch from an intensity below the light pressure threshold to an intensity between the light pressure threshold and the deep pressure threshold is sometimes referred to as a "light pressure" input. Increasing the characteristic strength of a contact from an intensity below the deep pressure threshold to an intensity above the deep pressure threshold is sometimes referred to as a "deep pressure" input. An increase in the characteristic strength of a touch from an intensity below the touch detection intensity threshold to an intensity between the touch detection intensity threshold and the light pressure intensity threshold is sometimes referred to as detecting contact on the touch surface. A decrease in the characteristic strength of the contact from an intensity above the contact detection intensity threshold to an intensity below the contact detection intensity threshold is sometimes referred to as detecting lift-off of the contact from the touch surface. In some embodiments, the contact detection strength threshold is zero. In some embodiments, the contact detection strength threshold is greater than zero.

本明細書に記載する一部の実施形態では、それぞれの押圧入力を含むジェスチャを検出したことに応答して、又はそれぞれの接触(若しくは複数の接触)によって実行されたそれぞれの押圧入力を検出したことに応答して、1つ以上の動作が実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は複数の接触)の強度の増大を検出したことに少なくとも部分的に基づいて検出される。一部の実施形態では、それぞれの動作は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大(例えば、それぞれの押圧入力の「ダウンストローク」)を検出したことに応答して実行される。一部の実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続く押圧入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応答して実行される。 Some embodiments described herein detect respective pressure inputs performed in response to detecting gestures including respective pressure inputs or by respective contact (or multiple contacts). One or more actions are performed in response to detecting a respective pressure input based at least in part on detecting an increase in the intensity of the contact (or contacts) above the pressure input intensity threshold. be done. In some embodiments, the respective action is performed in response to detecting an increase in the strength of the respective contact above a pressure input strength threshold (eg, a "downstroke" of the respective pressure input). In some embodiments, the pressure input includes an increase in strength of each contact above the pressure input strength threshold followed by a decrease in strength of the contact below the pressure input strength threshold, each action comprising a subsequent pressure Executed in response to detecting a decrease in the intensity of the respective touch below the input threshold (eg, an "upstroke" of the respective pressure input).

図5E~図5Hは、図5Eの軽い押圧強度閾値(例えば、「ITL」)を下回る強度から、図5Hの深い押圧強度閾値(例えば、「ITD」)を上回る強度への、接触562の強度の増大に対応する押圧入力を含むジェスチャの検出を示す。接触562によって実行されるジェスチャは、タッチ感知面560上で検出され、所定の領域574内に表示されたアプリケーションアイコン572A~572Dを含む表示ユーザインタフェース570上では、アプリ2に対応するアプリケーションアイコン572Bの上にカーソル576が表示される。一部の実施形態では、ジェスチャは、タッチ感知ディスプレイ504上に検出される。強度センサは、タッチ感知面560上の接触の強度を検出する。デバイスは、接触562の強度が深い押圧強度閾値(例えば、「ITD」)を上回ってピークに達したと判定する。接触562は、タッチ感知面560上で維持される。ジェスチャの検出に応答して、ジェスチャ中に深い押圧強度閾値(例えば、「ITD」)を上回る強度を有する接触562に従って、図5F~図5Hに示すように、アプリ2に対して最近開いた文書の縮尺が低減された表現578A~578C(例えば、サムネイル)が表示される。一部の実施形態では、1つ以上の強度閾値と比較されるこの強度は、接触の特性強度である。接触562に対する強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5E~図5Hに含まれていることに留意されたい。 FIGS. 5E-5H illustrate contact 562 from intensity below the light pressure intensity threshold (eg, “IT L ”) in FIG. 5E to intensity above the deep pressure intensity threshold (eg, “IT D ”) in FIG. 5H. Fig. 3 shows the detection of gestures involving press input corresponding to increasing strength of . The gesture performed by contact 562 is detected on touch-sensitive surface 560 and displayed on display user interface 570 including application icons 572A-572D displayed within predetermined area 574 of application icon 572B corresponding to App2. A cursor 576 is displayed above. In some embodiments, gestures are detected on touch-sensitive display 504 . The intensity sensor detects the intensity of contact on touch-sensitive surface 560 . The device determines that the intensity of contact 562 has peaked above a deep pressure intensity threshold (eg, “IT D ”). Contact 562 is maintained on touch sensitive surface 560 . In response to detecting the gesture, according to contact 562 having an intensity above the deep pressure intensity threshold (eg, “IT D ”) during the gesture, recently opened to app 2, as shown in FIGS. A reduced-scale representation 578A-578C (eg, a thumbnail) of the document is displayed. In some embodiments, this strength compared to one or more strength thresholds is the characteristic strength of the contact. Note that the intensity diagram for contact 562 is not part of the display user interface and is included in FIGS. 5E-5H to aid the reader.

一部の実施形態では、表現578A~578Cの表示は、アニメーションを含む。例えば、図5Fに示すように、表現578Aが、アプリケーションアイコン572Bに近接して最初に表示される。アニメーションが進むにつれて、図5Gに示すように、表現578Aは上方へ動き、表現578Bが、アプリケーションアイコン572Bに近接して表示される。次いで、図5Hに示すように、表現578Aが上方へ動き、表現578Bが表現578Aに向かって上方へ動き、表現578Cが、アプリケーションアイコン572Bに近接して表示される。表現578A~578Cは、アイコン572Bの上にアレイを形成する。一部の実施形態では、アニメーションは、図5F~図5Gに示すように、接触562の強度に従って進行し、接触562の強度が深い押圧強度閾値(例えば、「ITD」)に向かって増大するにつれて、表現578A~578Cが現れ、上方へ動く。一部の実施形態では、アニメーションの進行が基づいている強度は、接触の特性強度である。図5E~図5Hを参照して説明する動作は、デバイス100、300、又は500に類似又は同一の電子デバイスを使用して実行することができる。 In some embodiments, the display of representations 578A-578C includes animation. For example, as shown in FIG. 5F, representation 578A is first displayed in proximity to application icon 572B. As the animation progresses, representation 578A moves upward and representation 578B is displayed closer to application icon 572B, as shown in FIG. 5G. Representation 578A then moves upward, representation 578B moves upward toward representation 578A, and representation 578C is displayed proximate application icon 572B, as shown in FIG. 5H. Representations 578A-578C form an array over icon 572B. In some embodiments, the animation progresses according to the intensity of contact 562, as shown in FIGS. 5F-5G, where the intensity of contact 562 increases toward a deeper pressure intensity threshold (eg, “IT D ”). As it does so, representations 578A-578C appear and move upward. In some embodiments, the strength on which the animation progression is based is the characteristic strength of the contact. The operations described with reference to FIGS. 5E-5H may be performed using an electronic device similar or identical to device 100, 300, or 500. FIG.

一部の実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との既定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な割合である)。したがって、一部の実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続くヒステリシス強度閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応答して実行される。同様に、一部の実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、その後のヒステリシス強度以下の強度への接触の強度の減少を検出するときにのみ検出され、それぞれの動作は、押圧入力(例えば、状況に応答して、接触の強度の増大又は接触の強度の減少)を検出したことに応答して実行される。 In some embodiments, the device employs intensity hysteresis to avoid inadvertent inputs, sometimes referred to as "jitter," and the device has a hysteresis intensity threshold that has a predetermined relationship to the pressing input intensity threshold. (e.g., the hysteresis intensity threshold is X intensity units less than the pressure input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable percentage of the pressure input intensity threshold ). Thus, in some embodiments, the pressure input includes an increase in strength of each contact above a pressure input strength threshold followed by a decrease in strength of the contact below a hysteresis strength threshold corresponding to the pressure input strength threshold, Each action is performed in response to detecting a subsequent decrease in the strength of the respective contact below the hysteresis strength threshold (eg, the "upstroke" of the respective pressure input). Similarly, in some embodiments, a pressure input causes the device to increase the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, and optionally thereafter a pressure below the hysteresis intensity. Each action is detected only when it detects a decrease in the strength of contact to the strength of the touch, and that each motion detected a pressing input (e.g., increasing the strength of the contact or decreasing the strength of the contact in response to the situation). is executed in response to

説明を容易にするために、押圧入力強度閾値に関連付けられた押圧入力、又は押圧入力を含むジェスチャに応答して実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応答してトリガされる。更に、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応答して実行されるように動作が記載される例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応答して実行される。 For ease of explanation, descriptions of actions performed in response to a pressure input associated with a pressure input intensity threshold, or a gesture including a pressure input, are optionally limited to those of a contact above the pressure input intensity threshold. an increase in intensity, an increase in intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, a decrease in intensity of the contact below the pressure input intensity threshold, and/or a hysteresis intensity corresponding to the pressure input intensity threshold. Triggered in response to detecting any decrease in the intensity of the touch below the threshold. Further, in examples in which actions are described as being performed in response to detecting a decrease in the intensity of contact below a pressure input intensity threshold, the actions optionally correspond to the pressure input intensity threshold, and in response to detecting a decrease in the intensity of the touch below a lower hysteresis intensity threshold.

次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実装されるユーザインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。 Attention is now directed to embodiments of user interfaces (“UIs”) and related processes implemented on an electronic device such as portable multifunction device 100 , device 300 or device 500 .

図6A~図6Hは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図7のプロセスを含む後述のプロセスを例示するために使用される。 6A-6H illustrate exemplary user interfaces for performing gestural media capture, according to some embodiments. The user interfaces of these figures are used to illustrate the processes described below, including the process of FIG.

例示的なメディアロックアフォーダンス Exemplary Media Lock Affordances

本開示は、グラフィカルユーザインタフェース(GUI)上のメディアキャプチャアフォーダンスをロックして、連続的なメディアキャプチャのためのロックされたメディアキャプチャ状態にするメディアキャプチャデバイスのメディア記録機能に関する。一実施形態では、メディアクリップ(例えば、ビデオクリップ、オーディオクリップ)のメディアキャプチャセッションを開始するために、ユーザは、メディアキャプチャアフォーダンス(例えば、仮想記録ボタン)をタップして保持(タップアンドホール)する。ユーザがメディアキャプチャアフォーダンス上でタッチを保持する限り、メディアは、メディアキャプチャデバイスによってキャプチャされ続ける。ユーザがメディアキャプチャセッション中にタッチを取り去ると、メディアキャプチャセッションは終了する。ユーザが、指でスライディングジェスチャを行っている間、メディアキャプチャアフォーダンス上でタッチを維持する場合、メディアキャプチャアフォーダンスは、ロックされたメディアキャプチャアフォーダンスに視覚的に変化し、メディアキャプチャセッションが維持され、結果的にメディアが連続記録されることになる。一実施形態では、ロックされたメディアキャプチャアフォーダンスは、ユーザの指によって覆い隠されないように、ユーザの指の下方に移動する。ユーザは、ロックされたメディアキャプチャアフォーダンスから指を取り去ることができ、メディアキャプチャセッションは、ユーザがロック状態キャプチャボタンをタップするまで維持され、その後、メディアキャプチャセッションが終了する。 The present disclosure relates to media recording functionality of a media capture device that locks media capture affordances on a graphical user interface (GUI) into a locked media capture state for continuous media capture. In one embodiment, a user taps and holds a media capture affordance (e.g., a virtual record button) to initiate a media capture session for a media clip (e.g., video clip, audio clip). . As long as the user holds touch on the media capture affordance, media continues to be captured by the media capture device. When the user removes the touch during a media capture session, the media capture session ends. If the user maintains touch on the media capture affordance while performing the sliding finger gesture, the media capture affordance visually changes to a locked media capture affordance, the media capture session is maintained, and the result Therefore, the media is recorded continuously. In one embodiment, the locked media capture affordance moves under the user's finger so that it is not obscured by the user's finger. The user can remove their finger from the locked media capture affordance and the media capture session is maintained until the user taps the locked capture button, after which the media capture session ends.

図6A~図6Hは、一実施形態による、メディアキャプチャロックアフォーダンスの動作を示す。図6Aを参照すると、メディアキャプチャデバイス600は、ディスプレイスクリーン上にGUI601を提示している。GUI601はメディアキャプチャアフォーダンス602を含む。メディアキャプチャデバイス600は、この例示的な実施形態ではスマートフォンとして示されている。しかし、メディアキャプチャデバイス600は、タブレットコンピュータ、ウェアラブルコンピュータ、デジタルカメラ、ビデオレコーダ、及びオーディオ記録デバイスを含む、メディアをキャプチャすることができる任意の電子デバイスであってもよい。一部の実施形態では、メディアキャプチャデバイス600は、デバイス100、デバイス300、又はデバイス500の1つ以上の特徴を含む。メディアキャプチャアフォーダンス602は、任意の所望の形状、サイズ、又は色を有することができる。図示の例では、メディアキャプチャアフォーダンス602は楕円形のボタンである。GUI601はまた、ライブメディアを表示し、キャプチャされたメディアを再生するための表示領域も含む。メディアは、ビデオ、静止画像及びオーディオ、又はこれらの任意の組み合わせを含む、キャプチャされ得る任意のタイプのメディアとすることができる。 Figures 6A-6H illustrate the operation of media capture lock affordances, according to one embodiment. Referring to FIG. 6A, media capture device 600 presents GUI 601 on its display screen. GUI 601 includes media capture affordances 602 . Media capture device 600 is shown as a smart phone in this exemplary embodiment. However, media capture device 600 may be any electronic device capable of capturing media, including tablet computers, wearable computers, digital cameras, video recorders, and audio recording devices. In some embodiments, media capture device 600 includes one or more features of device 100 , device 300 , or device 500 . Media capture affordance 602 can have any desired shape, size, or color. In the illustrated example, media capture affordance 602 is an oval button. GUI 601 also includes a display area for displaying live media and playing captured media. Media can be any type of media that can be captured, including video, still images and audio, or any combination thereof.

図6Bを参照すると、ユーザは、指で(例えば、メディアキャプチャデバイス600を保持しながら親指で)メディアキャプチャアフォーダンス602をタップアンドホールド603(破線円として示される)して、「アンロック」状態でのメディアキャプチャセッションを開始する。メディアキャプチャセッション中、組み込まれたビデオカメラ及び/又は1つ以上のマイクロフォンはメディアをキャプチャする(例えば、ビデオ及びオーディオをキャプチャする)。メディアキャプチャセッションが「アンロック」され、これは、ユーザが、メディアキャプチャアフォーダンス602から指をリフトした(持ち上げた)(ディスプレイスクリーンから指をリフトオフした)場合、メディアキャプチャセッションが終了し、メディアがメディアキャプチャデバイス600に記憶される(例えば、キャッシュメモリに記憶される)ことを意味する。視覚的方向インジケータ604a(例えば、矢印の先端)がGUI601上に表示され、メディアキャプチャセッションを「ロック」状態に遷移させるためにユーザが指をスライドさせ得る方向を示す。「ロック」状態にある間、メディアは中断せずに連続的にキャプチャされる。例えば、ビデオ及びオーディオは記録を継続し、静止画像は「バースト」モードで撮影されるであろう。ユーザに「連続記録のためにスライドアップしてください」と指示するテキストもGUI601上に表示される。 Referring to FIG. 6B, the user taps and holds 603 (shown as a dashed circle) the media capture affordance 602 with a finger (e.g., with a thumb while holding the media capture device 600) in an "unlocked" state. start a media capture session. During a media capture session, an embedded video camera and/or one or more microphones capture media (eg, capture video and audio). The media capture session is "unlocked", which means that if the user lifts a finger from the media capture affordance 602 (lifts the finger off the display screen), the media capture session ends and the media Means stored in the capture device 600 (eg, stored in a cache memory). A visual directional indicator 604a (eg, an arrowhead) is displayed on the GUI 601 to indicate the direction in which the user may slide his finger to transition the media capture session to the "locked" state. While in the "locked" state, media is captured continuously without interruption. For example, video and audio will continue to record and still images will be captured in "burst" mode. Text is also displayed on the GUI 601 instructing the user to "slide up for continuous recording."

一部の実施形態では、キャプチャされたメディア(以下、「メディアクリップ」とも呼ばれる)をユーザが再生する、順序を変える、フィルタリングする、当該メディアクリップに対して絵文字、アニメーションアイコン、及びタイトルを追加することを可能にするための追加のアフォーダンス(図示せず)がGUI601上に含まれる。他のアフォーダンスにより、ユーザは、メディアクリップをソーシャルネットワーキングウェブサイトで間接的に共有すること、並びに様々な通信手段(例えば、インスタントメッセージング、電子メール、ツイート)を通じて友人及び家族に直接共有することが可能になる。図示の実施形態では、ユーザがカメラ、ライブラリ、及びポスターなどの動作モードを選択することを可能にするナビゲーションバーは、メディア表示領域の下に位置している。 In some embodiments, the user plays, reorders, filters, and adds emojis, animated icons, and titles to the captured media (hereinafter also referred to as "media clips"). Additional affordances (not shown) are included on the GUI 601 to enable Other affordances allow users to share media clips indirectly on social networking websites, as well as directly to friends and family through various means of communication (e.g., instant messaging, email, tweets). become. In the illustrated embodiment, a navigation bar that allows the user to select operating modes such as camera, library, and poster is located below the media display area.

図6Cを参照すると、メディアキャプチャアフォーダンス602がメディアキャプチャエリアに向かってスライドアップすることになる、ユーザのスライドジェスチャ入力を示す。スライドジェスチャ入力中、ユーザの指はディスプレイスクリーンとの接触は中断しないことに留意されたい。 Referring to FIG. 6C, it shows a user slide gesture input that causes the media capture affordance 602 to slide up towards the media capture area. Note that the user's fingers do not break contact with the display screen during slide gesture input.

図6D~図6Gを参照すると、ユーザがメディアキャプチャアフォーダンス602を所定距離スライドアップすると、メディアキャプチャアフォーダンス602は、メディアキャプチャロックアフォーダンス605に変化又はモーフィングし、図6Fに示すように、「ロック」状態を視覚的に示す。メディア表示領域の下のテキストも変化し、ユーザに、例えば、「記録を停止するためのタップしてください」のような、「ロック」状態をどのように停止させるかをユーザに指示する。メディアキャプチャロックアフォーダンス605は、任意のサイズ、形状、又は色であってもよい。図示の例では、メディアキャプチャロックアフォーダンス605は、正方形のボタンである。メディアキャプチャアフォーダンス602からメディアキャプチャロックアフォーダンス605への変化又はモーフィング後、ユーザが指をリフトしてディスプレイスクリーンとの接触を中断する場合、メディアキャプチャセッションは「ロック」状態に移行する。「ロック」状態では、メディアキャプチャセッションは、ユーザがメディアキャプチャロックアフォーダンス605(図6G)をタップ606するまでメディアキャプチャを継続し、その場合メディアキャプチャセッションは終了する。代替的実施形態では、視覚的方向インジケータ604aは、ボタントラック604b(図6H)と取り替えられており、ユーザが「ロック」状態に移行するためにメディアキャプチャアフォーダンス602をスライドすべき距離をユーザに示すことができる。 6D-6G, when the user slides up the Media Capture Affordance 602 a predetermined distance, the Media Capture Affordance 602 changes or morphs into a Media Capture Lock Affordance 605, resulting in a "locked" state, as shown in FIG. 6F. visually indicate. The text below the media display area also changes to instruct the user how to stop the "locked" state, for example, "tap to stop recording". Media capture lock affordance 605 may be of any size, shape, or color. In the illustrated example, the media capture lock affordance 605 is a square button. After changing or morphing from Media Capture Affordance 602 to Media Capture Lock Affordance 605, if the user lifts their finger to break contact with the display screen, the media capture session transitions to a "locked" state. In the "locked" state, the media capture session continues media capture until the user taps 606 the media capture lock affordance 605 (FIG. 6G), in which case the media capture session ends. In an alternative embodiment, visual direction indicator 604a is replaced with button track 604b (Fig. 6H) to indicate to the user the distance the user should slide media capture affordance 602 to transition to the "locked" state. be able to.

他の実施形態では、単一タップの代わりに複数のタップを使用してもよい。スライドジェスチャ入力の方向は、上、下、右、及び左を含む、GUI601上の任意の方向であってもよい。メディアキャプチャセッションがロックされたとき、及びアンロックされたときを示すために、「クリック」効果音などの、効果音を、タップアンドスライドジェスチャと同期して再生することができる。一実施形態では、メディアキャプチャセッションがロックされたとき、及びアンロックされたときを示すために、触覚エンジンによって力フィードバック(例えば、振動)を提供することができる。アフォーダンス602、606は、GUI601上の任意の所望の場所に配置することができ、縦向き及び横向きなどのメディアキャプチャデバイス600の向きに応じて、位置、サイズ、及び/又は形状を変更することができる。一実施形態では、ユーザは、メディアキャプチャデバイス600内に実装された発話検出/認識エンジンによって処理される、音声コマンドを用いて、ロックされたメディアキャプチャ状態に移行すること、又はそれから移行することができる。 In other embodiments, multiple taps may be used instead of a single tap. The direction of slide gesture input may be any direction on the GUI 601, including up, down, right, and left. Sound effects, such as a "click" sound effect, can be played in sync with the tap-and-slide gesture to indicate when the media capture session is locked and unlocked. In one embodiment, force feedback (eg, vibration) can be provided by the haptic engine to indicate when the media capture session is locked and unlocked. Affordances 602, 606 can be placed anywhere desired on GUI 601 and can change position, size, and/or shape depending on the orientation of media capture device 600, such as portrait and landscape. can. In one embodiment, the user can transition to or from the locked media capture state using voice commands processed by a speech detection/recognition engine implemented within the media capture device 600. can.

例示的なプロセス Exemplary process

図7は、一実施形態による、図6A~図6Hに示したメディアキャプチャロックアフォーダンスのアニメーションプロセスのフロー図である。プロセス700は、図8を参照して説明するデバイスのアーキテクチャ800を用いて実装することができる。プロセス700は、デバイス(例えば、100、300、500、800)において実行される。方法700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 FIG. 7 is a flow diagram of an animation process for the media capture lock affordance shown in FIGS. 6A-6H, according to one embodiment. Process 700 may be implemented using device architecture 800 described with reference to FIG. Process 700 runs on a device (eg, 100, 300, 500, 800). Some acts of method 700 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

プロセス700は、メディアキャプチャデバイスのディスプレイデバイス上に提示されたGUIの第1の場所のメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を受け取ることで開始する(701)。メディアキャプチャアフォーダンスは、任意のサイズ、形状、又は色であってもよい。第1の場所は、GUI上の任意の所望の場所であってもよい。タップアンドホールドジェスチャ入力に応答して、プロセス700は、メディアキャプチャデバイス上でメディアキャプチャセッションを開始し、その場合、メディアキャプチャセッションは、「アンロック」状態で開始される(702)。第1の場所での第1のリフトジェスチャに応答して、プロセス700は、メディアキャプチャセッションを終了させる(703)。 Process 700 begins with receiving a tap-and-hold gesture input targeted to a media capture affordance at a first location in a GUI presented on a display device of a media capture device (701). Media capture affordances may be of any size, shape, or color. The first location may be any desired location on the GUI. In response to the tap-and-hold gesture input, process 700 initiates a media capture session on the media capture device, where the media capture session is initiated in an "unlocked" state (702). In response to the first lift gesture at the first location, process 700 terminates the media capture session (703).

GUI上の第1の場所から第2の場所へのスライドジェスチャ入力に応答して、プロセス700は、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更する(704)。メディアキャプチャロックアフォーダンスは、任意のサイズ、形状、又は色であってもよい。第2の場所は、第1の場所以外のGUI上の所望の場所とすることができる。スライドジェスチャは、上、下、左、及び右を含む任意の所望の方向であってもよい。 In response to a slide gesture input from a first location to a second location on the GUI, process 700 changes 704 the media capture affordance to the media capture lock affordance. A media capture lock affordance may be of any size, shape, or color. The second location can be any desired location on the GUI other than the first location. A slide gesture may be in any desired direction, including up, down, left, and right.

第2の場所で第2のリフトジェスチャを検出したことに応答して、プロセス700は、メディアキャプチャセッションをアンロック状態からロック状態に遷移させる(705)。ロック状態では、メディアキャプチャデバイスは、ユーザがメディアキャプチャロックアフォーダンスをタップしてメディアキャプチャセッションを終了させるまで、メディアを連続的にキャプチャする。一実施形態では、ユーザは、第2のリフトジェスチャの後にメディアキャプチャセッションを終了させるためにGUI上の任意の場所をタップすることができ、又はメディアキャプチャデバイス上の機械的ボタン(例えば、スマートフォン上のホームボタン)を押すことができる。 In response to detecting the second lift gesture at the second location, the process 700 transitions 705 the media capture session from the unlocked state to the locked state. In the locked state, the media capture device continuously captures media until the user taps the media capture lock affordance to end the media capture session. In one embodiment, the user can tap anywhere on the GUI to end the media capture session after the second lift gesture, or a mechanical button on the media capture device (e.g. home button) can be pressed.

方法700に関して上記した処理の詳細(例えば、図7)は、以下に説明される方法にも同様の方法で適用可能であることに留意されたい。例えば、方法700は、方法1100を参照して後述する様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the processing details described above with respect to method 700 (eg, FIG. 7) are applicable in a similar manner to the methods described below. For example, method 700 optionally includes one or more of the various method features described below with reference to method 1100 . For the sake of brevity, these details are not repeated below.

例示的なモバイルデバイスのアーキテクチャ An exemplary mobile device architecture

図8は、図6及び図7を参照して説明したメディアキャプチャロックアフォーダンスを実装するモバイルデバイスの例示的なメディアキャプチャデバイスのアーキテクチャ800を示す。アーキテクチャ800は、メモリインタフェース802、1つ以上のデータプロセッサ、画像プロセッサ、及び/又はプロセッサ804、並びに周辺機器インタフェース806を含み得る。メモリインタフェース802、1つ以上のプロセッサ804、及び/又は周辺機器インタフェース806は、別個の構成要素としてもよく、あるいは1つ以上の集積回路内に集積されてもよい。アーキテクチャ800内の様々な構成要素は、1つ以上の通信バス又は信号線によって結合することができる。 FIG. 8 illustrates an exemplary media capture device architecture 800 for a mobile device that implements the media capture lock affordances described with reference to FIGS. Architecture 800 may include memory interface 802 , one or more data processors, image processors, and/or processors 804 , and peripherals interface 806 . Memory interface 802, one or more processors 804, and/or peripheral interface 806 may be separate components or may be integrated within one or more integrated circuits. Various components within architecture 800 may be coupled by one or more communication buses or signal lines.

センサ、デバイス、及びサブシステムを周辺機器インタフェース806に結合することにより、多機能性を促進することができる。例えば、1つ以上の動きセンサ810、光センサ812、及び近接センサ814を周辺機器インタフェース806に結合して、モバイルデバイスの動き感知(例えば、加速度、回転速度)、光及び近接機能を促進することができる。位置プロセッサ815は、周辺機器インタフェース806に接続され、無線位置測定を行うことができる。一部の実装形態では、位置プロセッサ815は、全地球測位システム(Global Positioning System、GPS)受信機チップなどのGNSS受信機であり得る。電子磁気計816(例えば、集積回路チップ)はまた、周辺機器インタフェース806に接続され、磁北の方向を決定するために使用できるデータを提供することができる。電子磁気計816は、データを電子コンパスアプリケーションに提供できる。動きセンサ(単数又は複数)810は、モバイルデバイスの移動の速度及び方向の変化を判定するように構成された1つ以上の加速度計及び/又はジャイロを含み得る。気圧計817は、モバイルデバイス周辺の大気圧を測定するように構成することができる。 Coupling sensors, devices, and subsystems to the peripherals interface 806 can facilitate versatility. For example, coupling one or more of motion sensor 810, light sensor 812, and proximity sensor 814 to peripherals interface 806 to facilitate motion sensing (e.g., acceleration, rotational speed), light and proximity capabilities of the mobile device. can be done. A location processor 815 is connected to the peripherals interface 806 and is capable of making wireless location measurements. In some implementations, the position processor 815 may be a GNSS receiver, such as a Global Positioning System (GPS) receiver chip. An electronic magnetometer 816 (eg, an integrated circuit chip) can also be connected to the peripherals interface 806 to provide data that can be used to determine the direction of magnetic north. An electronic magnetometer 816 can provide data to an electronic compass application. Motion sensor(s) 810 may include one or more accelerometers and/or gyros configured to determine changes in speed and direction of movement of the mobile device. A barometer 817 can be configured to measure the atmospheric pressure around the mobile device.

カメラサブシステム820及び光学センサ822、例えば、電荷結合素子(CCD)又は相捕型金属酸化膜半導体(CMOS)光学センサを利用して、写真のキャプチャ及びビデオクリップの記録などのカメラ機能を容易にすることができる。 A camera subsystem 820 and an optical sensor 822, such as a charge-coupled device (CCD) or complementary metal oxide semiconductor (CMOS) optical sensor, are utilized to facilitate camera functions such as capturing pictures and recording video clips. can do.

通信機能は、1つ以上の無線通信サブシステム824を通じて、促進することができ、それらのサブシステムとしては、高周波(RF)受信機及び送信機(又は送受信機)、並びに/あるいは光学(例えば、赤外線)受信機及び送信機を挙げることができる。通信サブシステム824の具体的な設計及び実装は、このモバイルデバイスが動作することを目的とする、通信ネットワーク(単数又は複数)次第であり得る。例えば、アーキテクチャ800は、GSMネットワーク、GPRSネットワーク、EDGEネットワーク、Wi-Fi(商標)又はWi-Max(商標)ネットワーク、及びBluetooth(商標)ネットワーク上で動作するように設計された通信サブシステム824を含み得る。特に、無線通信サブシステム824は、このモバイルデバイスを、他の無線デバイスのための基地局として構成できるようなホスティングプロトコルを含むことができる。 Communication functions can be facilitated through one or more wireless communication subsystems 824, including radio frequency (RF) receivers and transmitters (or transceivers), and/or optical (e.g., infrared) receivers and transmitters. The specific design and implementation of communication subsystem 824 may depend on the communication network(s) in which this mobile device is intended to operate. For example, architecture 800 includes communication subsystem 824 designed to operate over GSM, GPRS, EDGE, Wi-Fi™ or Wi-Max™ networks, and Bluetooth™ networks. can contain. In particular, wireless communication subsystem 824 can include hosting protocols that allow this mobile device to be configured as a base station for other wireless devices.

オーディオサブシステム826をスピーカ828及びマイクロフォン830に結合することにより、音声認識機能、音声複製機能、デジタル録音機能、及び電話機能などの音声使用可能な機能を容易にすることができる。オーディオサブシステム826は、ユーザから音声コマンドを受信するように構成することができる。 Audio subsystem 826 may be coupled to speaker 828 and microphone 830 to facilitate voice-enabled functions such as voice recognition, voice replication, digital recording, and telephony functions. Audio subsystem 826 may be configured to receive voice commands from a user.

I/Oサブシステム840は、タッチ面コントローラ842及び/又は他の入力コントローラ(単数又は複数)844を含み得る。タッチ面コントローラ842は、タッチ面846又はパッドに結合することができる。タッチ面846及びタッチ面コントローラ842は、例えば、複数のタッチ感度技術のうちのいずれかを使用して、接触及び移動を検出することも、又は接触及び移動の中断を検出することもできる。タッチ感度技術としては、静電容量技術、抵抗性技術、赤外線技術、及び表面弾性波技術に加えて、タッチ面846との1つ以上の接触点を判定するための、他の近接センサアレイ又は他の要素が挙げられるが、これらに限定されない。タッチ面846は、例えば、タッチスクリーンを含むことができる。I/Oサブシステム840は、プロセッサからのコマンドに応答して、触知フィードバック(例えば、振動)を提供するための触覚エンジン又はデバイスを含むことができる。 I/O subsystem 840 may include touch surface controller 842 and/or other input controller(s) 844 . A touch surface controller 842 may be coupled to a touch surface 846 or pad. Touch surface 846 and touch surface controller 842 can detect contact and movement, or discontinuance of contact and movement, using any of a number of touch-sensitive techniques, for example. Touch-sensitive technologies include capacitive, resistive, infrared, and surface acoustic wave technologies, as well as other proximity sensor arrays or sensors for determining one or more points of contact with the touch surface 846. Other factors include, but are not limited to. Touch surface 846 can include, for example, a touch screen. The I/O subsystem 840 may include a haptic engine or device for providing tactile feedback (eg, vibration) in response to commands from the processor.

他の入力コントローラ(単数又は複数)844は、1つ以上のボタン、ロッカースイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御デバイス848に結合することができる。1つ以上のボタン(図示せず)は、スピーカ828及び/又はマイクロフォン830の音量コントロールのための上下ボタンを含むことができる。タッチ面846又は他のコントローラ844(例えば、ボタン)は、指紋(単数又は複数)に基づいてユーザを認証するために、指紋認証アプリケーションと共に使用するための指紋識別回路を含むことができる、又はそれと結合することができる。 Other input controller(s) 844 couple to other input/control devices 848, such as one or more buttons, rocker switches, thumbwheels, infrared ports, USB ports, and/or pointer devices such as styluses. can do. One or more buttons (not shown) may include up and down buttons for volume control of speaker 828 and/or microphone 830 . The touch surface 846 or other controllers 844 (e.g., buttons) may include or include fingerprint identification circuitry for use with fingerprint authentication applications to authenticate a user based on fingerprint(s). can be combined.

一実装形態では、第1の持続時間でボタンを押すことにより、タッチ面846のロックを解除することができ、第1の持続時間よりも長い第2の持続時間でボタンを押すことにより、モバイルデバイスへの電源をオン/オフすることができる。ユーザは、1つ以上のボタンの機能をカスタマイズすることができる。また、タッチ面846を使用して、例えば、仮想ボタン若しくはソフトボタン、及び/又は仮想タッチキーボードを実装することもできる。 In one implementation, pressing the button for a first duration can unlock the touch surface 846, and pressing the button for a second duration that is longer than the first duration unlocks the mobile device. Power to the device can be turned on/off. A user can customize the functionality of one or more buttons. The touch surface 846 can also be used to implement, for example, virtual or soft buttons and/or a virtual touch keyboard.

一部の実装形態では、このモバイルデバイスは、MP3ファイル、AACファイル、及びMPEGファイルなどの記録されたオーディオファイル及び/又はビデオファイルを提示することができる。一部の実装形態では、このモバイルデバイスは、MP3プレーヤの機能性を含み得る。また、他の入出力及び制御デバイスも使用できる。 In some implementations, the mobile device can present recorded audio and/or video files such as MP3 files, AAC files, and MPEG files. In some implementations, the mobile device may include MP3 player functionality. Other input/output and control devices can also be used.

メモリインタフェース802は、メモリ850に結合することができる。メモリ850は、高速のランダムアクセスメモリ、並びに/あるいは、1つ以上の磁気ディスク記憶デバイス、1つ以上の光学記憶デバイス、及び/又はフラッシュメモリ(例えば、NAND、NOR)などの不揮発性メモリを含み得る。メモリ850は、iOS、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS、又はVxWorksなどの組み込みオペレーティングシステムなどのオペレーティングシステム852を記憶することができる。オペレーティングシステム852は、基本システムサービスを処理するための命令、及びハードウェア依存タスクを実行するための命令を含み得る。一部の実装形態では、オペレーティングシステム852は、カーネル(例えば、UNIXカーネル)を含み得る。 Memory interface 802 can be coupled to memory 850 . Memory 850 includes high speed random access memory and/or non-volatile memory such as one or more magnetic disk storage devices, one or more optical storage devices, and/or flash memory (eg, NAND, NOR). obtain. Memory 850 may store an operating system 852 such as an embedded operating system such as iOS, Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, or VxWorks. Operating system 852 may include instructions for handling basic system services and for performing hardware dependent tasks. In some implementations, operating system 852 may include a kernel (eg, a UNIX kernel).

メモリ850はまた、1つ以上の追加のデバイス、1つ以上のコンピュータ、及び/又は1つ以上のサーバとの通信を促進するための通信命令854、例えば、他のデバイスとの有線通信又は無線通信のためのソフトウェアスタックを実装するための命令なども記憶できる。メモリ850は、図6及び図7を参照して説明したグラフィカルユーザインタフェース処理を容易にするためのグラフィカルユーザインタフェース命令856と、センサ関連の処理及び機能を容易にするためのセンサ処理命令858と、電話関連の処理及び機能を容易にするための電話命令860と、電子メッセージング関連の処理及び機能を容易にするための電子メッセージング命令862と、ウェブブラウジング関連の処理及び機能を容易にするためのウェブブラウジング命令864と、メディア処理関連の処理及び機能を容易にするためのメディア処理命令866と、包括的なGNSS及び位置関連の処理及び命令を容易にするためのGNSS/場所命令868と、図6及び図7を参照して説明したカメラ関連の処理及び機能を容易にするカメラ命令870と、他のアプリケーション872命令と、を含んでもよい。メモリ850はまた、セキュリティ命令、ウェブビデオ関連の処理及び機能を促進するためのウェブビデオ命令、並びに/又は、ウェブショッピング関連の処理及び機能を促進するためのウェブショッピング命令など、他のソフトウェア命令(図示せず)を記憶することができる。一部の実装形態では、メディア処理命令866を、オーディオ処理関連の処理及び機能を容易にするためのオーディオ処理命令と、ビデオ処理関連の処理及び機能を容易にするためのビデオ処理命令とに、それぞれ分割することができる。 Memory 850 also includes communication instructions 854 for facilitating communication with one or more additional devices, one or more computers, and/or one or more servers, e.g., wired or wireless communication with other devices. Instructions for implementing a software stack for communication, etc. can also be stored. Memory 850 includes graphical user interface instructions 856 for facilitating graphical user interface processing described with reference to FIGS. 6 and 7, sensor processing instructions 858 for facilitating sensor-related processing and functions, Telephony instructions 860 for facilitating telephony-related processes and functions; electronic messaging instructions 862 for facilitating electronic messaging-related processes and functions; and web instructions for facilitating web-browsing-related processes and functions. browsing instructions 864; media processing instructions 866 for facilitating media processing-related processing and functions; GNSS/location instructions 868 for facilitating comprehensive GNSS and location-related processing and instructions; and may include camera instructions 870 and other application instructions 872 that facilitate camera-related processing and functions described with reference to FIG. Memory 850 may also store other software instructions, such as security instructions, web video instructions to facilitate web video-related processes and functions, and/or web shopping instructions to facilitate web shopping-related processes and functions. (not shown) can be stored. In some implementations, media processing instructions 866 are divided into audio processing instructions for facilitating audio processing-related processing and functions and video processing instructions for facilitating video processing-related processing and functions. Each can be divided.

一実施形態では、図6及び図7を参照して説明したタップ、スライド、及びリフトジェスチャが、メディアキャプチャデバイス800上のソフトウェアに実装されたタッチイベントモデルを用いて検出される。例示的なタッチイベントモデルは、その全体が参照により本明細書に組み込まれる、2013年10月15日に発行の「Touch Event Model」と題された米国特許第8,560,975号に記載されている。 In one embodiment, the tap, slide, and lift gestures described with reference to FIGS. 6 and 7 are detected using a touch event model implemented in software on media capture device 800 . An exemplary touch event model is described in U.S. Patent No. 8,560,975, entitled "Touch Event Model," issued Oct. 15, 2013, which is incorporated herein by reference in its entirety. ing.

上記で特定された命令及びアプリケーションのそれぞれは、上記1つ以上の機能を実行する命令セットに対応し得る。これらの命令は、別個のソフトウェアプログラム、手順、又はモジュールとして実装する必要がない。メモリ850に追加の命令を含めてもよいし、又は含まれている命令を減らしてもよい。更にまた、モバイルデバイスの様々な機能は、1つ以上の信号処理及び/又は特定用途向け集積回路を含むハードウェア及び/又はソフトウェアに実装できる。 Each of the instructions and applications identified above may correspond to a set of instructions for performing one or more functions described above. These instructions need not be implemented as separate software programs, procedures, or modules. Additional instructions or fewer instructions may be included in memory 850 . Furthermore, various functions of the mobile device can be implemented in hardware and/or software, including one or more signal processing and/or application specific integrated circuits.

記載された機能は、有利なことに、データストレージシステム、少なくとも1つの入力デバイス、及び少なくとも1つの出力機器からのデータ及び命令を受信し、並びにこれらにデータ及び命令を送信するように結合された少なくとも1つのプログラム可能プロセッサを含む、プログラム可能システム上で実行可能な1つ以上のコンピュータプログラム内に実装できる。コンピュータプログラムは、特定の行動を実行するか、又は特定の結果をもたらすために、コンピュータ内で直接的又は間接的に使用することができる命令セットである。コンピュータプログラムは、コンパイル型言語又はインタプリタ型言語を含む、任意の形態のプログラミング言語(例えば、SWIFT(登録商標)、Objective-C、C#、Java)で書くことができ、スタンドアロンプログラム若しくはモジュール、コンポーネント、サブルーチン、ブラウザベースウェブアプリケーション、又はコンピューティング環境で使用するのに好適な他のユニットを含む、任意の形態で配布され得る。 The described functionality is advantageously coupled to receive data and instructions from and to transmit data and instructions to a data storage system, at least one input device, and at least one output device It can be implemented in one or more computer programs executable on a programmable system, including at least one programmable processor. A computer program is a set of instructions that can be used, directly or indirectly, in a computer to perform a certain action or bring about a certain result. Computer programs can be written in any form of programming language (e.g., SWIFT® , Objective-C, C#, Java), including compiled or interpreted languages, stand-alone programs or modules, components , subroutines, browser-based web applications, or other units suitable for use in a computing environment.

命令のプログラムの実行に好適なプロセッサには、例として、汎用マイクロプロセッサ及び専用マイクロプロセッサの両方、並びに任意の種類のコンピュータの、ソールプロセッサ、又は複数のプロセッサ若しくはコアのうちの1つ、が含まれる。一般的に、プロセッサは、読み出し専用メモリ若しくはランダムアクセスメモリ、又はその両方から命令及びデータを受信する。コンピュータの必須要素は、命令を実行するプロセッサ、並びに命令及びデータを保存する1つ以上のメモリである。一般に、コンピュータはまた、データファイルを記憶するための1つ以上の大容量記憶デバイスを含むか、又はそれらと通信するように動作可能に結合され、そのようなデバイスとしては、内蔵ハードディスク及びリムーバブルディスクなどの磁気ディスク、光磁気ディスク、及び光学ディスクが挙げられる。コンピュータプログラム命令及びデータを明確に具体化するのに適した記憶デバイスには、例として、EPROM、EEPROM、フラッシュメモリデバイスなどの半導体メモリデバイス、内蔵ハードディスク及びリムーバブルディスクなどの磁気ディスク、光磁気ディスク、並びにCD-ROM及びDVD-ROMディスク、を含む、全ての形態の不揮発性メモリが含まれる。プロセッサ及びメモリは、ASIC(特定用途向け集積回路)によって補完されるか、又はその中に組み込まれてもよい。 Processors suitable for executing a program of instructions include, by way of example, both general and special purpose microprocessors, as well as a sole processor or one of multiple processors or cores of any kind of computer. be Generally, a processor receives instructions and data from read-only memory, random-access memory, or both. The essential elements of a computer are a processor, which executes instructions, and one or more memories, which store instructions and data. Generally, a computer will also include, or be operably coupled in communication with, one or more mass storage devices for storing data files, such devices including internal hard disks and removable disks. magnetic discs, magneto-optical discs, and optical discs. Storage devices suitable for tangibly embodying computer program instructions and data include, by way of example, semiconductor memory devices such as EPROM, EEPROM and flash memory devices; magnetic disks such as internal hard disks and removable disks; magneto-optical disks; and all forms of non-volatile memory, including CD-ROM and DVD-ROM disks. The processor and memory may be supplemented by or embedded in an ASIC (Application Specific Integrated Circuit).

ユーザとの対話を行うために、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ、あるいはユーザに情報を表示するための網膜表示デバイスなどの表示デバイスを有するコンピュータに、特徴を実装することができる。コンピュータは、タッチ面の入力デバイス(例えば、タッチスクリーン)又はキーボード、及びユーザがコンピュータへの入力を行うことができるマウス又はトラックボールなどのポインティングデバイスを有することができる。コンピュータは、ユーザからの音声コマンドを受信するための音声入力デバイスを有することができる。 Features can be implemented in a computer having a display device such as a CRT (cathode ray tube) or LCD (liquid crystal display) monitor, or a retinal display device for displaying information to a user, for interaction with a user. . A computer may have a touch surface input device (eg, a touch screen) or keyboard, and a pointing device such as a mouse or trackball that allows a user to provide input to the computer. A computer may have a voice input device for receiving voice commands from a user.

特徴は、データサーバなどのバックエンドコンポーネントを含むコンピュータシステム、又はアプリケーションサーバ若しくはインターネットサーバなどのミドルウェア構成要素を含むコンピュータシステム、又はグラフィカルユーザインタフェース若しくはインターネットブラウザを有するクライアントコンピュータなどのフロントエンド構成要素、若しくはそれらの任意の組み合わせを含むコンピュータシステム内に実装されてもよい。システムの構成要素は、通信ネットワークなどの、デジタルデータ通信の任意の形態又は媒体によって接続されてもよい。通信ネットワークの例には、例えば、LAN、WAN、並びにインターネットを形成するコンピュータ及びネットワークが含まれる。 A feature may be a computer system including back-end components such as a data server, or a computer system including middleware components such as an application server or Internet server, or a front-end component such as a client computer with a graphical user interface or Internet browser, or It may be implemented in a computer system including any combination thereof. The components of the system may be connected by any form or medium of digital data communication such as a communication network. Examples of communication networks include, for example, LANs, WANs, and the computers and networks that make up the Internet.

コンピュータシステムは、クライアント及びサーバを含むことができる。一般的に、クライアント及びサーバは、互いに遠隔にあり、典型的には、通信ネットワークを通じて相互作用する。クライアント及びサーバの関係は、各々のコンピュータ上で実行されていてかつ相互にクライアント/サーバ関係を有するコンピュータプログラムを介して生起される。一部の実施形態では、サーバは、クライアントデバイスに、(例えば、クライアントデバイスと対話するユーザにデータを表示し、ユーザからのユーザ入力を受信する目的のために)データ(例えば、HTMLページ)を送信する。クライアントデバイスで生成されたデータ(例えば、ユーザ対話の結果)は、クライアントデバイスから、サーバで受信することができる。 The computer system can include clients and servers. A client and server are generally remote from each other and typically interact through a communication network. The relationship of client and server arises through computer programs running on the respective computers and having a client/server relationship to each other. In some embodiments, the server sends data (e.g., HTML pages) to the client device (e.g., for the purposes of displaying data to a user interacting with the client device and receiving user input from the user). Send. Data generated at the client device (eg, results of user interactions) can be received at the server from the client device.

1つ以上のコンピュータのシステムは、ソフトウェア、ファームウェア、ハードウェア、又はそれらの組み合わせを動作中のシステムにインストールして、そのシステムにその動作を実行させることによって、特定のアクションを実行するように構成することができる。1つ以上のコンピュータプログラムは、データ処理装置によって実行されたときにその装置に動作を実行させる命令を備えることによって、特定のアクションを実行するように構成することができる。 A system of one or more computers configured to perform a particular action by installing software, firmware, hardware, or a combination thereof on a running system to cause that system to perform its operations can do. One or more computer programs can be configured to perform specific actions by comprising instructions which, when executed by a data processing device, cause that device to perform operations.

開示される実施形態の1つ以上の特徴又はステップは、アプリケーションプログラミングインタフェース(API)を使用して実装されてもよい。APIは、データを提供する、又は動作若しくは計算を実行するサービスを提供する、呼び出しアプリケーションと、他のソフトウェアコード(例えば、オペレーティングシステム、ライブラリルーチン、機能)との間を渡される、1つ以上のパラメータを定義することができる。APIは、API仕様書で定義される呼び出し規約に基づいて、パラメータリスト又は他の構造を介して1つ以上のパラメータを送信又は受信する、プログラムコード内の1つ以上の呼び出しとして実装されてもよい。パラメータは、定数、キー、データ構造、オブジェクト、オブジェクトクラス、変数、データ型、ポインタ、アレイ、リスト、又は別の呼び出しであってもよい。API呼び出し及びパラメータは、任意のプログラミング言語で実装されてもよい。プログラミング言語は、プログラマがAPIをサポートする機能にアクセスするために使用する語彙及び呼び出し規約を定義することができる。一部の実装形態では、API呼び出しは、入力能力、出力能力、処理能力、電力能力、通信能力などのアプリケーションを実行するデバイスの能力を、アプリケーションに報告することができる。 One or more features or steps of the disclosed embodiments may be implemented using an application programming interface (API). An API is one or more functions passed between a calling application and other software code (e.g., operating system, library routines, functions) that provide data or provide services that perform operations or computations. Parameters can be defined. An API may be implemented as one or more calls in program code that send or receive one or more parameters via a parameter list or other structure, according to the calling conventions defined in the API specification. good. Parameters may be constants, keys, data structures, objects, object classes, variables, data types, pointers, arrays, lists, or other calls. API calls and parameters may be implemented in any programming language. A programming language can define the vocabulary and calling conventions that programmers use to access the functions that support the API. In some implementations, the API calls can report to the application the capabilities of the device executing the application, such as input capabilities, output capabilities, processing capabilities, power capabilities, communication capabilities, and the like.

本明細書は、多数の特定の実装詳細を含むが、これらは、任意の発明の範囲又は特許請求され得る範囲の制限として解釈されるべきではなく、特定の発明の特定の実施形態に固有である特徴の説明として解釈されるべきである。別個の実施形態のコンテキストで本明細書に記載されている特定の特徴どうしを組み合わせて、単一の実施形態に実装することもできる。その逆に、単一の実施形態のコンテキストで記載されている様々な特徴をそれぞれ別個に複数の実施形態に、又は任意の好適な部分的組み合わせにて実装することもできる。更に、特徴が特定の組み合わせで作用するものとして上に記載されている場合もあれば、更には当初からそのようなものとして主張されている場合もあるが、いくつかの実例においては、主張された組み合わせの1つ以上の特徴をその組み合わせから削除することもできる。また、主張された組み合わせを部分的組み合わせ又は部分的組み合わせの変形態様に向けることもできる。 Although this specification contains numerous specific implementation details, these should not be construed as limitations on the scope of any invention or claims, but are inherent in particular embodiments of particular inventions. should be construed as a description of certain features. Certain features that are described in this specification in the context of separate embodiments can also be implemented in combination in a single embodiment. Conversely, various features that are described in the context of a single embodiment can also be implemented in multiple embodiments separately or in any suitable subcombination. Further, while features may be described above as working in a particular combination, or even originally claimed as such, in some instances they may be claimed as such. One or more of the features of the combination may also be deleted from the combination. A claimed combination may also be directed to subcombinations or subcombination variants.

同様に、図面において、動作は、特定の順番で表されているが、望ましい結果を達成するために、これらの動作が示された順番、若しくは逐次的順番、又は示された動作が全て実行されることを必要としていると理解すべきではない。特定の状況において、多重タスク処理及び並列処理が、有利な場合がある。そのうえ、上述した実施形態における様々なシステム構成要素の分離は、あらゆる実施形態においてそのような分離が要求されるものとして理解されるべきではなく、説明したプログラム構成要素及びシステムを概してまとめて単一のソフトウェア製品に一体化してもよいし、又は複数のソフトウェア製品にパッケージ化してもよいことは理解されるべきである。 Similarly, although operations may appear in the figures in a particular order, it is possible that these operations may be performed in the order shown, or the sequential order, or all of the operations shown may be performed to achieve the desired result. should not be understood as requiring In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of various system components in the above-described embodiments should not be construed as requiring such separation in any embodiment, rather the described program components and system may generally be collectively referred to as a single unit. It should be understood that it may be integrated into one software product or packaged into multiple software products.

図9A~図9P及び図10A~図10Fは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図11A~図11Bにおける処理を含む、以下で説明される処理を例示するために使用される。 9A-9P and 10A-10F illustrate exemplary user interfaces for performing gestural media capture, according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 11A-11B.

図9Aは、例示的なメディアキャプチャユーザインタフェース904を示す。一部の実施形態では、デバイス900は、デバイス100、300、又は500の1つ以上の特徴を含む。この例では、デバイス900は、メディアキャプチャインタフェース904を表示するタッチスクリーンディスプレイ902を含む。一部の実施形態では、メディアキャプチャインタフェースは、ユーザ入力(例えば、タッチ入力)に応答して1つ以上のタイプのメディアをキャプチャするために使用される。例えば、メディアキャプチャインタフェースは、静止画像、ビデオ(例えば、オーディオを含む)、及び画像のシーケンス(例えば、バースト画像キャプチャ)のうちの1つ以上をキャプチャするために使用可能なグラフィカルユーザインタフェースであってもよい。メディアキャプチャインタフェース904は、(例えば、ユーザがメディア項目をキャプチャするのに適切な時間を決定できるように)例えば、メディアキャプチャインタフェースで表示するためにシーンのビューを通過する画像センサ(例えば、光学センサ164)などのメディアキャプチャ構成要素によって取得されているシーンの描写を含むビューファインダエリア906を含む。メディアキャプチャインタフェース904はまた、(例えば、「写真」から「ビデオ」に、又はパノラマ」、「タイムラプス」、「スローモーション」などに)メディアキャプチャモードを変更するために(例えば、タッチ入力、スワイプ入力を介して)使用することができるモードセレクタ908も含む。メディアキャプチャインタフェース904はまた、メディアキャプチャアフォーダンス910を含む。メディアキャプチャアフォーダンスはまた、「シャッタ」又は「シャッタアフォーダンス」などと呼ばれる場合もある。 FIG. 9A shows an exemplary media capture user interface 904. FIG. In some embodiments, device 900 includes one or more features of devices 100, 300, or 500. FIG. In this example, device 900 includes a touch screen display 902 displaying media capture interface 904 . In some embodiments, a media capture interface is used to capture one or more types of media in response to user input (eg, touch input). For example, a media capture interface is a graphical user interface that can be used to capture one or more of still images, video (e.g., including audio), and sequences of images (e.g., burst image capture). good too. The media capture interface 904 may, for example, use an image sensor (e.g., an optical sensor) that passes through the view of the scene for display on the media capture interface (e.g., so that the user can determine an appropriate time to capture a media item). 164), which includes a viewfinder area 906 that contains a representation of the scene being captured by a media capture component such as 164). The media capture interface 904 also provides (eg, touch input, swipe input, etc.) to change the media capture mode (eg, from "photo" to "video," or "panorama," "time-lapse," "slow motion," etc.). It also includes a mode selector 908 that can be used (via). Media capture interface 904 also includes media capture affordance 910 . Media capture affordances are also sometimes referred to as "shutters" or "shutter affordances."

一部の実施形態では、メディアキャプチャアフォーダンス上のタッチ入力(例えば、タップとも呼ばれる、タップジェスチャ)により、デバイスは、(例えば、現在のメディアキャプチャモードに従って)メディア項目をキャプチャする。例えば、図9Aに示す例では、現在のメディアキャプチャモードは「写真」であるため、ユーザは、デバイス900がメディアキャプチャアフォーダンス910上のタップに応答して静止画像をキャプチャすることを期待することができる。メディアキャプチャインタフェース904はまた、メディアをキャプチャするために使用されるデバイス900の画像センサ(例えば、前面カメラ、背面カメラ)を(例えば、ユーザ入力に応答して)変更するために使用することができる、カメラセレクタアフォーダンス912を含む。メディアキャプチャインタフェース904はまた、最後にキャプチャされたメディア項目のプレビュー(例えば、サムネイル、ビデオの単一フレーム)を表示する、最後にキャプチャされたメディア項目エリア914を含む。一部の実施形態では、最後のキャプチャメディア項目エリア(例えば、914)に関連付けられたタッチ入力に応答して、デバイス(例えば、900)は、1つ以上の最近のキャプチャメディア項目、複数のメディア項目(例えば、カメラロール)、及び/又はメディアライブラリを表示する。 In some embodiments, a touch input (eg, a tap gesture, also called a tap) on the media capture affordance causes the device to capture media items (eg, according to the current media capture mode). For example, in the example shown in FIG. 9A, the current media capture mode is "photo", so the user may expect device 900 to capture a still image in response to a tap on media capture affordance 910. can. Media capture interface 904 can also be used to change (eg, in response to user input) which image sensor (eg, front camera, rear camera) of device 900 is used to capture media. , including the camera selector affordance 912 . The media capture interface 904 also includes a last captured media item area 914 that displays a preview (eg, thumbnail, single frame of video) of the last captured media item. In some embodiments, in response to touch input associated with the last captured media item area (eg, 914), the device (eg, 900) displays one or more recently captured media items, multiple media View items (eg, camera roll) and/or media library.

上述のように、デバイス(例えば、900)は典型的には、現在のメディアキャプチャモードに基づいて、メディアキャプチャアフォーダンス(例えば、910)上のユーザ入力に応答する。本明細書では、メディアのジェスチャによるキャプチャの技法を記載する。ジェスチャに依存することにより、使用される特定のジェスチャに基づいて、異なるタイプのメディアをキャプチャさせることができる。メディアをキャプチャするために使用可能な特定のジェスチャは、ユーザ入力特性(例えば、持続時間、移動、及び/又はそれらの様々な組み合わせ)に基づいて異なる特性を有することができる。図9A~図9Pの以下の例に示すように、キャプチャされたメディアのタイプは、タッチ入力を受け取ったときにアクディブなメディアキャプチャモードに対応する必要はない。 As noted above, a device (eg, 900) typically responds to user input on a media capture affordance (eg, 910) based on its current media capture mode. SUMMARY Techniques for gestural capture of media are described herein. By relying on gestures, different types of media can be captured based on the particular gesture used. Certain gestures that can be used to capture media can have different properties based on user input properties (eg, duration, movement, and/or various combinations thereof). As shown in the following examples of FIGS. 9A-9P, the type of captured media need not correspond to the active media capture mode when touch input is received.

とりわけ、入力特性ボックス901は、図9A~図9P全体を通して含まれ、対応する図における(例えば、電子デバイス900によって検出された)タッチ入力の特性を示し、それぞれの図に描かれたそれぞれの例示的なシナリオにおける(例えば、デバイス900のメモリ内の)タッチ入力特性の視覚的表現として提供される。タッチ入力に関連付けられた入力特性は、デバイス(例えば、900)によって使用されて、タッチ入力が特定のジェスチャ(例えば、それはメディアキャプチャ関連のアクションを実行させることができる)と見なされる基準を満たすかどうかを判定することができる。入力特性ボックス901は、読者の理解を容易にするための視覚的補助としてのみ提供され、必ずしもデバイス(例えば、900)には表示されない。加えて、図又は本明細書で特に言及しない限り、入力特性ボックス901は、デバイス900がそれぞれの図内の描かれたタッチ入力(例えば、図9Bの920)を受け取った後の、またそのような入力の検出を中止する前のタッチ入力の特性(例えば、タッチ入力のリフトオフ)を示す。 In particular, an input characteristics box 901 is included throughout FIGS. 9A-9P to indicate characteristics of touch input (eg, detected by electronic device 900) in the corresponding figures, and each illustration depicted in each figure. provided as a visual representation of touch input characteristics (eg, in memory of device 900) in a typical scenario. Whether the input characteristics associated with the touch input meet the criteria used by the device (e.g., 900) to consider the touch input to be a particular gesture (e.g., it can cause media capture-related actions to be performed) can determine whether The input properties box 901 is provided only as a visual aid to facilitate reader comprehension and is not necessarily displayed on the device (eg, 900). In addition, unless otherwise noted in the figures or herein, the input characteristics box 901 indicates that the device 900 receives touch input depicted in each figure (e.g., 920 in FIG. 9B) after and as such. touch input characteristics (eg, touch input lift-off) before stopping detection of positive input.

図9A~図9Bは第1のタイプのメディア項目のキャプチャを示す。図9A~図9Bに示す例では、デバイス900は、現在のメディアキャプチャモード(例えば、「写真」)に対応する第1のタイプのメディア項目をキャプチャする。図9Bでは、デバイス900は、メディアキャプチャアフォーダンス910に対応するタッチスクリーンディスプレイ902上の場所におけるタッチ入力であるユーザ入力920を受け取る。図9Bの入力特性ボックス901に示すように、ユーザ入力920(タッチ入力920とも呼ばれる)は、移動基準を満たさず(移動基準:満たしていない)、閾値時間よりも長い間検出されていない(閾値時間:経過していない)。この例では、デバイス900は、移動基準が満たされる前かつ閾値時間が経過する前に、(例えば、入力のリフトオフに起因して)タッチ入力920の検出を中止する。したがって、この例では、タッチ入力920はタップ入力ジェスチャである。図9Cは、タッチ入力920のリフトオフ後のデバイス900を示す。図9Cでは、メディアキャプチャインタフェース904は、図9Aに示すものと同じ状態に戻るが、ここで、最後にキャプチャされたメディア項目エリア914は、デバイス900がメディア項目をキャプチャしたことを示すビューファインダエリア906に示される現在のシーンの表現を含む。この例では、デバイス900は、静止画像(例えば、例示的な第1のタイプのメディア)をキャプチャしたものである。一部の実施形態では、デバイス900は、移動基準を満たさず、閾値時間を超える間に検出されなかったユーザ入力(例えば、タップ入力)に応答して、第1のタイプのメディア項目に加えて、第2のタイプのメディア項目をキャプチャする。一部の実施形態では、第2のタイプのメディアは、タッチ入力の持続時間とは無関係の持続時間を有する。例えば、デバイス900は、タッチ入力の持続時間(例えば、0.5秒)にかかわらず、固定持続時間(例えば、3秒の長さ)又は可変持続時間(例えば、2~5秒の長さ)のビデオクリップ(例えば、オーディオを含む)を追加的に(又は代わりに)キャプチャすることができる。 Figures 9A-9B illustrate capture of a first type of media item. In the example shown in FIGS. 9A-9B, the device 900 captures media items of a first type corresponding to the current media capture mode (eg, “photo”). In FIG. 9B, device 900 receives user input 920 which is touch input at a location on touch screen display 902 corresponding to media capture affordance 910 . As shown in input characteristics box 901 of FIG. 9B, user input 920 (also referred to as touch input 920) does not meet the movement criterion (movement criterion: not met) and has not been detected for longer than a threshold time (threshold time: not elapsed). In this example, device 900 stops detecting touch input 920 (eg, due to input lift-off) before the movement criteria are met and before the threshold time elapses. Thus, in this example, touch input 920 is a tap input gesture. FIG. 9C shows device 900 after touch input 920 is lifted off. In FIG. 9C, the media capture interface 904 returns to the same state as shown in FIG. 9A, but now the last captured media item area 914 is the viewfinder area indicating that the device 900 has captured the media item. It contains a representation of the current scene shown at 906 . In this example, device 900 has captured a still image (eg, an exemplary first type of media). In some embodiments, device 900 responds to user input (e.g., tap input) that does not meet the movement criteria and is not detected for more than a threshold amount of time, in addition to media items of the first type. , to capture media items of the second type. In some embodiments, the second type of media has a duration independent of the duration of the touch input. For example, the device 900 may display a fixed duration (eg, 3 seconds long) or a variable duration (eg, 2-5 seconds long) regardless of the duration of the touch input (eg, 0.5 seconds). can additionally (or instead) capture a video clip (eg, including audio) of the

図9D~図9Fは、第2のタイプのメディア項目のキャプチャを示す。図9D~図9Fに示す例では、デバイス900は、移動基準を満たさないが、時間基準を満たす(例えば、閾値時間を超える間検出される)タッチ入力を使用して、現在のメディアキャプチャモード(例えば、「写真」)に対応しない第2のタイプのメディア項目(例えば、ビデオ)をキャプチャする。図9Dでは、デバイス900は、メディアキャプチャアフォーダンス910に対応するタッチスクリーンディスプレイ902上の場所におけるタッチ入力であるユーザ入力930を受け取る。図9Dの入力特性ボックス901に示すように、ユーザ入力930は移動基準を満たさず(移動基準:満たしていない)、閾値時間より長い間検出されていない(閾値時間:経過していない)。 Figures 9D-9F illustrate the capture of a second type of media item. In the example shown in FIGS. 9D-9F, the device 900 uses touch input that does not meet the movement criteria but does meet the time criteria (eg, is detected for more than the threshold time) to capture the current media capture mode ( For example, capturing a second type of media item (eg, video) that does not correspond to "photos"). 9D, device 900 receives user input 930, which is touch input at a location on touch screen display 902 corresponding to media capture affordance 910. In FIG. As shown in the input characteristics box 901 of FIG. 9D, the user input 930 does not meet the movement criterion (movement criterion: not met) and has not been detected for longer than the threshold time (threshold time: not passed).

図9Eは、デバイス900が閾値時間経過後、ただし、移動基準が満たされる前までタッチ入力930の検出を継続することを示す。したがって、図9Eの入力特性ボックス901は、ユーザ入力930が移動基準を満たさない(移動基準:満たしていない)が、閾値時間よりも長い間検出されている(閾値時間:経過した)ことを示す。したがって、この例では、タッチ入力930は、タップアンドホールド入力ジェスチャ(例えば、閾値時間にわたって保持されるタップ)である。タッチ入力930が閾値時間を超える間検出されたことに応答して、デバイス900は、ビデオ(例えば、例示的な第2のタイプのメディア)のキャプチャ(例えば、記録)を開始する。図9Eに示すように、デバイス900は現在、ビデオをキャプチャしている。この例では、ビデオキャプチャ中、ビデオの経過時間(00:00:08、又は8秒)が示され、メディアキャプチャアフォーダンス910は、停止アフォーダンス934と取り替えられている。加えて、図9Eでは、デバイス900は、(例えば、カメラセレクタアフォーダンス912を取り替えて)以下でより詳細に論じられるメディアキャプチャロックアフォーダンス932を表示する。 FIG. 9E shows that device 900 continues detecting touch input 930 after a threshold time but before movement criteria are met. Thus, the input characteristics box 901 of FIG. 9E indicates that the user input 930 does not meet the movement criterion (movement criterion: not met), but has been detected for longer than the threshold time (threshold time: elapsed). . Thus, in this example, touch input 930 is a tap-and-hold input gesture (eg, a tap held for a threshold amount of time). In response to touch input 930 being detected for a threshold time period, device 900 begins capturing (eg, recording) video (eg, exemplary second type of media). As shown in FIG. 9E, device 900 is currently capturing video. In this example, the elapsed time of the video (00:00:08, or 8 seconds) is shown during video capture, and media capture affordance 910 has been replaced with stop affordance 934 . Additionally, in FIG. 9E, device 900 displays media capture lock affordance 932 (eg, replacing camera selector affordance 912), discussed in more detail below.

図9Fは、タッチ入力930のリフトオフ後のデバイス900を示す。図9Fでは、タッチ入力930のリフトオフに応答して、メディアキャプチャインタフェース904は、図9Dに示すものと同じ状態に戻るが、ここで、最後にキャプチャされたメディア項目エリア914は、デバイス900がメディア項目をキャプチャしたことを示すビューファインダエリア906に示される現在のシーンの表現を含む。この例では、デバイス900は、ビデオ(例えば、例示的な第2のタイプのメディア)をキャプチャしたものである。一部の実施形態では、デバイス900は、移動基準を満たさないが閾値時間を超える間に検出されたユーザ入力(例えば、タップアンドホールドジェスチャ、タッチ入力930)に応答して、第2のタイプのメディア項目に加えて、第1のタイプのメディア項目をキャプチャする。例えば、ビデオをキャプチャすることに加えて、デバイス900は追加的に静止画像をキャプチャすることができる。一部の実施形態では、(例えば、タッチ入力930に応答してキャプチャされた)第2のタイプのメディアは、タッチ入力(例えば、930)の持続時間に基づく持続時間を有する。例えば、デバイス900は、タッチ入力930が検出された持続時間に基づく持続時間を有するビデオクリップ(例えば、オーディオを含む)をキャプチャすることができる。したがって、タッチ入力930がタッチスクリーンディスプレイ902上で8秒間検出された場合、結果としてキャプチャされた第2のタイプのメディアは、8秒の長さのビデオであり得る。一部の実施形態では、第2のタイプのメディアの持続時間は、タッチ入力の持続時間に基づくものであるが、ビデオ記録は、タッチ入力が閾値持続時間を超える間検出された後に開始する。したがって、閾値持続時間が1秒であり、タッチ入力が8秒間検出された場合、得られるビデオは7秒である(例えば、リフトオフがビデオの記録を終了させ、次いで、それはデバイス900によってメディアライブラリに記憶される)。 FIG. 9F shows device 900 after touch input 930 is lifted off. In FIG. 9F, in response to lift-off of touch input 930, media capture interface 904 returns to the same state as shown in FIG. Contains a representation of the current scene shown in the viewfinder area 906 indicating that the item has been captured. In this example, device 900 has captured video (eg, an exemplary second type of media). In some embodiments, the device 900 responds to user input (e.g., tap-and-hold gesture, touch input 930) that does not meet the movement criteria but is detected for a threshold amount of time, and the second type of A first type of media item is captured in addition to the media item. For example, in addition to capturing video, device 900 can additionally capture still images. In some embodiments, the second type of media (eg, captured in response to touch input 930) has a duration based on the duration of touch input (eg, 930). For example, device 900 can capture a video clip (eg, including audio) having a duration based on the duration that touch input 930 was detected. Thus, if touch input 930 is detected on touch screen display 902 for eight seconds, the resulting second type of media captured may be eight seconds long video. In some embodiments, the duration of the second type of media is based on the duration of the touch input, but video recording begins after touch input is detected for more than a threshold duration. Thus, if the threshold duration is 1 second and touch input is detected for 8 seconds, the resulting video is 7 seconds (e.g. liftoff ends the recording of the video, which is then sent to the media library by device 900). remembered).

図9G~図9Jは、ジェスチャの検出が中止される後に継続する第2のタイプの媒体のキャプチャを開始するためのジェスチャの使用を示す。図9G~図9Jに示す例では、デバイス900は、(例えば、第1の方向への)移動基準を満たす(また、時間基準も満たす)タッチ入力940を用いて、現在のメディアキャプチャモード(例えば、「写真」)に対応しない第2のタイプのメディア項目(例えば、ビデオ)をキャプチャする。図9Gでは、デバイス900は、メディアキャプチャアフォーダンス910に対応するタッチスクリーンディスプレイ902上の場所におけるタッチ入力であるユーザ入力940を受け取る。図9Dの入力特性ボックス901に示すように、ユーザ入力940は移動基準を満たさず(移動基準:満たしていない)、閾値時間よりも長い間検出されていない(閾値時間:経過していない)。 Figures 9G-9J illustrate the use of a gesture to initiate capture of a second type of media that continues after gesture detection ceases. In the example shown in FIGS. 9G-9J, the device 900 uses touch input 940 that meets the movement criteria (eg, in the first direction) (and also meets the time criteria) to control the current media capture mode (eg, , “photos”) to capture a second type of media item (eg, video). In FIG. 9G, device 900 receives user input 940, which is touch input at a location on touch screen display 902 corresponding to media capture affordance 910. In FIG. As shown in the input characteristics box 901 of FIG. 9D, the user input 940 does not meet the movement criterion (movement criterion: not met) and has not been detected for longer than the threshold time (threshold time: not passed).

図9G~図9Jの例では、タッチ入力940は閾値持続時間よりも長い間検出されるが、閾値持続時間を満たすことは、メディアキャプチャセッションをロックされたメディアキャプチャ状態に遷移させるための要件ではない。むしろ、この例では、移動基準が満たされていることが唯一の要件である。一部の実施形態では、メディアキャプチャセッションをロックするために、閾値時間が追加的に必要とされる場合がある。 In the example of FIGS. 9G-9J, touch input 940 is detected for longer than the threshold duration, but meeting the threshold duration is not a requirement for transitioning the media capture session to the locked media capture state. No. Rather, in this example the only requirement is that the movement criteria be met. In some embodiments, an additional threshold time may be required to lock the media capture session.

図9Hは、デバイス900が、閾値時間経過後、ただし、移動基準が満たされる前までタッチ入力940の検出を継続することを示す。したがって、図9Hの入力特性ボックス901は、ユーザ入力940が移動基準を満たさない(移動基準:満たしていない)が、閾値時間よりも長い間検出されている(閾値時間:経過した)ことを示す。図9D~図9Fに上記した例と同様に、閾値期間よりも長く検出されたタッチ入力に応答して、デバイス900は、ビデオ(例えば、例示的な第2のタイプのメディア)のキャプチャ(例えば、記録)を開始する。この例では、タッチ入力940は、接触の初期位置(例えば、910の場所)からドラッグされたタッチ入力である。本明細書で使用するとき、「ドラッグされた」タッチ入力は、「スライドする」タッチ入力とも呼ばれる。図9Hでは、タッチ入力940は、メディアキャプチャアフォーダンス910の右にドラッグされている。図9Hに示すように、デバイス900は現在、ビデオをキャプチャしている。この例では、ビデオの経過時間(00:00:08、又は8秒)が示され、メディアキャプチャアフォーダンス910は、停止アフォーダンス934と取り替えられている。停止アフォーダンスは、(例えば、ロックされたメディアキャプチャセッション中にメディアキャプチャアフォーダンスを取り替えた場合)、本明細書では「ロック状態キャプチャボタン」とも呼ばれる。一部の実施形態では、停止アフォーダンス(例えば、934)は、(例えば、メディアキャプチャセッションをロックされたメディアキャプチャ状態に移行させる)タッチ入力のリフトオフに応答して、メディアキャプチャアフォーダンス(例えば、910)を取り替える。加えて、図9Hでは、デバイス900は、(例えば、カメラセレクタアフォーダンス912を取り替えて)以下でより詳細に論じられるメディアキャプチャロックアフォーダンス932を表示する。 FIG. 9H shows that the device 900 continues detecting touch input 940 after the threshold time has elapsed but before the movement criteria are met. Thus, the input characteristics box 901 of FIG. 9H indicates that the user input 940 does not meet the movement criterion (movement criterion: not met), but has been detected for longer than the threshold time (threshold time: elapsed). . Similar to the examples described above in FIGS. 9D-9F, in response to touch input detected for longer than the threshold duration, device 900 captures (eg, captures) video (eg, an exemplary second type of media). , recording). In this example, touch input 940 is a touch input dragged from the initial position of contact (eg, location of 910). As used herein, "dragged" touch input is also referred to as "sliding" touch input. In FIG. 9H, touch input 940 has been dragged to the right of media capture affordance 910 . As shown in FIG. 9H, device 900 is currently capturing video. In this example, the elapsed time of the video (00:00:08, or 8 seconds) is shown and media capture affordance 910 has been replaced with stop affordance 934 . A stop affordance (eg, when it replaces a media capture affordance during a locked media capture session) is also referred to herein as a "locked capture button." In some embodiments, the stop affordance (eg, 934) is triggered by the media capture affordance (eg, 910) in response to touch input lift-off (eg, transitioning the media capture session to a locked media capture state). replace. Additionally, in FIG. 9H, device 900 displays media capture lock affordance 932 (eg, replacing camera selector affordance 912), discussed in more detail below.

とりわけ、図9Hに示すシナリオは、図9Hにおけるタッチ入力(940)がわずかに右に移動し、図9Eにおけるタッチ入力(930)が移動していないことを除いて、図9Eのシナリオと同様である。したがって、タッチ入力940が移動基準を満たさないが、閾値時間よりも長い間検出されているので、(例えば、タッチ入力940のリフトオフにより)タッチ入力940の検出が図9Hに示す瞬間に中止された場合、図9Fに示すものと同様の結果が生じ、デバイス900は、タッチ入力940が検出された持続時間に基づく持続時間を有するビデオをキャプチャすることになる。しかし、この例では、以下に記載する図9I及び図9Jに示されるように、タッチ入力940は検出され続ける。 Notably, the scenario shown in Figure 9H is similar to the scenario of Figure 9E, except that the touch input (940) in Figure 9H has moved slightly to the right and the touch input (930) in Figure 9E has not moved. be. Therefore, since touch input 940 does not meet the movement criteria, but has been detected for longer than the threshold time, detection of touch input 940 was discontinued at the moment shown in FIG. 9H (eg, due to lift-off of touch input 940). In that case, a result similar to that shown in FIG. 9F would occur, with device 900 capturing video having a duration based on the duration that touch input 940 was detected. However, in this example, touch input 940 continues to be detected, as shown in FIGS. 9I and 9J described below.

図9Hでは、デバイス900は、タッチ入力940の現在の場所の表現であるタッチ入力インジケータ942を表示する。この例では、タッチ入力インジケータはタッチ入力940の移動(例えば、メディアキャプチャアフォーダンス910(図9G)/停止アフォーダンス934(図9H)に関連付けられた領域から離れるタッチ入力の移動)に応答して表示される。移動経路インジケータ943も示され、停止アフォーダンス934(又は停止アフォーダンス934と取り替えられていなかった場合には、メディアキャプチャ910)とメディアキャプチャロックアフォーダンス932との間に表示されている。タッチ入力インジケータ942は、(例えば、左又は右の一方又はいずれかの方向への)タッチ入力904のドラッグ(「スライド」とも呼ばれる)に応答して、指示された移動経路に沿って移動する。 In FIG. 9H, device 900 displays touch input indicator 942, which is a representation of the current location of touch input 940. In FIG. In this example, the touch input indicator is displayed in response to movement of touch input 940 (eg, movement of touch input away from the area associated with media capture affordance 910 (FIG. 9G)/stop affordance 934 (FIG. 9H)). be. A travel path indicator 943 is also shown, displayed between the stop affordance 934 (or media capture 910 if it did not replace the stop affordance 934 ) and the media capture lock affordance 932 . Touch input indicator 942 moves along an indicated movement path in response to dragging (also referred to as “slide”) of touch input 904 (eg, left or right, or either direction).

ここで図9I及び図9Jを参照すると、ユーザ入力の検出を中止した後にメディアのキャプチャを継続する技法が示されている。図9B~図9Cに関連して上述したように、デバイスは、特定の特性(例えば、閾値時間未満の間検出される移動はない)を有するユーザ入力(例えば、ジェスチャ)に応答して、任意選択的に第1のタイプのメディアをキャプチャする。図9D~図9Fに関連して上述したように、デバイスは任意選択的に、ユーザ入力が他の特性を有する(例えば、移動はなく(又は移動が基準を満たさず)、閾値時間を超える間検出される)場合、ユーザ入力の持続時間に基づく第2のタイプのメディア(例えば、ビデオ)をキャプチャする。一部の実施形態では、デバイスは、タッチ入力の検出が中止された後であっても継続するように、第2のタイプのメディアのキャプチャを継続する。 9I and 9J, techniques for continuing to capture media after ceasing to detect user input are illustrated. As described above in connection with FIGS. 9B-9C, the device responds to user input (eg, gestures) with certain characteristics (eg, no movement detected for less than a threshold time) to arbitrarily Selectively capture a first type of media. As described above in connection with FIGS. 9D-9F, the device optionally allows user input to have other characteristics (e.g., no movement (or movement does not meet criteria) and detected), capture a second type of media (eg, video) based on the duration of the user input. In some embodiments, the device continues capturing the second type of media such that it continues even after touch input detection ceases.

図9Iでは、タッチ入力940は、更に右に移動しており、現在、メディアキャプチャロックアフォーダンス932に対応する場所にある。この例では、タッチ入力(例えば、940)が、メディアキャプチャアフォーダンス910の場所から(例えば、タッチダウンで)(又は、メディアキャプチャアフォーダンスを取り替えた停止アフォーダンス(例えば、934)の場所から)メディアキャプチャロックアフォーダンス932の場所へ移動する(例えば、ドラッグされる)ときに、移動基準は満たされる。一部の実施形態では、デバイスは、ユーザ入力の検出が中止されたことに応答して(例えば、タッチ入力のリフトオフ時に)移動基準が満たされたかどうかを判定する。したがって、図9Iの入力特性ボックス901は、ユーザ入力940が現在の場所で発生した場合に移動基準を満たすことになる(移動基準:満たされた(リフトオフ時))ことを示し、またタッチ入力が閾値時間よりも長い間検出されていること(閾値時間:経過した)を示す。図9Iに示すように、移動インジケータ942は、接触が対応する場所にあり、検出され続ける間、メディアキャプチャロックアフォーダンス932を覆わない/覆い隠さない。一部の実施形態では、移動インジケータ(例えば、942)は、接触が対応する場所にあり、検出され続ける間、メディアキャプチャロックアフォーダンス(例えば、932)を覆う/覆い隠す。図9Iに示すように、メディアキャプチャインタフェース904は、ビデオ記録状態のままにある。停止アフォーダンス934が表示され続け、ビデオキャプチャの経過時間(00:00:10、又は10秒)が表示され続ける。 In FIG. 9I, touch input 940 has moved further to the right and is now in a location corresponding to media capture lock affordance 932 . In this example, a touch input (e.g., 940) triggers a media capture lock from the location of the media capture affordance 910 (e.g., on touchdown) (or from the location of the stop affordance (e.g., 934) that replaced the media capture affordance). When moved (eg, dragged) to the location of affordance 932, the movement criterion is met. In some embodiments, the device determines whether the movement criteria have been met in response to ceasing to detect user input (eg, upon lift-off of touch input). Thus, the input properties box 901 of FIG. 9I indicates that the user input 940 would satisfy the movement criterion if it occurred at the current location (Movement Criterion: Satisfied (On Liftoff)), and if the touch input Indicates that detection has been performed for longer than the threshold time (threshold time: elapsed). As shown in FIG. 9I, the movement indicator 942 does not obscure/obscure the media capture lock affordance 932 while the contact is in the corresponding location and continues to be detected. In some embodiments, the movement indicator (eg, 942) covers/occupies the media capture lock affordance (eg, 932) while the contact remains in the corresponding location and detected. As shown in Figure 9I, the media capture interface 904 remains in the video recording state. Stop affordance 934 continues to be displayed and the elapsed time of the video capture (00:00:10, or 10 seconds) continues to be displayed.

図9Jは、タッチ入力940のリフトオフ後のデバイス900を示す。タッチ入力940の検出を中止したことに応答して、タッチ入力940のリフトオフが、移動基準を満たした後に発生したため(例えば、アフォーダンス932上のリフトオフ)、デバイス900は、第2のタイプのメディア(例えば、ビデオ記録)のキャプチャを継続する。メディアのキャプチャを継続することは、本明細書では、メディアキャプチャセッションを「維持する」とも呼ばれる。この例では、メディアキャプチャセッション(例えば、ビデオのキャプチャ)が、アンロックされたメディアキャプチャ状態からロックされたメディアキャプチャ状態に遷移したため、デバイス900は第2のタイプのメディアのキャプチャを継続する。メディアキャプチャ状態は、本明細書では、「メディアキャプチャセッション状態」とも呼ばれる。本明細書で使用するとき、アンロックされたメディアキャプチャ状態にあるメディアキャプチャセッションは、「アンロックされた」メディアキャプチャセッションとも呼ばれる。本明細書で使用するとき、ロックされたメディアキャプチャ状態にあるメディアキャプチャセッションは、「ロックされた」メディアキャプチャセッションとも呼ばれる。一部の実施形態では、メディアキャプチャセッションがロックされたメディアキャプチャ状態にあるとき、メディアセッションは(例えば、メディアセッションを開始させるタッチ入力ジェスチャの検出の中止後に)継続する。図9Jに示すように、メディアキャプチャインタフェース904は、ビデオ記録状態のままである。停止アフォーダンス934が引き続き表示され、ビデオキャプチャの経過時間(00:00:12、又は12秒)が継続して表示される(例えば、またキャプチャ中により長い時間が経過すると更に進行する)。また図9Jに示すように、デバイス900は、第2のタイプのメディア(例えば、ビデオ)のキャプチャを継続している間、第1のタイプのメディア(例えば、静止画像及び/又は固定持続時間クリップ)をキャプチャするのに使用され得る画像キャプチャアフォーダンス944を表示する。この例では、デバイス900は、ビデオ(例えば、例示的な第2のタイプのメディア)のキャプチャを継続する。 FIG. 9J shows device 900 after touch input 940 is lifted off. In response to ceasing detection of touch input 940, because liftoff of touch input 940 occurred after meeting the movement criteria (e.g., liftoff on affordance 932), device 900 may select the second type of media ( continue capturing (e.g., video recording). Continuing media capture is also referred to herein as "maintaining" the media capture session. In this example, the media capture session (e.g., capturing video) has transitioned from the unlocked media capture state to the locked media capture state, so device 900 continues capturing the second type of media. A media capture state is also referred to herein as a "media capture session state." As used herein, a media capture session in an unlocked media capture state is also referred to as an "unlocked" media capture session. As used herein, a media capture session in a locked media capture state is also referred to as a "locked" media capture session. In some embodiments, when the media capture session is in the locked media capture state, the media session continues (eg, after ceasing detection of the touch input gesture that initiates the media session). As shown in Figure 9J, the media capture interface 904 remains in the video recording state. A stop affordance 934 continues to be displayed, and the elapsed video capture time (00:00:12, or 12 seconds) continues to be displayed (eg, and progresses further as more time elapses during capture). As also shown in FIG. 9J, device 900 may capture a first type of media (eg, still images and/or fixed duration clips) while continuing to capture a second type of media (eg, video). ), displays image capture affordances 944 that can be used to capture In this example, device 900 continues to capture video (eg, the exemplary second type of media).

一部の実施形態では、デバイス900は、移動基準を満たし、閾値時間を超える間検出されたユーザ入力に応答して、第2のタイプのメディア項目に加えて、第1のタイプのメディア項目をキャプチャする。例えば、ビデオをキャプチャすることに加えて、デバイス900は、タッチ入力940に応答して静止画像を追加的にキャプチャすることができる。一部の実施形態では、静止画像は廃棄される。例えば、タッチ入力のタッチダウンに応答して、第1のタイプのメディア(例えば、静止画像)を取得することができるが、デバイスは、第2のタイプのメディアがキャプチャされた(例えば、タッチ入力が閾値時間にわたって継続する、又は移動基準を満たす)場合、第1のタイプのメディアを廃棄することができる。 In some embodiments, the device 900 responds to user input detected for a threshold amount of time that satisfies the movement criteria and, in addition to media items of the second type, renders media items of the first type. to capture. For example, in addition to capturing video, device 900 can additionally capture still images in response to touch input 940 . In some embodiments, still images are discarded. For example, a first type of media (e.g., a still image) may be captured in response to touchdown of a touch input, but the device may detect that a second type of media is captured (e.g., touch input lasts for a threshold time or meets the movement criteria), the first type of media can be discarded.

一部の実施形態では、デバイスは、ユーザ入力の検出が継続している間に移動基準が満たされるかどうかを判定する。例えば、デバイス900は、タッチ入力940が、図9Iのメディアキャプチャロックアフォーダンス932の場所などの特定の場所に到達すると、移動基準を満たすと判定することができる。このような例では、ユーザ入力が移動基準を満たしたことに応答して、デバイスは、最初にリフトオフを必要とせずに(例えば、タッチ入力940が依然として検出されている場合でも)、(例えば、図9Jに示すように)現在のメディアキャプチャセッションをロックされたメディアキャプチャ状態に遷移させることができる。したがって、デバイス900は、(例えば、メディアキャプチャアフォーダンス910の方向に戻る、図9Hに示すような場所までの)タッチ入力940の更なる移動及びメディアキャプチャロックアフォーダンス932以外の場所でのリフトオフにもかかわらず、第2のタイプのメディアのキャプチャを継続することができる。一部の実施形態では、メディアキャプチャアフォーダンス(例えば、910)上の、又は停止アフォーダンス(例えば、934)上の(例えば、タッチ入力940の)リフトオフにより、デバイス(例えば、900)はメディアのキャプチャを中止する(例えば、メディアキャプチャはリフトオフ後に継続しない)。 In some embodiments, the device determines whether the movement criteria are met while detection of user input continues. For example, device 900 may determine that touch input 940 meets a movement criterion when touch input 940 reaches a particular location, such as the location of media capture lock affordance 932 in FIG. 9I. In such an example, in response to the user input meeting the movement criteria, the device may (e.g., The current media capture session can be transitioned to a locked media capture state (as shown in FIG. 9J). Thus, the device 900 will remain active despite further movement of the touch input 940 (eg, back toward the media capture affordance 910, to a location such as shown in FIG. 9H) and liftoff at a location other than the media capture lock affordance 932. Instead, capture of the second type of media can continue. In some embodiments, lift-off (eg, of touch input 940) on a media capture affordance (eg, 910) or on a stop affordance (eg, 934) causes the device (eg, 900) to stop capturing media. Abort (eg, media capture does not continue after liftoff).

一部の実施形態では、タッチ入力がメディアキャプチャロックアフォーダンス(例えば、932)に向かって少なくとも所定の量(例えば、割合、一定距離)だけドラッグされた場合に、移動基準は満たされる。例えば、タッチ入力940が、図9Gのメディアキャプチャアフォーダンス910の場所(例えば、図9Hの停止アフォーダンス934と同じ場所)と、メディアキャプチャロックアフォーダンス932との間の距離の少なくとも50%、移動インジケータ942をドラッグした場合、移動基準は、(例えば、即座に、又はリフトオフ時に)満たされ得る。これは、図10A~図10Fに示される例において示されており、以下でより詳細に説明する。 In some embodiments, the movement criterion is met if the touch input is dragged toward the media capture lock affordance (eg, 932) by at least a predetermined amount (eg, percentage, constant distance). For example, if touch input 940 is at least 50% of the distance between the location of media capture affordance 910 of FIG. 9G (eg, the same location as stop affordance 934 of FIG. When dragging, the movement criteria may be met (eg, immediately or upon liftoff). This is illustrated in the example shown in FIGS. 10A-10F and is described in more detail below.

一部の実施形態では、移動基準は、(例えば、満たされるために)特定の方向(例えば、右、左、下、上)への移動を必要とする。例えば、図9G~図9Jは、移動基準を満たすために必要とされる(メディアキャプチャアフォーダンス910の)右への移動を示す。一部の実施形態では、移動基準は、1つ以上の方向への移動によって満たされる(例えば、左又は右への移動は移動基準を満たすことができる)。 In some embodiments, movement criteria require (eg, to be met) movement in a particular direction (eg, right, left, down, up). For example, FIGS. 9G-9J show the movement to the right (of media capture affordance 910) required to meet the movement criteria. In some embodiments, movement criteria are satisfied by movement in one or more directions (eg, movement to the left or right may satisfy the movement criteria).

図9Kは、メディアセッションがロックされたメディアキャプチャ状態にある間に第2のタイプのメディアのキャプチャを中止する例示的な技法を示す。タッチ入力940をリフトオフするとメディアがキャプチャされ続けるため、停止アフォーダンス934へのタッチ入力950を使用して、デバイス900にビデオのキャプチャを中止させることができる。例えば、タッチ入力950に応答して、デバイス900は、ビデオを記録することを中止し、図9Fに示すように、メディアキャプチャインタフェース904を表示することができる(例えば、現在何も記録されていないことを示す)。 FIG. 9K illustrates an exemplary technique for suspending capture of the second type of media while the media session is in the locked media capture state. Touch input 950 to stop affordance 934 can be used to cause device 900 to stop capturing video because lifting off touch input 940 continues to capture media. For example, in response to touch input 950, device 900 can stop recording video and display media capture interface 904, as shown in FIG. 9F (e.g., nothing is currently being recorded). ).

図9Lは、メディアセッションがロックされたメディアキャプチャ状態にある間に第1のタイプのメディアをキャプチャする例示的な技法を示す。図9Lでは、デバイス900は画像キャプチャアフォーダンス944上のユーザ入力960を受け取り、それは、第2のタイプのメディア(例えば、ビデオ)を記録しながら、デバイス900に第1のタイプのメディア(例えば、静止画像及び/又は固定持続時間クリップ)をキャプチャさせるために使用することができる。この例では、デバイス900は、タッチ入力960の後に、ビデオ(例えば、例示的な第2のタイプのメディア)のキャプチャを継続する。タッチ入力960に応答して、デバイス900は、ビデオフレームから静止画像をキャプチャする(例えば、メディアライブラリ内に静止画像を記憶することを含む)。 FIG. 9L illustrates an exemplary technique for capturing a first type of media while the media session is in a locked media capture state. In FIG. 9L, device 900 receives user input 960 on image capture affordance 944 that instructs device 900 to record a first type of media (e.g., still video) while recording a second type of media (e.g., video). images and/or fixed duration clips). In this example, device 900 continues capturing video (eg, exemplary second type of media) after touch input 960 . In response to touch input 960, device 900 captures a still image from a video frame (eg, including storing the still image in media library).

図9M~図9Pは、タッチ入力ジェスチャを用いた、第1のタイプのメディア項目のシーケンスのキャプチャを示す。図9M~図9Pに示す例では、デバイス900は、第2の移動基準を満たすタッチ入力を用いて、第1のタイプのメディア項目(例えば、静止画像)のシーケンスをキャプチャする。一部の実施形態では、デバイスは、ユーザ入力(例えば、タッチ入力)が1つ以上の異なる移動基準(例えば、第1の移動基準及び第2の移動基準)を満たすかどうかを判定する。例えば、例示的な第1の移動基準は、図9B~図9Kに関して上述した移動基準とすることができ、その場合、基準を満たすと、デバイスはメディアキャプチャセッションをロックされたメディアキャプチャ状態に変更する。一部の実施形態では、第2の移動基準を満たすと、デバイス900は、異なるメディアキャプチャアクション(例えば、第1の移動基準が満たされたことに応答して取られるアクションとは異なる)を行う。この例では、デバイス900は、以下でより詳細に論じられる第2の移動基準を満たすタッチ入力の検出に応答して、バーストメディアキャプチャを実行する。 Figures 9M-9P illustrate capturing a sequence of media items of the first type using touch input gestures. In the example shown in FIGS. 9M-9P, device 900 captures a sequence of media items of the first type (eg, still images) using touch input that meets the second movement criteria. In some embodiments, the device determines whether user input (eg, touch input) meets one or more different movement criteria (eg, first movement criterion and second movement criterion). For example, an exemplary first movement criterion may be the movement criterion described above with respect to FIGS. 9B-9K, where upon meeting the criteria the device changes the media capture session to a locked media capture state. do. In some embodiments, meeting the second movement criterion causes device 900 to take a different media capture action (eg, different from the action taken in response to meeting the first movement criterion). . In this example, device 900 performs burst media capture in response to detecting touch input that meets the second movement criterion, discussed in more detail below.

図9Mでは、デバイス900は、メディアキャプチャアフォーダンス910に対応するタッチスクリーンディスプレイ902上の場所におけるタッチ入力であるユーザ入力970を受け取る。図9Dの入力特性ボックス901に示すように、ユーザ入力970は移動基準を満たさず(移動基準:満たしていない)、閾値時間よりも長い間検出されていない(閾値時間:経過していない)。 9M, device 900 receives user input 970, which is touch input at a location on touch screen display 902 corresponding to media capture affordance 910. In FIG. As shown in the input characteristics box 901 of FIG. 9D, the user input 970 does not meet the movement criterion (movement criterion: not met) and has not been detected for longer than the threshold time (threshold time: not passed).

図9Nは、閾値時間が経過した後、かつ移動基準が満たされた後まで、デバイス900がタッチ入力970を検出し続けることを示す。したがって、図9Hの入力特性ボックス901は、ユーザ入力940が移動基準を満たさない(移動基準:満たしていない)が、閾値時間よりも長い間検出された(閾値時間:経過した)ことを示す。図9Nの例では、満たされた移動基準は、第2の移動基準である。この例では、第2の移動基準は、図9B~図9Kに関して上記した(第1の)移動基準とは異なる。この例では、第2の移動基準は、第2の方向への閾値量(例えば、任意の量、最小量)の移動を含む。図9Nの例では、タッチ入力970は、最小量(例えば、最小量の画素)だけ、第1の方向(例えば、右)とは異なる第2の方向(例えば、左)に移動している。タッチ入力970が第2の方向の第2の移動基準を満たすことを検出したことに応答して、デバイス900は、第1のタイプのメディア項目のメディア項目のシーケンスのキャプチャを開始する(例えば、「バースト」画像キャプチャモードで画像のキャプチャを開始する)。この例では、デバイス900は、タッチ入力970の検出を中止するまでメディア項目のシーケンスのキャプチャを継続する。一部の実施形態では、デバイスは、メディア項目のシーケンスをキャプチャしている間に、ロックされたメディアキャプチャ状態に移行する。例えば、デバイス900は、任意選択的に、メディアキャプチャセッションをバーストモードにロックする能力を提供し、図9G~図9Jのビデオに関して上記したのと同様に、タッチ入力970のリフトオフ時にバースト撮影が継続する。上記と同様に、バーストモードは、1つ以上の移動基準(例えば、第3の移動基準)を満たすタッチ入力に基づいてロックされ得る。 FIG. 9N shows that device 900 continues to detect touch input 970 until after the threshold time has elapsed and after the movement criteria have been met. Thus, the input characteristics box 901 in FIG. 9H indicates that the user input 940 does not meet the movement criterion (Movement Criterion: Not Met) but was detected for longer than the threshold time (Threshold Time: Elapsed). In the example of FIG. 9N, the motion criterion that is satisfied is the second motion criterion. In this example, the second movement criterion is different from the (first) movement criterion described above with respect to FIGS. 9B-9K. In this example, the second movement criterion includes movement a threshold amount (eg, any amount, minimum amount) in the second direction. In the example of FIG. 9N, touch input 970 has moved a minimal amount (eg, a minimal amount of pixels) in a second direction (eg, left) that is different from the first direction (eg, right). In response to detecting that touch input 970 satisfies a second movement criterion in a second direction, device 900 initiates capture of a sequence of media items of a first type of media item (e.g., start capturing images in the “Burst” image capture mode). In this example, device 900 continues to capture the sequence of media items until it stops detecting touch input 970 . In some embodiments, the device transitions to a locked media capture state while capturing a sequence of media items. For example, device 900 optionally provides the ability to lock a media capture session into burst mode, such that burst capture continues upon lift-off of touch input 970, similar to that described above with respect to the videos of FIGS. 9G-9J. do. Similar to above, burst mode may be locked based on touch input that meets one or more movement criteria (eg, a third movement criterion).

第1の移動基準と第2の移動基準の詳細の説明は、(例えば、本明細書で使用される例とは異なる本明細書の技法の実装形態において)いずれかを限定すること、又はいずれかの特性に限定することを意図するものではないことに留意されたい。したがって、本明細書の具体的な移動基準に関して記載された具体的な詳細は単なる例示であり、当業者は、移動基準が本明細書に記載するあらゆる移動基準の1つ以上の特性を有し得ることを理解する。 The detailed description of the first movement criterion and the second movement criterion is either limiting (e.g., in implementations of the techniques herein that differ from the examples used herein) or Note that it is not intended to be limited to any one characteristic. Accordingly, the specific details set forth with respect to particular moving criteria herein are merely exemplary, and it will be appreciated by those skilled in the art that moving criteria may have one or more characteristics of any moving criteria described herein. Understand what you get.

図9Nに示すように、タッチ入力970の検出を継続している間、デバイス900は、メディア項目のシーケンスのキャプチャを継続する。メディア項目のシーケンスのキャプチャを継続している間、デバイス900は、タッチ入力970の場所を表すタッチ入力インジケータ974を表示する。タッチ入力インジケータ974は、例示的な移動経路インジケータ975(図9O)に沿って移動する。デバイス900はまた、メディア項目のシーケンスをキャプチャする進行中の(バースト)メディアキャプチャセッション中にキャプチャされたメディア項目の数を示すシーケンスカウント972を表示する。図9Nに示すように、シーケンスカウント972の番号「1」が示すように、デバイス900が(例えば、ユーザ入力970に応答して)現在のシーケンスのキャプチャを開始以来これまで、1つのメディア項目がキャプチャされている。 As shown in FIG. 9N, while continuing to detect touch input 970, device 900 continues to capture the sequence of media items. While continuing to capture the sequence of media items, device 900 displays touch input indicator 974 representing the location of touch input 970 . Touch input indicator 974 moves along exemplary movement path indicator 975 (FIG. 9O). Device 900 also displays a sequence count 972 that indicates the number of media items captured during an ongoing (burst) media capture session that captures a sequence of media items. As shown in FIG. 9N, since the device 900 started capturing the current sequence (eg, in response to user input 970), one media item has been captured, as indicated by the number "1" in the sequence count 972. being captured.

図9O及び図9Pは、タッチ入力の検出を継続している間、デバイス900がメディア項目のシーケンスのキャプチャを継続することを示す。図9Oでは、タッチ入力970の検出が継続し、更に左にドラッグされており、シーケンスカウント976は、ここで「10」を示す(例えば、第1のタイプの10個のメディア項目がキャプチャされている)。図9Oでは、タッチ入力インジケータ974は、例示的な移動経路インジケータ975(実線として示される)に沿って移動する。一部の実施形態では、デバイス(例えば、900)は、タッチ入力の移動に応答してシーケンスカウントを移動させる(例えば、コピーを作成し、それを含む新しいユーザインタフェース要素を再位置し、表示する)。例えば、図9Oでは、タッチ入力970が(図9Nの)シーケンスカウント972の場所に向かって移動した(例えば、近づいた、又は到達した)ことに応答して、デバイス900は、(メディアキャプチャアフォーダンス910の元の場所に対応する)シーケンスカウント976において、新たな場所でキャプチャされたメディア項目の数を表示する。一部の実施形態では、デバイス(例えば、900)は、シーケンスカウントの(例えば、976までの)移動に従って、初期表示場所でのシーケンスカウント(例えば、972)の表示を中止する。このようにして、デバイス900は、ドラッグされたタッチ入力がシーケンスカウントを覆ってしまうのを防止する。一部の実施形態では、シーケンスカウントは、タッチ入力の移動に応答して移動しない。例えば、シーケンスカウントは、単一の場所(例えば、972、976、又は別の場所のいずれか)に表示され、タッチ入力が対応する場所に移動したことに応答して移動しない場合がある。一部の実施形態では、シーケンスカウントは、更なる移動に応答してもう一度移動する。例えば、タッチ入力がシーケンスカウント976の場所に戻ると、シーケンスは再び移動することができる(例えば、シーケンスカウント972として再び表示され得る)。 Figures 9O and 9P illustrate that device 900 continues to capture a sequence of media items while continuing to detect touch input. In FIG. 9O, detection of touch input 970 continues and has been dragged further to the left, and sequence count 976 now indicates "10" (eg, 10 media items of the first type have been captured). are). In FIG. 9O, touch input indicator 974 moves along exemplary movement path indicator 975 (shown as a solid line). In some embodiments, the device (e.g., 900) moves the sequence count (e.g., makes a copy, repositions and displays a new user interface element containing it in response to movement of the touch input). ). For example, in FIG. 9O, in response to touch input 970 moving toward (e.g., approaching or reaching) the location of sequence count 972 (of FIG. In the sequence count 976 (corresponding to the original location of the ), display the number of media items captured at the new location. In some embodiments, the device (eg, 900) stops displaying the sequence count (eg, 972) at the initial display location as the sequence count moves (eg, to 976). In this way, the device 900 prevents the dragged touch input from obscuring the sequence count. In some embodiments, the sequence count does not move in response to movement of the touch input. For example, a sequence count may appear in a single location (eg, either 972, 976, or another location) and not move in response to touch input moving to the corresponding location. In some embodiments, the sequence count moves again in response to further movements. For example, when the touch input returns to the location of sequence count 976, the sequence can move again (eg, can be displayed again as sequence count 972).

図9Pでは、タッチ入力970が検出され続け、更に左にドラッグされており、シーケンスカウント976はここで「20」を示す(例えば、第1のタイプの20個のメディア項目がキャプチャされている)。一部の実施形態では、デバイス(例えば、900)は、タッチ入力の検出を中止したことに応答して、メディア項目のシーケンスのキャプチャを中止する。例えば、デバイス900が、図9Pに示す瞬間にタッチ入力970の検出を中止する場合、メディア項目のシーケンスのキャプチャは、(例えば、第1のタイプの20個のメディア項目をキャプチャした後に)中止することになる。このような例では、タッチ入力970のリフトオフに応答して、デバイス900は、図9Fに示されるものと同様のメディアキャプチャインタフェース904を表示することができ、ここでは最後にキャプチャされたメディア項目エリア914は、メディア項目のシーケンス内にキャプチャされた20個のメディア項目のうちの1つの表現を含む。 In FIG. 9P, touch input 970 continues to be detected and dragged further to the left, and sequence count 976 now indicates "20" (eg, 20 media items of the first type have been captured). . In some embodiments, the device (eg, 900) stops capturing the sequence of media items in response to stopping detecting touch input. For example, if device 900 ceases detecting touch input 970 at the moment shown in FIG. 9P, then capturing the sequence of media items ceases (eg, after capturing 20 media items of the first type). It will be. In such an example, in response to lift-off of touch input 970, device 900 may display a media capture interface 904 similar to that shown in FIG. 9F, where the last captured media item area 914 contains a representation of one of the twenty media items captured in the sequence of media items.

一部の実施形態では、タッチ入力の移動量及び/又は移動速度は、第1のタイプのメディア項目のシーケンスのキャプチャ特性に影響を及ぼす。例えば、閾値速度(例えば、タッチスクリーンディスプレイ上の移動速度)を上回る移動を有するタッチ入力は、バースト画像キャプチャの速度を増大させる(例えば、より低速で移動する類似のタッチ入力よりも高速にする)ことができ、かつ/又は(例えば、より低速で移動する類似のタッチ入力より)より高速で推移することができる。別の例として、初期位置(例えば、910)からよりも長い距離を移動するタッチ入力は、バースト画像キャプチャの速度を、より短距離を移動したタッチよりも大きくすることができる。 In some embodiments, the amount and/or speed of movement of the touch input affects the capture characteristics of the sequence of media items of the first type. For example, a touch input that has movement above a threshold speed (e.g., speed of movement on a touch screen display) will increase the speed of burst image capture (e.g., make it faster than a similar touch input that moves at a slower speed). and/or may transition faster (eg, than similar touch inputs that move slower). As another example, a touch input that travels a greater distance from the initial position (eg, 910) can cause the burst image capture rate to be greater than a touch that travels a shorter distance.

図10A~図10Fは、メディアキャプチャセッションを、アンロックされたメディアキャプチャ状態からロックされたメディアキャプチャ状態に遷移させるための例示的なインタフェースを示す。特に、図10A~図10Fは、図6A~図6F及び図9A~図9Pに関して上記したように、メディアセッションをロックされたメディアキャプチャ状態に移行させるために、1つ以上のアフォーダンスと対話するタッチ入力の例示的な詳細図を示す。図10A~図10Fに示されるインタフェースは、デバイス900によって(例えば、図9A~図9Pに示されるインタフェースの1つ以上で)表示され得る。 10A-10F illustrate example interfaces for transitioning a media capture session from an unlocked media capture state to a locked media capture state. In particular, FIGS. 10A-10F illustrate touch interacting with one or more affordances to transition a media session to a locked media capture state, as described above with respect to FIGS. 6A-6F and 9A-9P. Fig. 3 shows an exemplary detailed view of an input; The interfaces shown in FIGS. 10A-10F may be displayed by device 900 (eg, in one or more of the interfaces shown in FIGS. 9A-9P).

図10Aは、例示的なメディアキャプチャアフォーダンス1000を示す。例えば、メディアキャプチャアフォーダンス1000は、メディアキャプチャアフォーダンス602又は910に関して上記したものと同じ機能を含むことができる。 FIG. 10A shows an exemplary media capture affordance 1000. FIG. For example, media capture affordance 1000 may include the same functionality as described above with respect to media capture affordances 602 or 910 .

図10Bでは、ユーザ入力1002(タッチ入力1002とも呼ばれる)は、メディアキャプチャアフォーダンス1000に関連付けられた場所で受け取られる(例えば、ユーザ入力は、アフォーダンス1000を表示するデバイスによって検出される)。この例では、図9D及び図9Eのタッチ入力930に関して上記したものと同様に、タッチ入力1002が閾値時間より長い間検出され、したがって、メディア(例えば、ビデオ)のキャプチャは、(例えば、デバイスがタッチ入力1002を検出したことに応答して、又はタッチ入力1002が閾値持続時間よりも長い間検出されたことに応答して)開始する。図10Bの矢印が示すように、タッチ入力1002は、メディアキャプチャアフォーダンス1000の右方向への移動成分を含む。図10Bにも示すように、メディアキャプチャロックアフォーダンス1004は、メディアキャプチャアフォーダンス1000の右に表示されている。例えば、メディアキャプチャロックアフォーダンス1004は、メディアキャプチャロックアフォーダンス932に関して上記したものと同じ機能を含むことができる。図10Bはまた、メディアキャプチャアフォーダンス1000とメディアキャプチャロックアフォーダンス1004とを接続する移動経路インジケータ1005も示し、それはメディアキャプチャロックアフォーダンス1004に向かう移動方向を示す。移動経路インジケータは、本明細書で使用するとき、「視覚的方向インジケータ」とも呼ばれる。 In FIG. 10B, user input 1002 (also referred to as touch input 1002) is received at a location associated with media capture affordance 1000 (eg, user input detected by the device displaying affordance 1000). In this example, similar to what was described above with respect to touch input 930 in FIGS. 9D and 9E, touch input 1002 is detected for longer than the threshold time and thus media (eg, video) capture is performed (eg, when the device In response to detecting touch input 1002, or in response to detecting touch input 1002 for longer than a threshold duration). As indicated by the arrow in FIG. 10B, touch input 1002 includes a rightward movement component of media capture affordance 1000 . As also shown in FIG. 10B, media capture lock affordance 1004 is displayed to the right of media capture affordance 1000 . For example, media capture lock affordance 1004 can include the same functionality as described above with respect to media capture lock affordance 932 . FIG. 10B also shows a movement path indicator 1005 connecting media capture affordance 1000 and media capture lock affordance 1004, which indicates the direction of movement toward media capture lock affordance 1004. FIG. A travel path indicator, as used herein, is also referred to as a "visual direction indicator."

図10Cでは、タッチ入力1002は図10Bからわずかに右に移動しており、図10Dでは、タッチ入力1002は図10Cから更に右に移動している。図10Dでは、タッチ入力インジケータ1006は、ロック距離マーカ1008をまだ通過していない。タッチ入力インジケータ1006は、上記のタッチ入力インジケータ942の1つ以上の特徴を含むことができる。一部の実施形態では、ロック距離マーカ(例えば、1008)は、移動基準に関連付けられた(例えば、それを満たすのに十分な)場所を示して(例えば、移動経路インジケータ1005上に)表示され得る。図10Dでは、ロック距離マーカ1008は、メディアキャプチャセッション状態をロックするための移動基準を満たす距離を示す。図10C及び図10Dでは、タッチ入力1002が検出され続けるにつれて、ビデオはキャプチャされ続ける。 In FIG. 10C the touch input 1002 has moved slightly to the right from FIG. 10B and in FIG. 10D the touch input 1002 has moved further to the right from FIG. 10C. In FIG. 10D, touch input indicator 1006 has not yet passed lock distance marker 1008 . Touch input indicator 1006 can include one or more features of touch input indicator 942 described above. In some embodiments, a lock distance marker (eg, 1008) is displayed (eg, on the movement path indicator 1005) indicating a location associated with (eg, sufficient to meet) the movement criterion. obtain. In FIG. 10D, lock distance marker 1008 indicates the distance that meets the movement criteria for locking the media capture session state. In FIGS. 10C and 10D, video continues to be captured as touch input 1002 continues to be detected.

図10Eでは、タッチ入力1002は右に移動し、ロック距離マーカ1008を通過している。この例では、移動基準は、メディアキャプチャセッションをロックされたメディアキャプチャ状態に遷移させるための移動基準を満たすためにタッチ入力(例えば、1002)のリフトオフを必要としない。したがって、図10Eでは、メディアキャプチャセッション(例えば、ビデオの記録)がロックされたメディアキャプチャ状態に移行されている。例えば、図10Fに示すように、図10Eに描かれた位置でのタッチ入力1002のリフトオフ後、ビデオキャプチャが継続する(例えば、停止アフォーダンス1010が表示され、ビデオが記録されていることを示している)。また、図10Eに示すように、メディアキャプチャロックアフォーダンス1004は、(例えば、画像キャプチャアフォーダンス944と同様の)画像キャプチャアフォーダンス1012の表示と取り替えられており、それは、第2のタイプのメディア(例えば、ビデオ)を記録している間、メディア(例えば、静止画像、及び/又は固定持続時間クリップなどの第1のタイプ)をキャプチャするために使用され得る。 In FIG. 10E, touch input 1002 has moved to the right and passed lock distance marker 1008 . In this example, the movement criteria do not require liftoff of the touch input (eg, 1002) to satisfy the movement criteria for transitioning the media capture session to the locked media capture state. Thus, in FIG. 10E, the media capture session (eg, video recording) has been transitioned to a locked media capture state. For example, as shown in FIG. 10F, after liftoff of touch input 1002 at the location depicted in FIG. 10E, video capture continues (eg, stop affordance 1010 is displayed to indicate that video is being recorded). there). Also, as shown in FIG. 10E, media capture lock affordance 1004 has been replaced with a display of image capture affordance 1012 (eg, similar to image capture affordance 944), which is a second type of media (eg, It can be used to capture media (eg, still images and/or the first type such as fixed duration clips) while recording video).

図10Fでは、デバイスは、タッチ入力1002の検出を中止しているが、図9Jに関して上記したものと同様に、メディアのキャプチャ(例えば、ビデオの記録)を継続する。この例では、タッチ入力1002のリフトオフは、(例えば、メディアキャプチャロックアフォーダンス1004に関連付けられた場所に到達する前に)、図10Eに示す場所である間に発生したが、タッチ入力1002の移動がロック距離マーカ1008を通り越して(タッチ入力インジケータ1006によって表されるように)移動したため、メディアキャプチャセッションは依然として継続することになる。一部の実施形態では、デバイスは、タッチ入力インジケータ(例えば、1006)、ロック距離マーカ(例えば、1008)、及び移動経路インジケータ(例えば、1005)のうちの1つ以上を表示しない。例えば、図10Eを参照すると、デバイスは、タッチ入力インジケータ1006、ロック距離マーカ1008及び移動経路インジケータ1005のうちの全て表示できるわけではなく(又は、いずれも表示することができず)表示、依然として図10E及び図10Fに関して説明するリフトオフに応答して同じ動作を実行することができる。 In FIG. 10F, the device has stopped detecting touch input 1002, but continues to capture media (eg, record video), similar to what was described above with respect to FIG. 9J. In this example, touch input 1002 lifted off (eg, before reaching the location associated with media capture lock affordance 1004) while at the location shown in FIG. Having moved past the lock distance marker 1008 (as represented by the touch input indicator 1006), the media capture session will still continue. In some embodiments, the device does not display one or more of the touch input indicator (eg, 1006), locking distance marker (eg, 1008), and travel path indicator (eg, 1005). For example, referring to FIG. 10E, the device may not display all (or none) of the touch input indicator 1006, the lock distance marker 1008 and the movement path indicator 1005; The same actions may be performed in response to liftoff as described with respect to 10E and 10F.

上記の説明では、タッチ入力920、930、940、970、及び1002は、異なる参照番号によって示されている。しかし、これらのタッチ入力は、タッチ入力が結局1つ以上のジェスチャ入力であるかどうかに基づいて発生し得る複数の潜在的なジェスチャ及び/又は結果を表すことを意図している。すなわち、タッチ入力920、930、940、970、及び1002のそれぞれは、単一のタッチ入力に関する異なる可能な結果を表す。例えば、タッチ入力920及び930は、同じ場所で同じデバイス条件の間に開始し、タッチ入力のための共通の開始点を表す。しかし、1つはタップジェスチャ(920)となり、1つはタップアンドホールドジェスチャ(930)になるので、異なるメディアキャプチャアクションが行われる。したがって、ユーザには、ユーザがタッチ入力を用いて実行するジェスチャに基づいて、デバイスの複数のメディアキャプチャアクションの制御が行われ得る。 In the above description, touch inputs 920, 930, 940, 970, and 1002 are indicated by different reference numerals. However, these touch inputs are intended to represent multiple potential gestures and/or consequences that may occur based on whether the touch input is ultimately one or more gesture inputs. That is, each of touch inputs 920, 930, 940, 970, and 1002 represent different possible outcomes for a single touch input. For example, touch inputs 920 and 930 begin at the same location and during the same device conditions, representing a common starting point for touch inputs. However, one would be a tap gesture (920) and one would be a tap and hold gesture (930), resulting in different media capture actions. Thus, a user may be given control of multiple media capture actions of the device based on gestures that the user performs with touch input.

加えて、上記の例は例示的なものであり、ジェスチャ、メディアアクション、移動基準、及び閾値時間の様々な組み合わせに関して限定することを意図するものではない。例えば、ビデオキャプチャが右方向への移動に関して説明されているが、代わりに右への移動に応答して、バーストメディアキャプチャを実行することができる。同様に、左への移動は、上記のようにバーストメディアキャプチャをもたらす代わりに、第1のタイプのメディア(例えば、静止画像)のキャプチャとなってもよい。ジェスチャ、メディアアクション、移動基準、及び閾値時間の様々な組み合わせを、本開示の範囲に従ってユーザインタフェースを作成するためにあらゆる組み合わせで組み合わせる、かつ/又は配置することができることを当業者であれば認識するであろう。このようなインタフェースはすべて、本開示の範囲内であることが意図される。 Additionally, the above examples are illustrative and not intended to be limiting with respect to various combinations of gestures, media actions, movement criteria, and threshold times. For example, although video capture is described with respect to rightward movement, burst media capture can alternatively be performed in response to rightward movement. Similarly, moving to the left may result in the capture of the first type of media (eg, still images) instead of resulting in burst media capture as described above. Those skilled in the art will recognize that various combinations of gestures, media actions, movement criteria, and threshold times can be combined and/or arranged in any combination to create a user interface in accordance with the scope of this disclosure. Will. All such interfaces are intended to be within the scope of this disclosure.

図11は、一部の実施形態による電子デバイスを使用したジェスチャによるメディアキャプチャを実行する方法を示すフロー図である。方法1100は、ディスプレイ、タッチ感知面、及び1つ以上のメディアキャプチャ構成要素(例えば、画像センサ、カメラ)を有するデバイス(例えば、100、300、500、800)で実行される。方法1100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 FIG. 11 is a flow diagram illustrating a method of performing gestural media capture using an electronic device according to some embodiments. Method 1100 is performed on a device (eg, 100, 300, 500, 800) having a display, a touch-sensitive surface, and one or more media capture components (eg, image sensor, camera). Some acts of method 1100 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

後述するように、方法1100は、ジェスチャによるメディアキャプチャを実行するための直感的な仕方を提供する。この方法は、メディアキャプチャを実行するユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作成する。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアキャプチャを実行することを可能にすることで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, the method 1100 provides an intuitive way to perform gestural media capture. This method reduces the cognitive burden on the user performing media capture, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by allowing users to perform media capture faster and more efficiently.

電子デバイス(例えば、600、900)は、ディスプレイ(例えば、タッチスクリーンディスプレイ902)上に、第1のユーザインタフェース要素(例えば、910、602、1000)を(例えば、601で、904で)表示する(1102)。電子デバイスは、(例えば、第1のユーザインタフェース要素を表示している間に)タッチ感知面(例えば、タッチスクリーンディスプレイ902)を介して、第1のユーザインタフェース要素に対応するタッチ感知面上の場所(例えば、910の場所、602の場所、1000の場所)で(タッチ感知面上のオブジェクトのタッチダウン(指を下ろす)イベントを)開始するタッチ入力(例えば、603、920、930、940、970、1002)を検出する(1104)。 An electronic device (eg, 600, 900) displays (eg, at 601, 904) a first user interface element (eg, 910, 602, 1000) on a display (eg, touch screen display 902) (1102). The electronic device, via a touch-sensitive surface (e.g., touch screen display 902) (e.g., while displaying the first user interface element), Touch inputs (e.g., 603, 920, 930, 940, 940, 940, 940, 920, 940, 940, 920, 940, 910, 910, 910, 602, 1000). 970, 1002) is detected (1104).

タッチ入力の検出に応答して(1106)、タッチ入力(例えば、920)が移動基準を満たす前に、かつタッチ入力(例えば、タッチスクリーンディスプレイ902上のタッチ入力のタッチダウンイベント)が検出されてから閾値時間(例えば、1秒)(例えば、ビデオが記録を自動的に開始する前の時間)が経過する前に、タッチ入力がタッチ感知面(例えば、902)からリフトされたとの判定に従って、電子デバイス(例えば、600、900)は、第1のタイプのメディア(例えば、単一の画像、及び/又は固定持続時間を有するビデオ)をキャプチャする(1108)。例えば、図9B~図9Cは、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、例示的なタッチ入力920(タップ入力ジェスチャ)がタッチスクリーン902からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャするデバイス900を示す。 In response to detecting 1106 the touch input, before the touch input (eg, 920) meets the movement criteria, and the touch input (eg, a touchdown event of the touch input on the touch screen display 902) is detected. according to a determination that the touch input was lifted from the touch-sensitive surface (e.g., 902) before a threshold time (e.g., 1 second) elapses (e.g., the time before the video automatically begins recording) from An electronic device (eg, 600, 900) captures (1108) a first type of media (eg, a single image and/or a video having a fixed duration). For example, FIGS. 9B-9C illustrate an exemplary touch input 920 (tap input gesture) touching the touch screen 902 before the touch input meets the movement criteria and before the threshold time has elapsed since the touch input was detected. A device 900 is shown capturing a first type of media in accordance with a determination that it has been lifted from.

一部の実施形態では、タッチ入力(例えば、920)が移動基準を満たす前にタッチ入力がタッチ感知面(例えば、902)からリフトされたとの判定は、閾値を超える移動量(例えば、メディアキャプチャセッションをアンロックされたメディアキャプチャ状態からロックされたメディアキャプチャ状態を移行する(例えば、遷移させる)のに十分な移動)が検出される前にタッチ入力がリフトされたとの判定を含む。例えば、閾値量は、タッチダウンの場所(例えば、メディアキャプチャアフォーダンス)から既定の距離、又はタッチダウンの場所(例えば、メディアキャプチャアフォーダンス)から既定の領域/エリア/場所までの距離であってもよい。一部の実施形態では、タッチ入力が移動基準を満たす前にタッチ入力がタッチ感知面からリフトされたとの判定は、タッチ入力がメディアキャプチャアフォーダンス(例えば、910、602、1000)に対応する第1の領域(例えば、エリア、場所)の外に移動する前に、かつ/又は、タッチ入力が、リフトオフを検出した後に継続する第2のタイプのメディアのキャプチャに関連付けられた第2の領域(例えば、エリア、場所)内に移動する前に、タッチ入力がリフトされたとの判定を含む。例えば、第1の領域は、メディアキャプチャアイコンアフォーダンス910(又は、第2のタイプのメディアの記録を開始したことに従ってメディアキャプチャアイコンアフォーダンス910を取り替えた場合には停止アフォーダンス934)の場所とすることができ、第2の領域は、メディアキャプチャロックアフォーダンス932とすることができる。更なる例では、第2の領域は、移動経路インジケータ(例えば、974、1005)に沿った領域(例えば、図10Eのロック距離マーカ1008の右などの、特定の点又はアフォーダンス1000又は1010からの距離を通り越した領域)であってもよい。 In some embodiments, determining that the touch input (eg, 920) was lifted from the touch-sensitive surface (eg, 902) before the touch input (eg, 920) met the movement criteria is an amount of movement (eg, media capture including determining that the touch input is lifted before sufficient movement to transition (e.g., transition) the session from the unlocked media capture state to the locked media capture state is detected. For example, the threshold amount may be a predetermined distance from the touchdown location (e.g., media capture affordance) or a distance from the touchdown location (e.g., media capture affordance) to a predetermined region/area/location. . In some embodiments, determining that the touch input was lifted from the touch-sensitive surface before the touch input met the movement criteria is the first step to which the touch input corresponds to the media capture affordance (eg, 910, 602, 1000). before moving out of the region (e.g., area, location) of the second region (e.g., , area, location), including determining that the touch input has been lifted. For example, the first region may be the location of the media capture icon affordance 910 (or the stop affordance 934 if the media capture icon affordance 910 was replaced pursuant to starting recording of the second type of media). A second area can be a media capture lock affordance 932 . In a further example, the second region is a region along the path of travel indicator (eg, 974, 1005) from a particular point or affordance 1000 or 1010, such as to the right of the lock distance marker 1008 in FIG. 10E. distance).

一部の実施形態では、メディアをキャプチャすることは、1つ以上のメディアキャプチャ構成要素(例えば、画像センサ、カメラ)を使用して1つ以上の画像(例えば、単一の画像、一連の画像を含むビデオ)を記録すること、(例えば、ビデオ記録中に)オーディオを(例えば、1つ以上のマイクロフォンを用いて)記録すること、及び、メディアライブラリ内にメディア項目(例えば、記録中の静止画像、記録されたビデオ)を記憶すること、のうち1つ以上を含む。例えば、メディア項目をキャプチャすることは、ビデオクリップの記録を開始すること、そのビデオクリップの記録を中止すること、及びビデオクリップがデバイスに関連付けられたメディアライブラリ(例えば、カメラロール)に関連付けられる(例えば、それにアクセスできる)ようにビデオクリップを記憶すること、を含むことができる。別の例として、「キャプチャを開始する」とは、デバイスがビデオの記録を開始することを指すことができる。別の例として、「キャプチャを中止する」とは、デバイスがビデオの記録を中止する(例えば、ビデオ記録を停止する)ことを指すことができる。一部の実施形態では、「キャプチャを中止する」結果キャプチャされたビデオは、(例えば、ビデオの記録が中止されたことに従って自動的に)メディアライブラリに記憶される。一部の実施形態では、デバイス(例えば、600、900)は、タッチ感知面上のタッチ入力のタッチダウンを検出したことに応答して、第1のタイプのメディアをキャプチャする。一部の実施形態では、デバイスは、(例えば、タッチダウンで開始する)タッチ入力の検出中、及びタッチ感知面上のタッチ入力のリフトオフの検出中の任意の時点で、第1のタイプのメディアをキャプチャする。一部の実施形態では、デバイスは、タッチ感知面からのタッチ入力のリフトオフに応答して、第1のタイプのメディアをキャプチャする。一部の実施形態では、タッチ感知面上のタッチ入力のタッチダウンの前に、第1のタイプのメディアがキャプチャされる(又はキャプチャを開始する)。例えば、デバイス(例えば、600、900)は、タッチ入力の前に(例えば、タッチ入力を予測して)記録していることがあり、タッチ入力に応答して、タッチ入力(例えば、603、920、930、940、970、1002)が実際にデバイスによって検出される前にキャプチャされた又は(例えば、ビデオ用に)キャプチャが開始された1つ以上のメディア項目をキャプチャする。 In some embodiments, capturing media involves capturing one or more images (e.g., a single image, a series of images) using one or more media capture components (e.g., image sensors, cameras). recording audio (e.g., using one or more microphones) (e.g., during video recording); and recording media items (e.g., static storing images, recorded video). For example, capturing a media item includes starting recording a video clip, stopping recording that video clip, and the video clip being associated with a media library (e.g., camera roll) associated with the device ( For example, storing the video clip so that it can be accessed. As another example, "start capturing" can refer to the device starting to record video. As another example, "stop capturing" can refer to a device stopping recording video (eg, stopping video recording). In some embodiments, the video captured as a result of "stop capturing" is stored in the media library (eg, automatically according to which video recording was stopped). In some embodiments, the device (eg, 600, 900) captures the first type of media in response to detecting touchdown of touch input on the touch-sensitive surface. In some embodiments, at any time during detection of touch input (e.g., beginning with touchdown) and during detection of liftoff of touch input on the touch-sensitive surface, the device detects the first type of media. to capture. In some embodiments, the device captures the first type of media in response to lift-off of touch input from the touch-sensitive surface. In some embodiments, the first type of media is captured (or begins capturing) prior to touchdown of the touch input on the touch-sensitive surface. For example, a device (e.g., 600, 900) may have recorded prior to touch input (e.g., anticipate touch input), and in response to touch input, touch input (e.g., 603, 920). , 930 , 940 , 970 , 1002 ) were captured or started capturing (eg, for video) before they were actually detected by the device.

タッチ入力を検出したことに応答して(1106)、タッチ入力(例えば、930)が移動基準を満たす前に(例えば、閾値移動量を検出される前に、タッチ入力がキャプチャアフォーダンス(例えば、910、602、1000)に対応する第1の領域の外に移動する前に、かつ/又は、タッチ入力が、(例えば、アフォーダンス932での)リフトオフ検出後も継続する第2のタイプのメディアのキャプチャに関連付けられた第2の領域内に移動する前に)、かつ、タッチ入力(例えば、タッチスクリーン902へのタッチダウンイベント)が検出されてから閾値時間(例えば、1秒)を経過した後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、電子デバイス(例えば、600、900)は、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディア(例えば、オーディオを含むビデオ)をキャプチャする(1110)。例えば、例示的なタップアンドホールドジェスチャ入力930に応答して、デバイス900は、タッチ入力の持続時間に基づく(例えば、等しい)長さを有するビデオをキャプチャする。一部の実施形態では、第2のタイプのメディアの持続時間は、タッチ入力がタッチ感知面上で検出された持続時間と同じである。例えば、タッチ入力持続時間が8秒である場合、得られるビデオは8秒である。一部の実施形態では、第2のタイプのメディアの持続時間は、タッチ入力が閾値時間を超えた時からタッチ感知面からのタッチ入力のリフトオフまでの持続時間である。例えば、タッチ入力持続時間が8秒であり、閾値時間が1秒である場合、得られるビデオは7秒である。一部の実施形態では、タッチ入力は、メディアキャプチャセッションをロックされたメディアキャプチャ状態に移行させるための移動基準を満たさない移動を含み、デバイス(例えば、600、900)は、(例えば、閾値時間を満たすタッチ入力に応答して、又はタッチ入力の移動(例えば、特定の方向における特定の移動量)に応答して)第2のタイプのメディアのキャプチャをいずれにしても開始する。一部の実施形態では、タッチ入力が、(例えば、メディアキャプチャロックアフォーダンスに向かう(例えば、最小量の)タッチ入力の移動に応答して)デバイス(例えば、600、900)に第2のタイプのメディアのキャプチャを開始させる移動基準(例えば、メディアキャプチャロック状態を可能にする基準と同一又は異なる)を満たす前に、タッチ入力は閾値時間検出されていない。図9D~図9Fは、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、例示的なタッチ入力930がタッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する、第2のタイプのメディアをキャプチャするデバイス900を示す。 In response to detecting 1106 touch input, touch input is captured affordance (eg, 910) before the touch input (eg, 930) meets the movement criterion (eg, before threshold movement is detected). , 602, 1000) and/or the second type of media capture where the touch input continues after liftoff detection (eg, at affordance 932). before moving into a second region associated with the Upon determining that the touch input has been lifted from the touch-sensitive surface, the electronic device (eg, 600, 900) outputs a second type of media (eg, video (including audio) is captured (1110). For example, in response to exemplary tap-and-hold gesture input 930, device 900 captures video having a length based on (eg, equal to) the duration of the touch input. In some embodiments, the duration of the second type of media is the same as the duration that the touch input was detected on the touch-sensitive surface. For example, if the touch input duration is 8 seconds, the resulting video is 8 seconds. In some embodiments, the duration of the second type of media is the duration from when the touch input exceeds the threshold time to liftoff of the touch input from the touch-sensitive surface. For example, if the touch input duration is 8 seconds and the threshold time is 1 second, the resulting video is 7 seconds. In some embodiments, the touch input includes a movement that does not meet the movement criteria for transitioning the media capture session to a locked media capture state, and the device (eg, 600, 900) controls (eg, threshold time or in response to movement of the touch input (eg, a certain amount of movement in a certain direction) either in response to a touch input that satisfies In some embodiments, the touch input causes the device (e.g., 600, 900) to enter the second type (e.g., in response to movement of the touch input (e.g., minimal amount) toward the media capture lock affordance). Touch input has not been detected for a threshold amount of time before meeting a movement criterion that initiates media capture (eg, the same or different than the criterion that enables a media capture lock state). 9D-9F illustrate an exemplary touch input 930 following a determination that the touch input has been lifted from the touch-sensitive surface before the touch input meets the movement criteria and after a threshold amount of time has elapsed since the touch input was detected. 9 shows a device 900 for capturing a second type of media having a duration based on the duration of touch input on the touch sensitive surface.

タッチ入力を検出したことに応答して(1106)、タッチ入力(例えば、940、603)が移動基準を満たし、第1の方向への(例えば、図9G~図9Iに示すように)移動を含むとの判定に従って(例えば、タッチ入力は、第1の方向(例えば、タッチ感知面の第1の縁部に向かう、メディアキャプチャアフォーダンス910からメディアキャプチャロックアフォーダンス932に向かう)への2つ以上の閾値移動量(例えば、メディアキャプチャアフォーダンス910の場所からメディアキャプチャロックアフォーダンス932の場所への移動)を含む、又はタッチ入力が、(例えば、アフォーダンス932での)リフトオフの検出後に継続する第2のタイプのメディアのキャプチャに関連付けられた第2の領域内に移動しているとき)、電子デバイス(例えば、600、900)は、第2のタイプのメディア(例えば、ビデオ)のキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続する(1112)。例えば、図9G~図9Jは、例示的なタッチ入力940が移動基準を満たし(例えば、アフォーダンス932の場所のリフトオフ)、第1の方向(例えば、アフォーダンス932に向かう)への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、(リフトオフ後に)キャプチャを継続するデバイス900を示す。更なる例では、図10A~図10Fは、移動基準を満たし(例えば、第1の方向へロック距離マーカ1008を通り越した移動)、第1の方向(例えば、右)への移動を含む例示的なタッチ入力1002を示す。一部の実施形態では、閾値時間が経過したかどうか、及び/又はタッチ入力の移動が閾値時間に対して開始又は終了したタイミングにかかわらず、移動基準を満たし、第1の方向への移動を含むタッチ入力に応答して、デバイスは上述した動作を実行する。例えば、デバイス900は、タッチ入力(例えば、閾値時間が1秒である場合)に応答してビデオの記録を開始することができ、タッチ入力が静止したタップアンドホールドであることを検出した(かつビデオを記録した)2分後に、デバイスは、タッチ入力が移動してメディアキャプチャセッションのロック基準を満たすことを検出し、それに応じて、デバイスはリフトオフ後に記録を継続することになる。 In response to detecting a touch input (1106), the touch input (eg, 940, 603) satisfies the movement criteria and causes movement in a first direction (eg, as shown in FIGS. 9G-9I). (e.g., touch input is directed to a first edge of the touch-sensitive surface, from media capture affordance 910 to media capture lock affordance 932). A second type that includes a threshold amount of movement (e.g., movement from a location at media capture affordance 910 to a location at media capture lock affordance 932) or where touch input continues after detection of liftoff (e.g., at affordance 932). (eg, 600, 900), the electronic device (eg, 600, 900) begins capturing a second type of media (eg, video) and touches After detecting lift-off of the touch input from the sensing surface, capture of the second type of media continues (1112). For example, FIGS. 9G-9J show that an exemplary touch input 940 satisfies a movement criterion (eg, lift off location of affordance 932) and includes movement in a first direction (eg, toward affordance 932). Device 900 is shown beginning and continuing capture (after lift-off) of a second type of media in accordance with the determination. As a further example, FIGS. 10A-10F illustrate exemplary motion criteria that meet a movement criterion (eg, move past lock distance marker 1008 in a first direction) and include movement in a first direction (eg, right). touch input 1002 is shown. In some embodiments, regardless of whether the threshold time has elapsed and/or when the movement of the touch input started or ended relative to the threshold time, the movement criterion is satisfied and movement in the first direction is permitted. In response to touch input, including, the device performs the operations described above. For example, the device 900 can begin recording video in response to touch input (eg, if the threshold time is 1 second) and detects that the touch input is a stationary tap and hold (and Two minutes after recording the video, the device will detect that the touch input has moved to meet the lock criteria for the media capture session, and accordingly the device will continue recording after liftoff.

一部の実施形態では、メディアのキャプチャを継続することは、メディアキャプチャセッションをアンロックされたメディアキャプチャ状態からロックされたメディアキャプチャ状態(例えば、「ロックされたメディアキャプチャセッション状態」とも呼ばれる)に遷移させることを含む。一部の実施形態では、電子デバイス(例えば、600、900)は、ユーザインタフェース要素(例えば、マーカ1008、アフォーダンス932又は1004)、又は移動基準を満たすタッチ入力移動量の他のグラフィカル表示を表示する。一部の実施形態では、デバイスは、2つ以上のユーザインタフェース要素を表示する。一部の実施形態では、各ユーザインタフェース要素は、(例えば、異なるメディアキャプチャ関連動作に関連付けられた)同じ又は異なる移動基準に対応することができる。例えば、デバイスは、メディアキャプチャセッションをメディアキャプチャ状態に移行させ、したがって、タッチ入力(例えば、1002)のリフトオフの後に継続する移動量を示すエリア(例えば、932のエリア、1008の右のエリア)を示すグラフィカルユーザインタフェース要素(例えば、932、1008)を表示する。一部の実施形態では、移動基準は、(例えば、図10A~図10Fに関して図示し説明したように)第1のユーザインタフェース要素(例えば、1000)と他のユーザインタフェース要素(例えば、1004)との間の距離(例えば、その一部)よりも短い移動である。例えば、例示的な第1のユーザインタフェース要素1000から例示的なユーザインタフェース要素1004までの距離の少なくとも50%のタッチ入力1002の移動及びリフトオフは、タッチ入力のリフトオフ後にメディアのキャプチャを継続するために十分であり得る。 In some embodiments, continuing to capture media moves the media capture session from an unlocked media capture state to a locked media capture state (e.g., also referred to as a "locked media capture session state"). Including transitioning. In some embodiments, the electronic device (eg, 600, 900) displays a user interface element (eg, marker 1008, affordance 932 or 1004) or other graphical representation of the amount of touch input movement that meets the movement criteria. . In some embodiments, the device displays more than one user interface element. In some embodiments, each user interface element may correspond to the same or different movement criteria (eg, associated with different media capture related actions). For example, the device transitions the media capture session to the media capture state, thus displaying areas (eg, area at 932, area to the right of 1008) that indicate the amount of movement that continues after liftoff of touch input (eg, 1002). display the graphical user interface elements (eg, 932, 1008) shown. In some embodiments, the movement criteria are a first user interface element (eg, 1000) and another user interface element (eg, 1004) (eg, as shown and described with respect to FIGS. 10A-10F). is a movement that is shorter than the distance between (eg, a portion of). For example, movement and liftoff of touch input 1002 of at least 50% of the distance from exemplary first user interface element 1000 to exemplary user interface element 1004 is required to continue capturing media after liftoff of the touch input. can be sufficient.

第1のタイプのメディア、特定の持続時間を有する第2のタイプのメディア、及びキャプチャされ続ける第2のタイプのメディアをキャプチャするかどうかを判定するために、移動基準と閾値時間の1つ以上の組み合わせを使用すると、追加の表示された制御でユーザインタフェース(例えば、GUI)を雑然とさせずに追加の制御オプションが提供される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザを適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。更に、ユーザは、単一の技法を使用してビデオ記録を開始し、ビデオ記録を開始した後に、デバイスが記録を迅速に終了するか、それとも記録を延長するかを示す異なる継続ジェスチャを実行することができる。更に、ユーザは、迅速に記録を開始し、記録開始後に、写真、短いビデオ、又は長いビデオをキャプチャするかどうかを決定することができる。更に、これにより、ディスプレイ上に表示する必要がある制御の数が低減される(例えば、静止写真ボタン及びビデオボタンの両方、又は異なるタイプのメディア用の3つの異なるボタンは必要とされない)。スクリーンスペースの節約は、ユーザがキャプチャしているコンテンツのカメラプレビューを表示するために、スクリーンの残りの部分を使用することがある場合に特に重要である。 one or more of a movement criterion and a threshold time to determine whether to capture a first type of media, a second type of media having a specified duration, and a second type of media that continues to be captured; Using the combination of provides additional control options without cluttering the user interface (eg, GUI) with additional displayed controls. By providing additional control options without cluttering the UI with additional controllers being displayed, the usability of the device is enhanced and the user-device interface (e.g., when operating/interacting with the device making the device more efficient (by helping the user to give the correct input and reducing user error), as well as by enabling the user to use the device more quickly and efficiently Reduced usage and improved battery life. In addition, the user can use a single technique to start video recording, and after starting video recording, perform different continue gestures to indicate whether the device should end the recording quickly or extend the recording. be able to. Additionally, the user can quickly start recording and decide whether to capture a photo, short video, or long video after starting the recording. Furthermore, this reduces the number of controls that need to be shown on the display (eg, both still photo and video buttons, or three different buttons for different types of media are not required). Saving screen space is especially important when the rest of the screen may be used to display a camera preview of the content the user is capturing.

第1のタイプのメディア、特定の持続時間を有する第2のタイプのメディア、及びキャプチャされ続ける第2のタイプのメディアをキャプチャするかどうかを判定するために、移動基準と閾値時間の1つ以上の組み合わせを使用すると、特定のユーザインタフェースから開始の際に、これらの動作のうち1つ以上を実行するのに必要な入力数が低減される。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 one or more of a movement criterion and a threshold time to determine whether to capture a first type of media, a second type of media having a specified duration, and a second type of media that continues to be captured; Using a combination of , reduces the number of inputs required to perform one or more of these operations when starting from a particular user interface. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reducing device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved.

ユーザインタフェース要素上のタッチ入力の移動基準を使用すると、キャプチャされたタッチ入力のリフトオフ後にメディアのタイプがキャプチャされ続けるかどうかを制御するために(例えば、第2の)タイプのメディアのキャプチャを引き起こす/開始するために使用可能であり、ユーザインタフェース(例えば、GUI)を追加で表示された制御により雑然とさせずに、追加の制御オプションが提供される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザを適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Using touch input movement criteria on a user interface element triggers the capture of a (e.g., second) type of media to control whether that type of media continues to be captured after liftoff of captured touch input. / to provide additional control options without cluttering the user interface (eg, GUI) with additional displayed controls. By providing additional control options without cluttering the UI with additional controllers being displayed, the usability of the device is enhanced and the user-device interface (e.g., when operating/interacting with the device making the device more efficient (by helping the user to give the correct input and reducing user error), as well as by enabling the user to use the device more quickly and efficiently Reduced usage and improved battery life.

一部の実施形態では、タッチ入力(例えば、図9D~図9Fの930)が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ入力がタッチ感知面(例えば、902)からリフトされたとの判定に従って、電子デバイス(例えば、600、900)は、タッチ入力のリフトオフを検出した(例えば、記録されたビデオ持続時間の終了がリフトオフで発生した)ことに応答して、(例えば、図9D~図9Fに示すように)第2のタイプのメディア(例えば、ビデオ)のキャプチャを中止する(例えば、ビデオの記録を中止し、得られたビデオをメディアライブラリに記憶する)。 In some embodiments, before the touch input (eg, 930 in FIGS. 9D-9F) meets the movement criteria and after a threshold time has elapsed since the touch input was detected, the touch input is detected on the touch-sensitive surface ( 902), the electronic device (e.g., 600, 900) responds to detecting liftoff of the touch input (e.g., the end of the recorded video duration occurred at liftoff). to stop capturing the second type of media (eg, video) (eg, as shown in FIGS. 9D-9F) (eg, stop recording the video and store the resulting video in the media library). Remember).

一部の実施形態では、第1のタイプのメディアは、タッチ感知面(例えば、902)上のタッチ入力(例えば、920)の持続時間とは無関係の持続時間を有する。例えば、第1のタイプのメディアは、(例えば、タッチスクリーンディスプレイ902上の)タッチ入力持続時間に影響されない一定の長さ(例えば、3秒の長さ)を有するビデオであってもよく、静止写真又は他の写真若しくはその静止写真の前にかつ/又はその後に既定の持続時間にわたるオーディオコンテンツなどのメディアのシーケンスを伴う静止写真であってもよい。 In some embodiments, the first type of media has a duration that is independent of the duration of touch input (eg, 920) on the touch-sensitive surface (eg, 902). For example, the first type of media may be video having a fixed length (eg, 3 seconds long) that is not affected by touch input duration (eg, on touch screen display 902), static It may be a still photograph with a sequence of media such as audio content for a predetermined duration preceding and/or following the photograph or other photograph or still photograph thereof.

一部の実施形態では、移動基準は第1の移動基準であり、タッチ入力(例えば、970)を検出したことに応答して(1106)、タッチ入力が第2の移動基準(例えば、図9M~図9Nのメディアキャプチャアフォーダンス910の領域/場所の外への移動)を満たし、第1の方向(例えば、図9M~図9Nの右へ)とは異なる第2の方向(例えば、図9M~図9Nのメディアキャプチャアフォーダンス910(又は停止アフォーダンス934)の場所の左へ)への移動を含むとの判定に従って、電子デバイス(例えば、600、900)は、第1のタイプのメディア(例えば、静止写真)のメディア項目のシーケンス(例えば、バースト画像キャプチャモードを開始する)のキャプチャを開始し(1114)、キャプチャされたメディア項目の数は、タッチ感知面上のタッチ入力の持続時間(例えば、ユーザインタフェース要素の場所(例えば、910、602、1000、934、605)から閾値距離を超える間の、又はタッチ入力が第1のタイプのメディアのメディア項目のシーケンスのキャプチャに関連付けられた既定の領域(例えば、アフォーダンス910、934、602、1000、又は605の左への領域)にある間の、タッチ入力の持続時間)に基づいて決定される。例えば、タッチ入力が、第1の方向(例えば、図9M~図9Nの右へ)とは異なる(例えば、それとは反対に、タッチ感知面の第2の端部に向かって)第2の方向への閾値を超える移動量(例えば、バーストモードを有効にするのに十分な)を含む、又は第1のタイプのメディアのメディア項目のシーケンスのキャプチャに関連付けられた既定の領域(例えば、図9M~図9Nのメディアキャプチャアフォーダンス910の左の領域)への移動を含む場合、タッチ入力は第2の移動基準を満たすことができる。メディア項目のシーケンスのキャプチャは、バーストモード、バースト画像キャプチャモード、連続撮影モードなどと呼ばれる場合もある。 In some embodiments, the movement criterion is a first movement criterion and in response to detecting 1106 touch input (eg, 970) touch input is a second movement criterion (eg, FIG. 9M). 9N) and a second direction (eg, to the right in FIGS. 9M-9N) that is different from the first direction (eg, to the right in FIGS. 9M-9N). In accordance with a determination to include movement to the left of the location of media capture affordance 910 (or stop affordance 934) in FIG. start capturing 1114 a sequence of media items (e.g., initiate a burst image capture mode) (e.g., start a burst image capture mode), and the number of media items captured is determined by the duration of the touch input on the touch-sensitive surface (e.g., user A predetermined region (e.g., 910, 602, 1000, 934, 605) from the location of the interface element (e.g., 910, 602, 1000, 934, 605) while exceeding a threshold distance or where touch input is associated with capturing a sequence of media items of the first type of media ( For example, the duration of the touch input while in the area to the left of affordances 910, 934, 602, 1000, or 605). For example, if the touch input is in a second direction (eg, oppositely toward the second end of the touch-sensitive surface) that is different from the first direction (eg, to the right in FIGS. 9M-9N). A predefined region (e.g., FIG. 9M 9N), the touch input can satisfy the second movement criterion. Capturing a sequence of media items is sometimes referred to as burst mode, burst image capture mode, continuous shooting mode, and the like.

一部の実施形態では、第2の移動基準を満たす移動は、閾値時間の前に生じる。例えば、移動基準は、デバイスがメディア項目のシーケンスのキャプチャを開始するために、第2の方向への移動が閾値時間内に発生しなければならないことを要求することができる。一部の実施形態では、移動は閾値時間の前に開始する。例えば、移動基準は、デバイスがメディア項目のシーケンスのキャプチャを開始するために、第2の方向への移動が(例えば、閾値時間の後に移動が終了した場合であっても)閾値時間の前に開始されなければならないことを要求することができる。一部の実施形態では、第2の移動基準は、閾値持続時間が経過した後に開始する移動によって満たされ得る。一部の実施形態では、第2の移動基準は、任意の移動(例えば、特定の(例えば、第2の)方向への任意の移動)を含む。一部の実施形態では、第2の移動基準は、(例えば、第2の方向への)閾値量の移動(例えば、最小距離)を含む。一部の実施形態では、第2の移動基準は、タッチ入力が、メディアキャプチャアフォーダンス(例えば、910、602、1000)に対応する第1の領域の外側に移動しているという要件を含む。一部の実施形態では、第2の移動基準は、タッチ入力が、第1のタイプのメディア項目のシーケンスのキャプチャに関連付けられた第2の領域(例えば、場所)内に移動しているという要件を含む。一部の実施形態では、第1の移動基準と第2の移動基準は同じであるが、異なる方向(例えば、同じ距離要件だが、反対方向)である。 In some embodiments, movement meeting the second movement criterion occurs before the threshold time. For example, the movement criteria may require that movement in the second direction must occur within a threshold amount of time for the device to begin capturing the sequence of media items. In some embodiments, movement begins before the threshold time. For example, the movement criteria may be such that movement in the second direction occurs before a threshold time (e.g., even if movement ends after the threshold time) for the device to begin capturing a sequence of media items. You can request that it should be started. In some embodiments, the second movement criterion may be met by movement starting after a threshold duration has elapsed. In some embodiments, the second movement criterion includes any movement (eg, any movement in a particular (eg, second) direction). In some embodiments, the second movement criterion includes a threshold amount of movement (eg, minimum distance) (eg, in the second direction). In some embodiments, the second movement criterion includes a requirement that the touch input is moving outside the first region corresponding to media capture affordances (eg, 910, 602, 1000). In some embodiments, the second movement criterion is a requirement that the touch input is moving within a second region (e.g., location) associated with capturing the sequence of media items of the first type. including. In some embodiments, the first movement criterion and the second movement criterion are the same but in different directions (eg, same distance requirement but opposite directions).

第1のタイプのメディア、特定の持続時間を有する第2のタイプのメディア、キャプチャされ続ける第2のタイプのメディア、及び第1のタイプのメディア項目のシーケンスをキャプチャするかどうかを判定するために、移動基準と閾値時間の1つ以上の組み合わせを使用すると、追加の表示された制御でユーザインタフェース(例えば、GUI)を雑然とさせずに追加の制御オプションが提供される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザを適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 To determine whether to capture a first type of media, a second type of media having a specified duration, a second type of media that continues to be captured, and a sequence of the first type of media items. , the use of one or more combinations of movement criteria and threshold times provides additional control options without cluttering the user interface (eg, GUI) with additional displayed controls. By providing additional control options without cluttering the UI with additional controllers being displayed, the usability of the device is enhanced and the user-device interface (e.g., when operating/interacting with the device making the device more efficient (by helping the user to give the correct input and reducing user error), as well as by enabling the user to use the device more quickly and efficiently Reduced usage and improved battery life.

第1のタイプのメディア、特定の持続時間を有する第2のタイプのメディア、及びキャプチャされ続ける第2のタイプのメディア、及び第1のタイプのメディア項目のシーケンスをキャプチャするかどうかを判定するために、移動基準と閾値時間の1つ以上の組み合わせを使用すると、特定のユーザインタフェースから開始の際に、これらの動作のうち1つ以上を実行するのに必要な入力数が低減される。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 To determine whether to capture a first type of media, a second type of media having a specified duration, and a second type of media that continues to be captured, and a sequence of the first type of media items. Additionally, using one or more combinations of movement criteria and threshold times reduces the number of inputs required to perform one or more of these operations when starting from a particular user interface. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reducing device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved.

一部の実施形態では、タッチ入力(例えば、970)が第2の移動基準を満たし、第1の方向とは異なる第2の方向(例えば、それとは反対に、タッチ感知面の第2の縁部に向かう)への移動(例えば、バーストモードを有効にするのに十分な)を含むとの判定に従って、電子デバイス(例えば、600、900)は、タッチ入力のリフトオフを検出したことに応答して(例えば、図9Pの970のリフトオフに応答して)、第1のタイプのメディアのメディア項目のシーケンスのキャプチャを中止する(例えば、持続時間の終了はリフトオフ時に発生する)。例えば、タッチ入力970のリフトオフに応答して、デバイス900は、バースト画像キャプチャの実行(例えば、高速で連続した静止画像の記録)を停止する(例えば、キャプチャされた画像を記憶する)。 In some embodiments, the touch input (eg, 970) satisfies a second movement criterion and moves in a second direction different from the first direction (eg, opposite to the second edge of the touch sensitive surface). (e.g., sufficient to enable burst mode), the electronic device (e.g., 600, 900) responds to detecting liftoff of the touch input. (eg, in response to liftoff at 970 of FIG. 9P), stop capturing the sequence of media items of the first type of media (eg, the end of duration occurs at liftoff). For example, in response to touch input 970 lift-off, device 900 stops performing burst image capture (eg, recording a rapid succession of still images) (eg, stores captured images).

一部の実施形態では、(例えば、図9N~図9Pに示すように)第1のタイプのメディアのメディア項目のシーケンスのキャプチャを継続している間、電子デバイス(例えば、600、900)は、ディスプレイ(例えば、902)上に、メディア項目のシーケンスのキャプチャの開始以降にキャプチャされた第1のタイプのメディアのメディア項目の数(例えば、図9Nの972、図9O~図9Pの976)を表示する(例えば、シーケンスキャプチャが継続するにつれてメディア項目の数が増加する)。一部の実施形態では、メディア項目の数は、ディスプレイ上の第1のユーザインタフェース要素の場所(例えば、図9Mに示すようなメディアキャプチャアフォーダンス910の場所)に表示される。一部の実施形態では、表示されたメディア項目の数は、タッチ入力の検出以降にキャプチャされたメディア項目の数に基づく。 In some embodiments, while continuing to capture a sequence of media items of the first type of media (eg, as shown in FIGS. 9N-9P), the electronic device (eg, 600, 900) , on the display (eg, 902) the number of media items of the first type media captured since the start of capturing the sequence of media items (eg, 972 in FIG. 9N, 976 in FIGS. 9O-9P). (eg, the number of media items increases as the sequence capture continues). In some embodiments, the number of media items is displayed at the location of the first user interface element on the display (eg, at the location of media capture affordance 910 as shown in FIG. 9M). In some embodiments, the number of media items displayed is based on the number of media items captured since touch input was detected.

一部の実施形態では、メディア項目のシーケンスのキャプチャの開始以降にキャプチャされた第1のタイプのメディアのメディア項目の数をディスプレイ(例えば、902)上に表示することは、電子デバイス(例えば、600、900)がディスプレイ上の初期位置(例えば、図9Nの972の場所)でキャプチャされた第1のタイプのメディアのメディア項目の数を、ディスプレイ上に表示することを含む。タッチ入力(例えば、970)が、ディスプレイ上の初期位置に対応するタッチ感知面上の場所への移動を含む(例えば、タッチ入力970は、図9N~図9Oに示すように移動する)との判定に従って、電子デバイスは、ディスプレイ上に、ディスプレイ上の第1のユーザインタフェース要素の場所(例えば、図9Oでは、976は図9Mに示すメディアキャプチャアフォーダンス910と同じ場所で表示される)での第1のタイプのメディアのメディア項目の数(例えば、図9O~図9Pの976)を表示する。電子デバイスは、ディスプレイ上の初期位置に第1のタイプのメディアのメディア項目の数を表示することを中止する(例えば、972はもはや図9O~図9Pに表示されなくなる)。 In some embodiments, displaying on a display (e.g., 902) the number of media items of the first type of media that have been captured since beginning capture of the sequence of media items is performed by an electronic device (e.g., 600, 900) includes displaying on the display the number of media items of the first type of media that were captured at the initial location on the display (eg location 972 in FIG. 9N). the touch input (eg, 970) includes movement to a location on the touch-sensitive surface that corresponds to the initial position on the display (eg, touch input 970 moves as shown in FIGS. 9N-9O); Following the determination, the electronic device displays on the display the first user interface element at the location of the first user interface element on the display (eg, in FIG. 9O, 976 is displayed at the same location as media capture affordance 910 shown in FIG. 9M). Displays the number of media items of one type of media (eg, 976 in FIGS. 9O-9P). The electronic device ceases to display the number of media items of the first type of media at the initial position on the display (eg, 972 is no longer displayed in FIGS. 9O-9P).

タッチ入力の初期位置への移動に従って新しい場所でキャプチャされたメディア項目の数を表示することにより、情報がタッチ入力によって覆い隠されるのを防止するよう視覚的フィードバックを改善する。フィードバックを改善すると、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を付与することを支援し、ユーザの間違いを低減することによって)デバイスの操作性が向上し、ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 By displaying the number of media items captured at new locations as the touch input moves to its initial position, visual feedback is improved to prevent information from being obscured by the touch input. Improving feedback improves the usability of the device (e.g., by helping the user to provide appropriate input and reducing user error when operating/interacting with the device), and devices interface more efficiently, which allows users to use the device more quickly and efficiently, further reducing power usage and improving device battery life.

一部の実施形態では、電子デバイス(例えば、600、900)は、第2のユーザインタフェース要素(例えば、アイコン、アフォーダンス、又は距離マーカ)(例えば、メディアキャプチャロックアフォーダンス932、メディアキャプチャロックアフォーダンス1004、ロック距離マーカ1008)をディスプレイ(例えば、902)上に表示し(1116)、第1のユーザインタフェース要素(例えば、910の場所、934の場所、1000の場所、602の場所、605の場所)から第2のユーザインタフェース要素(例えば、932、1004、1008)へのタッチ入力(例えば、940、603)の移動は、移動基準を満たす(例えば、移動基準は、第2のユーザインタフェース要素に向かう(例えば、ある方向への)閾値移動量、又はリフトオフ後にキャプチャされ続ける第2のタイプのメディアのキャプチャに関連付けられた第1の領域(例えば、第2のユーザインタフェース要素の領域)への移動を検出することを含む)。一部の実施形態では、第2のユーザインタフェース要素に対応する場所での(例えば、932又は1004の場所での、マーカ1008の右への領域における)タッチ入力のリフトオフは、第2のタイプのメディアがリフトオフ後に記録され続けるために必要とされる。 In some embodiments, the electronic device (eg, 600, 900) uses a second user interface element (eg, icon, affordance, or distance marker) (eg, media capture lock affordance 932, media capture lock affordance 1004, Lock distance marker 1008) is displayed 1116 on the display (e.g., 902) and from the first user interface element (e.g., location 910, location 934, location 1000, location 602, location 605) Movement of the touch input (eg, 940, 603) to the second user interface element (eg, 932, 1004, 1008) satisfies the movement criterion (eg, the movement criterion is toward the second user interface element ( Detect a threshold amount of movement (e.g., in a direction) or movement into a first region (e.g., region of a second user interface element) associated with capture of a second type of media that continues to be captured after liftoff (including to do). In some embodiments, the touch input liftoff at a location corresponding to the second user interface element (eg, in the area to the right of marker 1008 at locations 932 or 1004) is a second type of Required for the media to continue to be recorded after liftoff.

移動基準を満たすユーザインタフェース要素を表示することにより、動作を実行するのに必要とされる入力移動に関する改善された視覚的フィードバックが提供される。改善されたフィードバックを備えることにより、(例えば、ユーザが適切な入力を与えるのを支援し、デバイスを操作する/デバイスと対話するときにユーザのミスを減らすことによって)デバイスの操作性が向上し、ユーザーデバイス間のインタフェースがより効率的になり、これにより、ユーザによるデバイスのより迅速かつ効率的な使用を可能にすることで、追加的に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 Displaying user interface elements that meet movement criteria provides improved visual feedback regarding the input movement required to perform an action. Providing improved feedback improves the operability of the device (e.g., by helping the user provide appropriate input and reducing user error when operating/interacting with the device). , the interface between user devices becomes more efficient, allowing users to use their devices more quickly and efficiently, which additionally reduces power usage and improves device battery life be done.

一部の実施形態では、タッチ感知面(例えば、902)からのタッチ入力(例えば、940、603)のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続することに従って、電子デバイス(例えば、600、900)は、第2のユーザインタフェース要素(例えば、図9Iの932)を、第2のユーザ要素とは異なる第3のユーザインタフェース要素(例えば、図9Iの944)に変更する。一部の実施形態では、第2のユーザインタフェース要素は、タッチ入力の移動に応答して変わる。一部の実施形態では、第2のユーザインタフェース要素は、(例えば、メディアキャプチャロックアフォーダンスの場所での)タッチ入力のリフトオフに応答して変わる。一部の実施形態では、第2のユーザインタフェース要素は、メディアキャプチャセッションがロックされたメディアキャプチャ状態に移行したことに応答して変わる。 In some embodiments, the electronic device (e.g., 902) continues to capture media of the second type after detecting lift-off of the touch input (e.g., 940, 603) from the touch-sensitive surface (e.g., 902). 600, 900) change a second user interface element (eg, 932 in FIG. 9I) to a third user interface element (eg, 944 in FIG. 9I) that is different from the second user interface element. In some embodiments, the second user interface element changes in response to movement of the touch input. In some embodiments, the second user interface element changes in response to touch input lift-off (eg, at media capture lock affordance locations). In some embodiments, the second user interface element changes in response to the media capture session transitioning to a locked media capture state.

一部の実施形態では、タッチ入力(例えば、940、603)と、第2のユーザインタフェース要素に対応するタッチ感知面上の場所(例えば、ユーザインタフェース要素932の場所)との間の対話に応答して、第2のユーザインタフェース要素(例えば、932)は第3のユーザインタフェース要素(例えば、944)に変わる。例えば、タッチ入力940がメディアキャプチャロックアフォーダンス932の場所にドラッグされたときに、対話を行うことができる。更なる例では、対話は、タッチ入力940がメディアキャプチャロックアフォーダンス932の場所にあるときにリフトオフすると行うことができる。 In some embodiments, in response to interaction between touch input (eg, 940, 603) and a location on the touch-sensitive surface corresponding to the second user interface element (eg, location of user interface element 932) As such, the second user interface element (eg, 932) turns into a third user interface element (eg, 944). For example, interaction can occur when touch input 940 is dragged to the location of media capture lock affordance 932 . In a further example, interaction can occur when touch input 940 lifts off when at media capture lock affordance 932 .

一部の実施形態では、タッチ入力(例えば、940、603)は第1のタッチ入力であり、第2のタイプのメディア(例えば、ビデオ)のキャプチャを継続している間、電子デバイス(例えば、600、900)は、第3のユーザインタフェース要素(例えば、944)に対応するタッチ感知面上の場所での第2のタッチ入力(例えば、960)を、タッチ感知面(例えば、902)を介して検出する。第2のタッチ入力を検出したことに応答して、電子デバイスは、(例えば、第2のタイプのメディアのキャプチャを継続している間)第1のタイプのメディアをキャプチャする(例えば、静止写真を撮る)。 In some embodiments, the touch input (e.g., 940, 603) is the first touch input and continues to capture the second type of media (e.g., video) while the electronic device (e.g., 600, 900) receives a second touch input (eg, 960) at a location on the touch sensitive surface corresponding to a third user interface element (eg, 944) via the touch sensitive surface (eg, 902). to detect. In response to detecting a second touch input, the electronic device captures media of the first type (e.g., a still photograph) (e.g., while continuing to capture media of the second type). ).

一部の実施形態では、タッチ感知面上のタッチ入力(例えば、940、603)を検出している間(例えば、タッチダウン直後、又はタッチ入力の第1の方向への移動の直後)、電子デバイス(例えば、600、900)は、ディスプレイ上の第1のユーザインタフェース要素の場所(例えば、910の場所、934の場所、1000の場所、602の場所、605の場所)から第1の方向への方向インジケータ(例えば、943、975、1005、604a、604b)をディスプレイ(例えば、902)上に表示する(1118)。 In some embodiments, the electronic The device (eg, 600, 900) moves in a first direction from the location of the first user interface element on the display (eg, location 910, location 934, location 1000, location 602, location 605). direction indicators (eg, 943, 975, 1005, 604a, 604b) are displayed on the display (eg, 902) (1118).

一部の実施形態では、方向インジケータ(例えば、943、975、1005、604a、604b)は、(例えば、移動基準を満たす)方向の線(例えば、実線、点線、破線)、矢印、アニメーション、及び他のグラフ表示のうちの1つ以上を含むことができる。一部の実施形態では、方向インジケータは、移動基準を満たすのに必要な移動量(例えば、ロック距離マーカ1008を含む移動経路インジケータ1005)を示す。一部の実施形態では、方向インジケータは、移動基準を満たすために(例えば、タッチ入力のリフトオフを必要とする場合にも、又は必要としない場合にも)タッチ入力を移動させる必要がある領域又は場所(例えば、ロック距離マーカ1008を含む移動経路インジケータ1005)を示す。 In some embodiments, the directional indicators (eg, 943, 975, 1005, 604a, 604b) are directional lines (eg, solid, dotted, dashed), arrows, animations, and One or more of the other graphical representations may be included. In some embodiments, the directional indicator indicates the amount of travel required to meet the travel criteria (eg, travel path indicator 1005 including lock distance marker 1008). In some embodiments, the directional indicator indicates the area or area where the touch input needs to be moved (e.g., whether it requires lift-off of the touch input or not) to meet the movement criteria. Locations (eg, path of travel indicator 1005 including lock distance markers 1008) are indicated.

方向インジケータを表示することにより、動作を実行するのに必要な入力移動に関する改善された視覚的フィードバックが提供される。フィードバックを改善すると、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を付与することを支援し、ユーザの間違いを低減することによって)デバイスの操作性が向上し、ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 Displaying a directional indicator provides improved visual feedback regarding the input movement required to perform an action. Improving feedback improves the usability of the device (e.g., by helping the user to provide appropriate input and reducing user error when operating/interacting with the device), and devices interface more efficiently, which allows users to use the device more quickly and efficiently, further reducing power usage and improving device battery life.

一部の実施形態では、タッチ入力(例えば、940、603)が第1の方向への移動を含むとの判定に従って、方向インジケータ(例えば、943、975、1005、604a、604b)が表示される。例えば、タッチ入力940が(例えば、メディアキャプチャロックアフォーダンス932に向かって)移動を開始するまで、移動経路インジケータ943は表示されない。一部の実施形態では、デバイスは、タッチ入力を検出したことに応答して、又は閾値時間タッチ入力を検出したことに応答して、移動経路インジケータを表示する。 In some embodiments, a directional indicator (eg, 943, 975, 1005, 604a, 604b) is displayed following a determination that the touch input (eg, 940, 603) includes movement in a first direction. . For example, movement path indicator 943 is not displayed until touch input 940 begins movement (eg, toward media capture lock affordance 932). In some embodiments, the device displays the movement path indicator in response to detecting touch input or in response to detecting touch input for a threshold time.

一部の実施形態では、タッチ感知面(例えば、902)からタッチ入力のリフトオフ(例えば、図9I~図9Jの940のリフトオフ、603のリフトオフ)を検出した後に、第2のタイプのメディア(例えば、ビデオ)のキャプチャ継続することに従って、電子デバイス(例えば、600、900)は、第1のユーザインタフェース要素(例えば、910、602、1000)を第4のユーザインタフェース要素(例えば、図9Jの934、図6D~図6Fの605)に変更する(1120)。一部の実施形態では、第1のユーザインタフェース要素は、(例えば、図9Hに示すように)第2のタイプのメディアのキャプチャを開始したことに従って、第4のユーザインタフェース要素に変わる。一部の実施形態では、第1のユーザインタフェース要素は、(例えば、(例えば、図10A~図10Dに示されるように)第1のユーザインタフェース要素に対応するエリアから外への)タッチ入力の移動に従って第4のユーザインタフェース要素に変わる。一部の実施形態では、電子デバイスは、タッチ入力のリフトオフに応答して、第1のユーザインタフェース要素を第4のユーザインタフェース要素に変わる。 In some embodiments, after detecting lift-off of the touch input from the touch-sensitive surface (eg, 902) (eg, lift-off at 940, lift-off at 603 in FIGS. 9I-9J), a second type of media (eg, , video), the electronic device (eg, 600, 900) replaces the first user interface element (eg, 910, 602, 1000) with the fourth user interface element (eg, 934 in FIG. 9J). , 605 in FIGS. 6D-6F) (1120). In some embodiments, the first user interface element changes to a fourth user interface element upon initiating capture of the second type of media (eg, as shown in FIG. 9H). In some embodiments, the first user interface element is a touch input (eg, out of an area corresponding to the first user interface element (eg, as shown in FIGS. 10A-10D)). It changes to a fourth user interface element as it moves. In some embodiments, the electronic device changes a first user interface element to a fourth user interface element in response to touch input liftoff.

第2のタイプのメディアのキャプチャを継続することに従って、ユーザインタフェース要素を変更することにより、ユーザインタフェース(例えば、GUI)を追加的に表示されたコントロールで雑然とさせずに、関連する代替の制御オプションが提供される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザを適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Related alternative controls without cluttering the user interface (e.g., GUI) with additional displayed controls by modifying the user interface elements as the second type of media continues to be captured. Options are provided. By providing additional control options without cluttering the UI with additional controllers being displayed, the usability of the device is enhanced and the user-device interface (e.g., when operating/interacting with the device making the device more efficient (by helping the user to give the correct input and reducing user error), as well as by enabling the user to use the device more quickly and efficiently Reduced usage and improved battery life.

一部の実施形態では、タッチ入力(例えば、940、603)は第1のタッチ入力であり、タッチ感知面(例えば、902)からのタッチ入力(例えば、940、603)のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続している間、電子デバイス(例えば、600、900)は、タッチ感知面を介して、第4のユーザインタフェース要素(例えば、934、605)に対応するタッチ感知面上の場所における第3のタッチ入力(例えば、950、606)を検出する。第3のタッチ入力を検出したことに応答して、電子デバイスは、第2のタイプのメディアのキャプチャを中止する(例えば、ビデオの記録を停止し、記録されたビデオをメディアライブラリに記憶する)。 In some embodiments, the touch input (eg, 940, 603) is the first touch input and after detecting liftoff of the touch input (eg, 940, 603) from the touch sensitive surface (eg, 902) , while continuing to capture media of the second type, the electronic device (eg, 600, 900) responds via the touch-sensitive surface to a fourth user interface element (eg, 934, 605) Detect a third touch input (eg, 950, 606) at a location on the touch sensitive surface. In response to detecting the third touch input, the electronic device ceases capturing the second type of media (eg, stops recording the video and stores the recorded video in the media library). .

一部の実施形態では、第1のタイプのメディアは、静止画像及びビデオ(例えば、固定持続時間、及び/又はタッチ入力の持続時間とは無関係の持続時間を有するビデオクリップ)のうちの1つ以上である。 In some embodiments, the first type of media is one of still images and video (e.g., video clips with a fixed duration and/or a duration independent of the duration of the touch input). That's it.

一部の実施形態では、1つ以上のメディアキャプチャ構成要素(例えば、カメラ、画像センサ)によって第1のタイプのメディアをキャプチャすることは、タッチ感知面上のタッチ入力(例えば、603、920、930、940、970、1002)(例えば、902上のタッチダウン)を検出したことに応答して、又はタッチ感知面からのタッチ入力のリフトオフに応答して行われる。一部の実施形態では、タッチ入力がタッチ感知面上で検出されている間に、第1のタイプのメディアのキャプチャが行われる。 In some embodiments, capturing the first type of media by one or more media capture components (e.g., cameras, image sensors) is performed by touch input on the touch-sensitive surface (e.g., 603, 920, 930, 940, 970, 1002) (eg, a touchdown on 902) or in response to liftoff of touch input from the touch sensitive surface. In some embodiments, the first type of media is captured while touch input is detected on the touch-sensitive surface.

一部の実施形態では、第2のタイプのメディアは、(例えば、タッチ入力の長さに関連する持続時間を有する、又は停止アフォーダンス(例えば、934、605)が選択されるまでの)ビデオである。 In some embodiments, the second type of media is video (e.g., having a duration related to the length of the touch input, or until a stop affordance (e.g., 934, 605) is selected). be.

一部の実施形態では、1つ以上のメディアキャプチャ構成要素(例えば、カメラ、画像センサ)によって第2のタイプのメディアをキャプチャすることは、タッチ入力がタッチ感知面上で閾値時間(例えば、1秒)を超えて検出されたことに応答して、ビデオの記録を開始することを含む。 In some embodiments, capturing the second type of media by one or more media capture components (e.g., cameras, image sensors) is such that touch input is on the touch-sensitive surface for a threshold time (e.g., 1 seconds), including initiating video recording in response to being detected.

一部の実施形態では、タッチ入力(例えば、930)が移動基準を満たす前に(例えば、メディアキャプチャセッションがロックされたメディアキャプチャ状態ではない)、かつ閾値時間(例えば、1秒)がタッチ入力を検出されてから経過した(例えば、デバイスがビデオの記録を開始した)後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、電子デバイス(例えば、600、900)は、第1のタイプのメディア(例えば、静止画像)をキャプチャし、キャプチャされた第1のタイプのメディアを廃棄する(例えば、第1のタイプのメディアをメディアライブラリに追加する前又はその後に削除する)。例えば、電子デバイスは、タッチ入力を受け取ったことに従って(例えば、タッチ入力930のタッチダウンに応答して)、第1のタイプのメディア項目をキャプチャすることができる。タッチ入力が第2のタイプのメディアをキャプチャするための基準を満たした後、デバイスは、(例えば、タッチ入力ジェスチャの特性が、引き続き、第1のメディア項目のキャプチャが意図されていないことを示すため)キャプチャされた第1のタイプのメディアを廃棄することができる。 In some embodiments, before the touch input (eg, 930) meets the movement criteria (eg, the media capture session is not in a locked media capture state) and a threshold time (eg, 1 second) (e.g., the device starts recording video), the electronic device (e.g., 600, 900) follows a determination that the touch input has been lifted from the touch-sensitive surface after detecting a first type of media (eg, still images) and discard the captured media of the first type (eg, remove the first type of media before or after adding it to the media library). For example, the electronic device can capture the first type of media item in response to receiving touch input (eg, in response to touchdown of touch input 930). After the touch input meets the criteria for capturing the second type of media, the device continues to display (e.g., characteristics of the touch input gesture indicating that capture of the first media item is not intended Because of this), the first type of captured media can be discarded.

ユーザがリフトオフした場合に利用可能になるように、第1のメディアをキャプチャするが自動的にそれを削除すると、ユーザが他のコンテンツ(例えば、ビデオなどの第2のメディア)の記録を開始する際の記憶空間を保全し、それは、第1のメディア(例えば、写真)が必要とされないことを示す。更に、他のメディアがキャプチャされている(例えば、ビデオを記録し始める)ことに基づいて第1のメディアを自動的に廃棄することにより、メディアを廃棄するのに必要なユーザ入力の数が低減される。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Capture the first media, but automatically delete it, so that it will be available if the user lifts off, and the user starts recording other content (e.g., a second media such as a video) It conserves actual storage space, which indicates that the primary media (eg, photos) is not required. Additionally, automatically discarding the first media based on other media being captured (e.g., beginning to record video) reduces the number of user inputs required to discard media. be done. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reducing device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved.

方法1100(例えば、図11)に関して上記したプロセスの詳細はまた、後述/前述の方法にも同様の方法で適用可能であることに留意されたい。例えば、方法1100は、方法700を参照して上記した様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the process details described above with respect to method 1100 (eg, FIG. 11) are also applicable in a similar manner to the methods described below/above. For example, method 1100 optionally includes one or more of the various method features described above with reference to method 700 . For the sake of brevity, these details are not repeated below.

上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。これらの実施形態は、本技術の原理、及びその実際の適用を最もよく説明するために、選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。 The foregoing, for purposes of explanation, has been described with reference to specific embodiments. However, the illustrative discussion above is not intended to be exhaustive or to limit the invention to the precise forms disclosed. Many modifications and variations are possible in light of the above teaching. These embodiments were chosen and described in order to best explain the principles of the technology and its practical application. This enables others skilled in the art to best utilize the technology and various embodiments, with various modifications as appropriate for the particular application intended.

添付図面を参照して、本開示及び例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。 Having fully described the present disclosure and examples with reference to the accompanying drawings, it should be noted that various changes and modifications will become apparent to those skilled in the art. Such changes and modifications are intended to be included within the scope of this disclosure and examples as defined by the claims.

上述したように、本技術の一態様は、ジェスチャに基づくメディアキャプチャを実行するための様々なソースから入手可能なデータを収集及び使用することである。本開示は、いくつかの例において、この収集されたデータは、特定の人を一意に特定する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを想到している。そのような個人情報データとしては、人口統計データ、位置ベースのデータ、電話番号、電子メールアドレス、ツイッターID、自宅の住所、ユーザの健康又はフィットネスのレベルに関するデータ若しくは記録(例えば、バイタルサイン測定値、投薬情報、運動情報)、誕生日、あるいは任意の他の識別情報又は個人情報を挙げることができる。 As noted above, one aspect of the present technology is the collection and use of data available from various sources to perform gesture-based media capture. This disclosure indicates that, in some instances, this collected data includes personal information data that uniquely identifies a particular person or that can be used to contact or locate a particular person. I am thinking of getting. Such personal data may include demographic data, location-based data, phone number, email address, Twitter ID, home address, data or records relating to the user's level of health or fitness (e.g., vital sign measurements, , medication information, exercise information), date of birth, or any other identifying or personal information.

本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。更には、ユーザに利益をもたらす、個人情報データに関する他の使用もまた、本開示によって想到される。例えば、健康データ及びフィットネスデータは、ユーザの全般的なウェルネスについての洞察を提供するために使用することができ、あるいは、ウェルネスの目標を追求するための技術を使用している個人への、積極的なフィードバックとして使用することもできる。 This disclosure recognizes that the use of such personal information data in the present technology may be a use to the benefit of the user. Furthermore, other uses for personal information data that benefit users are also contemplated by the present disclosure. For example, health and fitness data can be used to provide insight into a user's overall wellness, or provide positive feedback to individuals using technology to pursue wellness goals. It can also be used as general feedback.

本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はアクセスは、医療保険の相互運用性と説明責任に関する法律(Health Insurance Portability and Accountability Act、HIPAA)などの、連邦法及び/又は州法によって管理することができ、その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国の異なる個人データのタイプに関して、異なるプライバシー慣行が保たれるべきである。 The present disclosure contemplates that entities involved in the collection, analysis, disclosure, transmission, storage, or other use of such personal information data will adhere to robust privacy policies and/or practices. Specifically, such entities implement privacy policies and practices that are generally recognized as meeting or exceeding industry or governmental requirements to keep personal data confidential and strictly maintained. and should be used consistently. Such policies should be readily accessible by users and should be updated as data collection and/or use changes. Personal information from users should be collected for the entity's lawful and legitimate use and should not be shared or sold except for those lawful uses. Moreover, such collection/sharing should be performed after informing and obtaining consent from the user. In addition, such entities protect and secure access to such Personal Data and ensure that others who have access to that Personal Data comply with their privacy policies and procedures. should consider taking all necessary steps to Further, such entities may themselves be evaluated by third parties to certify their adherence to widely accepted privacy policies and practices. In addition, policies and practices should be adapted to the specific types of personal information data collected and/or accessed and comply with applicable laws and standards, including jurisdiction-specific considerations. should be adapted. For example, in the United States, collection or access to certain health data may be governed by federal and/or state laws, such as the Health Insurance Portability and Accountability Act (HIPAA). However, health data in other countries may be subject to other regulations and policies and should be dealt with accordingly. Different privacy practices should therefore be maintained for different types of personal data in each country.

前述のことがらにもかかわらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するように、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、メディアキャプチャアプリケーションの場合において、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成され得る。「オプトイン」及び「オプトアウト」の選択肢を提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを想到する。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。 Notwithstanding the foregoing, the present disclosure also contemplates embodiments in which a user selectively prevents use of or access to personal information data. That is, the present disclosure contemplates that hardware and/or software elements may be provided to prevent or block access to such personal information data. For example, in the case of media capture applications, the technology may be configured to allow users to choose to "opt-in" or "opt-out" of participation in the collection of personal information data during registration for the service or at any time thereafter. . In addition to providing "opt-in" and "opt-out" options, this disclosure contemplates providing notice regarding access or use of personal information. For example, the user may be notified upon download of an app that will access the user's personal data, and then reminded again just before the personal data is accessed by the app.

更には、本開示の意図は、個人情報データを、非意図的若しくは無許可アクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなった時点で削除することによって、危険性を最小限に抑えることができる。更には、適用可能な場合、特定の健康関連アプリケーションにおいて、ユーザのプライバシーを保護するために、データの非特定化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、ユーザ間でデータを集約すること)及び/又は他の方法によって、容易にすることができる。 Furthermore, it is the intent of this disclosure that personal information data should be managed and processed in a manner that minimizes the risk of unintentional or unauthorized access or use. Risks can be minimized by limiting data collection and deleting data when it is no longer needed. Additionally, where applicable, data de-identification can be used to protect user privacy in certain health-related applications. De-identification may include, where appropriate, removing certain identifiers (e.g. date of birth, etc.), controlling the amount or specificity of data stored (e.g. location data rather than address level). city level), controlling how data is stored (eg, aggregating data across users), and/or in other ways.

それゆえ、本開示は、1つ以上の様々な開示された実施形態を実装するための、個人情報データの使用を広範に網羅するものではあるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実装することもまた可能であることを想到している。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部分が欠如することにより、実施不可能となるものではない。例えば、メディアコンテンツは、ユーザに関連付けられたデバイスによりリクエストされたコンテンツ、メディアキャプチャインタフェースアプリケーションが使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいてユーザの意図を推測することにより、キャプチャされ、かつ記憶され得る。 Thus, while this disclosure broadly covers the use of personal information data to implement one or more of the various disclosed embodiments, this disclosure also covers the use of such personal information data. It is contemplated that it is also possible to implement the various embodiments without requiring access to the . That is, various embodiments of the present technology are not rendered inoperable by the lack of all or part of such personal information data. For example, media content may be non-personal data or personal information, such as content requested by a device associated with a user, other non-personal information available to a media capture interface application, or publicly available information. can be captured and stored by inferring the user's intent based on only a minimal amount of

Claims (10)

タッチ感知ディスプレイを有する電子デバイスにおいて、
前記電子デバイスによって、前記タッチ感知ディスプレイ上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とする、前記タッチ感知ディスプレイ上で検出されたタッチを含むタップアンドホールドジェスチャ入力を検出することと、
前記タップアンドホールドジェスチャ入力に応答して、前記電子デバイスによって、前記電子デバイスを用いたメディアキャプチャセッションを、アンロックされたメディアキャプチャセッション状態で開始することと、
前記タップアンドホールドジェスチャ入力が前記第1の場所で維持されている間、前記タッチ感知ディスプレイ上に、前記第1の場所から第2の場所へ延びる経路を表示することであって、前記経路は当該タッチ感知ディスプレイ上の方向を示し、前記経路は前記タップアンドホールドジェスチャ入力が検出される前には表示されない、経路を表示することと、
前記メディアキャプチャセッション中に前記グラフィカルユーザインタフェース上の前記第1の場所からの前記タッチのリフトオフを含む第1のリフトジェスチャを前記電子デバイスが検出したことに応答して、前記電子デバイスによって、前記メディアキャプチャセッションを終了させることと、
前記経路によって示された方向において前記タッチ感知ディスプレイにわたる前記タッチの移動を含むスライドジェスチャ入力を前記電子デバイスが検出したことに応答して、
前記メディアキャプチャセッション中に前記グラフィカルユーザインタフェース上の前記第1の場所から前記第2の場所への前記メディアキャプチャアフォーダンスの移動を表示することと、
前記タッチが前記タッチ感知ディスプレイ上に維持されている間に、前記メディアキャプチャセッションを維持することと、
前記第1の場所におけるタップジェスチャ入力によってアクティブ化されると前記メディアキャプチャセッションを終了させるメディアキャプチャロックアフォーダンスを、前記第1の場所に表示することと、
を含む、メディアをキャプチャする方法。
In an electronic device having a touch sensitive display,
A tap-and-hold including a detected touch on the touch-sensitive display to target a media capture affordance displayed at a first location on a graphical user interface presented on the touch-sensitive display by the electronic device. detecting gesture input;
Initiating, by the electronic device, a media capture session with the electronic device in an unlocked media capture session state in response to the tap-and-hold gesture input;
displaying on the touch-sensitive display a path extending from the first location to a second location while the tap-and-hold gesture input is maintained at the first location, the path comprising: displaying a path indicating a direction on the touch-sensitive display, wherein the path is not displayed before the tap-and-hold gesture input is detected ;
In response to the electronic device detecting a first lift gesture that includes a lift-off of the touch from the first location on the graphical user interface during the media capture session, by the electronic device: terminating the capture session;
in response to the electronic device detecting a slide gesture input comprising movement of the touch across the touch-sensitive display in a direction indicated by the path ;
displaying movement of the media capture affordance from the first location to the second location on the graphical user interface during the media capture session;
maintaining the media capture session while the touch is maintained on the touch-sensitive display;
displaying at the first location a media capture lock affordance that terminates the media capture session when activated by a tap gesture input at the first location;
How to capture media, including
前記メディアキャプチャロックアフォーダンスを対象とする前記タップジェスチャ入力に応答して、前記メディアキャプチャセッションを終了させる、請求項1に記載の方法。 2. The method of claim 1, terminating the media capture session in response to the tap gesture input directed to the media capture lock affordance. 前記メディアキャプチャアフォーダンスを前記メディアキャプチャロックアフォーダンスに変更することを更に含み、前記メディアキャプチャアフォーダンスを前記メディアキャプチャロックアフォーダンスに変更することは、前記メディアキャプチャアフォーダンスのサイズを変更することを含む、請求項1に記載の方法。 2. The media capture affordance of claim 1, further comprising changing the media capture affordance to the media capture lock affordance, wherein changing the media capture affordance to the media capture lock affordance comprises changing a size of the media capture affordance. The method described in . 前記メディアキャプチャアフォーダンスを前記メディアキャプチャロックアフォーダンスに変更することを更に含み、前記メディアキャプチャアフォーダンスを前記メディアキャプチャロックアフォーダンスに変更することは、前記メディアキャプチャアフォーダンスのサイズ及び形状を変更することを含む、請求項1に記載の方法。 further comprising changing the Media Capture Affordance to the Media Capture Lock Affordance, wherein changing the Media Capture Affordance to the Media Capture Lock Affordance comprises changing a size and shape of the Media Capture Affordance. Item 1. The method according to item 1. 前記メディアキャプチャアフォーダンスを前記メディアキャプチャロックアフォーダンスに変更することを更に含み、前記メディアキャプチャアフォーダンスを前記メディアキャプチャロックアフォーダンスに変更することは、前記メディアキャプチャアフォーダンスを前記メディアキャプチャロックアフォーダンスにモーフィングするようにアニメーション化することを含む、請求項1に記載の方法。 further comprising changing the media capture affordance to the media capture lock affordance, wherein changing the media capture affordance to the media capture lock affordance animates the media capture affordance to the media capture lock affordance. 2. The method of claim 1, comprising converting. 前記タッチ感知ディスプレイ上の前記スライドジェスチャ入力の方向を示す視覚的インジケータを前記タッチ感知ディスプレイ上に表示させること
を更に含む、請求項1に記載の方法。
2. The method of claim 1, further comprising displaying a visual indicator on the touch-sensitive display indicating a direction of the sliding gesture input on the touch-sensitive display.
前記スライドジェスチャ入力の前に、前記タッチ感知ディスプレイ上に第1のテキストメッセージを表示させ、前記タッチが前記タッチ感知ディスプレイ上で維持されている間に、前記第1のテキストメッセージとは異なる第2のテキストメッセージを前記タッチ感知ディスプレイ上に表示すること
を更に含む、請求項1に記載の方法。
causing a first text message to be displayed on the touch-sensitive display prior to the slide gesture input; and a second text message different from the first text message while the touch is maintained on the touch-sensitive display. 2. The method of claim 1, further comprising: displaying a text message of on the touch-sensitive display.
タッチ感知ディスプレイを有する電子デバイスに、請求項1から7のいずれか一項に記載の方法を実行させる、コンピュータプログラム。 A computer program for causing an electronic device with a touch-sensitive display to perform the method according to any one of claims 1-7. タッチ感知ディスプレイと、
請求項8に記載のコンピュータプログラムを記憶するメモリと、
前記メモリに記憶された前記コンピュータプログラムを実行可能な1つ以上のプロセッサと、
を備える、電子デバイス。
a touch sensitive display;
a memory for storing the computer program according to claim 8;
one or more processors capable of executing the computer program stored in the memory;
An electronic device comprising:
タッチ感知ディスプレイと、
請求項1から7のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
a touch sensitive display;
means for carrying out the method according to any one of claims 1 to 7;
An electronic device comprising:
JP2020542592A 2018-02-09 2019-02-08 Media Capture Lock Affordances for Graphical User Interfaces Active JP7196183B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022199433A JP2023036715A (en) 2018-02-09 2022-12-14 Media capture lock affordance for graphical user interface

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201862628825P 2018-02-09 2018-02-09
US62/628,825 2018-02-09
US15/995,040 2018-05-31
US15/995,040 US20190253619A1 (en) 2018-02-09 2018-05-31 Media capture lock affordance for graphical user interface
US201962802603P 2019-02-07 2019-02-07
US62/802,603 2019-02-07
PCT/US2019/017363 WO2019157387A2 (en) 2018-02-09 2019-02-08 Media capture lock affordance for graphical user interface

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022199433A Division JP2023036715A (en) 2018-02-09 2022-12-14 Media capture lock affordance for graphical user interface

Publications (2)

Publication Number Publication Date
JP2021513161A JP2021513161A (en) 2021-05-20
JP7196183B2 true JP7196183B2 (en) 2022-12-26

Family

ID=67549117

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020542592A Active JP7196183B2 (en) 2018-02-09 2019-02-08 Media Capture Lock Affordances for Graphical User Interfaces
JP2022199433A Pending JP2023036715A (en) 2018-02-09 2022-12-14 Media capture lock affordance for graphical user interface

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022199433A Pending JP2023036715A (en) 2018-02-09 2022-12-14 Media capture lock affordance for graphical user interface

Country Status (6)

Country Link
EP (2) EP3735632A2 (en)
JP (2) JP7196183B2 (en)
KR (3) KR102596371B1 (en)
CN (1) CN111684403A (en)
AU (3) AU2019218241B2 (en)
WO (1) WO2019157387A2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022019901A1 (en) * 2020-07-22 2022-01-27 Hewlett-Packard Development Company, L.P. Basic input/output system (bios) activation control of media capture devices
TWI817186B (en) * 2020-09-29 2023-10-01 仁寶電腦工業股份有限公司 Object operation system and object operation method
CN117761371B (en) * 2024-02-22 2024-07-02 深圳市鼎阳科技股份有限公司 Display device supporting scroll triggering and data processing method of scroll triggering thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140108928A1 (en) 2012-10-15 2014-04-17 Kirusa, Inc. Multi-gesture Media Recording System

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
EP1717679B1 (en) 1998-01-26 2016-09-21 Apple Inc. Method for integrating manual input
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
JP5464083B2 (en) * 2010-07-07 2014-04-09 ソニー株式会社 Information processing apparatus, information processing method, and program
US9313633B2 (en) * 2011-10-10 2016-04-12 Talko Inc. Communication system
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
KR101343591B1 (en) * 2012-09-03 2013-12-19 엘지전자 주식회사 Mobile device and control method for the same
JP6039328B2 (en) * 2012-09-14 2016-12-07 キヤノン株式会社 Imaging control apparatus and imaging apparatus control method
EP2939098B1 (en) 2012-12-29 2018-10-10 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US9942464B2 (en) * 2014-05-27 2018-04-10 Thomson Licensing Methods and systems for media capture and seamless display of sequential images using a touch sensitive device
US20160241777A1 (en) * 2015-02-16 2016-08-18 Magisto Ltd. Method and system for implementing a user interface for capturing videos and photos on cameras with a touch screen
KR101667736B1 (en) * 2015-09-25 2016-10-20 엘지전자 주식회사 Mobile terminal and method for controlling the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140108928A1 (en) 2012-10-15 2014-04-17 Kirusa, Inc. Multi-gesture Media Recording System

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Telegram4.0: Video Messages + Telescope, Payments and more...,online,2017年05月20日,https:// www.youtube.com/watch?v=y0alJRPH7nQ

Also Published As

Publication number Publication date
KR102448223B1 (en) 2022-09-29
AU2019218241B2 (en) 2022-03-24
AU2022204465A1 (en) 2022-07-14
WO2019157387A2 (en) 2019-08-15
EP4407426A2 (en) 2024-07-31
WO2019157387A4 (en) 2019-11-28
AU2023226764A1 (en) 2023-09-28
CN111684403A (en) 2020-09-18
KR20200105702A (en) 2020-09-08
KR20230152827A (en) 2023-11-03
KR20220133326A (en) 2022-10-04
AU2022204465B2 (en) 2023-06-08
WO2019157387A3 (en) 2019-09-06
JP2021513161A (en) 2021-05-20
AU2019218241A1 (en) 2020-08-27
JP2023036715A (en) 2023-03-14
EP3735632A2 (en) 2020-11-11
KR102596371B1 (en) 2023-11-01
KR102685668B1 (en) 2024-07-15

Similar Documents

Publication Publication Date Title
JP7158509B2 (en) Image data for enhanced user interaction
US11895391B2 (en) Capturing and displaying images with multiple focal planes
US11755273B2 (en) User interfaces for audio media control
US11977731B2 (en) Media capture lock affordance for graphical user interface
EP3959866B1 (en) User interfaces for electronic voice communications
KR20210002617A (en) Access to system user interfaces on electronic devices
US20210400131A1 (en) User interfaces for presenting indications of incoming calls
AU2022204465B2 (en) Media capture lock affordance for graphical user interface
US11943559B2 (en) User interfaces for providing live video
JP2022188100A (en) Method and user interface for sharing audio
WO2024054498A1 (en) Interfaces for device interactions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221214

R150 Certificate of patent or registration of utility model

Ref document number: 7196183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150