JP7196183B2 - Media Capture Lock Affordances for Graphical User Interfaces - Google Patents
Media Capture Lock Affordances for Graphical User Interfaces Download PDFInfo
- Publication number
- JP7196183B2 JP7196183B2 JP2020542592A JP2020542592A JP7196183B2 JP 7196183 B2 JP7196183 B2 JP 7196183B2 JP 2020542592 A JP2020542592 A JP 2020542592A JP 2020542592 A JP2020542592 A JP 2020542592A JP 7196183 B2 JP7196183 B2 JP 7196183B2
- Authority
- JP
- Japan
- Prior art keywords
- touch
- media capture
- media
- input
- affordance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 250
- 230000004044 response Effects 0.000 claims description 116
- 238000000034 method Methods 0.000 claims description 108
- 230000015654 memory Effects 0.000 claims description 63
- 230000000007 visual effect Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 11
- 230000000977 initiatory effect Effects 0.000 claims description 10
- 238000004891 communication Methods 0.000 description 46
- 230000009471 action Effects 0.000 description 39
- 210000003811 finger Anatomy 0.000 description 36
- 238000003860 storage Methods 0.000 description 36
- 230000008569 process Effects 0.000 description 34
- 238000012545 processing Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 31
- 238000001514 detection method Methods 0.000 description 29
- 230000003287 optical effect Effects 0.000 description 27
- 230000002093 peripheral effect Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 17
- 239000003550 marker Substances 0.000 description 15
- 238000007726 management method Methods 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 12
- 241000699666 Mus <mouse, genus> Species 0.000 description 11
- 230000007423 decrease Effects 0.000 description 11
- 230000003993 interaction Effects 0.000 description 11
- 230000007704 transition Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 9
- 238000009499 grossing Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 230000036541 health Effects 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000003213 activating effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000021317 sensory perception Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 2
- 241001422033 Thestylus Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013503 de-identification Methods 0.000 description 2
- 230000000994 depressogenic effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000010897 surface acoustic wave method Methods 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000009528 vital sign measurement Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Recording Measured Values (AREA)
- Water Treatment By Sorption (AREA)
- Studio Devices (AREA)
- Telephone Function (AREA)
Description
関連出願の相互参照
本出願は、2018年2月9日に出願の「Media Capture Lock Affordance for Graphical User Interface」と題する米国特許仮出願第62/628,825号、2018年5月31日に出願の「Media Capture Lock Affordance for Graphical User Interface」と題する米国特許出願第15/995,040号、及び2019年2月7日に出願の「Media Capture Lock Affordance for Graphical User Interface」と題する米国特許仮出願第62/802,603号の優先権を主張する。これらの出願の内容は、全体が、参照により本明細書に組み込まれる。
CROSS-REFERENCE TO RELATED APPLICATIONS This application is filed May 31, 2018, U.S. Provisional Patent Application No. 62/628,825, entitled "Media Capture Lock Affordance for Graphical User Interface," filed February 9, 2018 No. 15/995,040, entitled "Media Capture Lock Affordance for Graphical User Interface," and U.S. Provisional Patent Application, entitled "Media Capture Lock Affordance for Graphical User Interface," filed Feb. 7, 2019; 62/802,603 priority is claimed. The contents of these applications are incorporated herein by reference in their entireties.
本開示は概して、メディアキャプチャアプリケーションのグラフィカルユーザインタフェースに関する。 The present disclosure relates generally to graphical user interfaces for media capture applications.
メディアキャプチャデバイス(例えば、スマートフォン、タブレットコンピュータ)は、ユーザが1つ以上の組み込まれたカメラ及びマイクロフォンを使用してメディアクリップ(例えば、ビデオクリップ、オーディオクリップ)を記録することを可能にするアプリケーションを含む。ユーザは、仮想記録ボタンを押したままにしてメディアクリップをキャプチャする。ユーザが記録を行うと、ユーザは、メディアクリップをドラッグして他のメディアクリップと共に所望の順序にし、フィルタ、絵文字、アニメーションアイコン、及びタイトルを追加することができる。メディアクリップは、ソーシャルネットワークを通じて間接的に共有することができ、かつ/又は、例えばインスタントメッセージングアプリケーションを通じて友人に直接送信することができる。 Media capture devices (e.g., smartphones, tablet computers) run applications that allow users to record media clips (e.g., video clips, audio clips) using one or more built-in cameras and microphones. include. The user holds down the virtual record button to capture a media clip. Once the user has recorded, the user can drag media clips into the desired order with other media clips, add filters, emojis, animated icons, and titles. Media clips can be shared indirectly through social networks and/or sent directly to friends through instant messaging applications, for example.
しかし、電子デバイスを使用してメディアキャプチャを実行するためのいくつかの技法は、一般的に扱いにくく非効率である。例えば、一部の既存の技法では、複数回のキー押圧又はキーストロークを含み得る、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技法は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。後者について考慮することは、バッテリ動作式デバイスにおいて特に重大である。 However, some techniques for performing media capture using electronic devices are generally cumbersome and inefficient. For example, some existing techniques use complex and time-consuming user interfaces that may involve multiple key presses or keystrokes. Existing techniques take longer than necessary, wasting user time and device energy. The latter consideration is especially critical in battery operated devices.
したがって、本技法は、ジェスチャによるメディアキャプチャを実行するための、より速く、より効率的な方法及びインタフェースを電子デバイスに提供する。このような方法及びインタフェースは、ジェスチャによるメディアキャプチャを実行するための他の方法を任意選択的に補完するか、又は置き換える。そのような方法及びインタフェースは、ユーザにかかる認識的負担を減らし、より効率的なヒューマン-マシンインタフェースを生成する。バッテリ動作式コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、電池充電の間隔を長くする。加えて、このような方法及びインタフェースは、メディアキャプチャを実行するために不要な又は本質的でないユーザ入力の数を低減し、それによってユーザ時間を節約し、デバイスエネルギを節約する。 Accordingly, the techniques provide electronic devices with faster, more efficient methods and interfaces for performing gestural media capture. Such methods and interfaces optionally complement or replace other methods for performing gestural media capture. Such methods and interfaces reduce the cognitive burden placed on users and produce more efficient human-machine interfaces. For battery-operated computing devices, such methods and interfaces conserve power and increase intervals between battery charges. Additionally, such methods and interfaces reduce the number of unnecessary or non-essential user inputs to perform media capture, thereby saving user time and saving device energy.
開示される実施形態は、グラフィカルユーザインタフェースのためのメディアキャプチャロックアフォーダンスを対象とする。一実施形態では、メディアをキャプチャする方法は、メディアキャプチャデバイスによって、メディアキャプチャデバイスのディスプレイスクリーン上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を検出することと、タップアンドホールドジェスチャ入力に応答して、メディアキャプチャデバイスによって、メディアキャプチャデバイス上のメディアキャプチャセッションを、アンロック状態で開始することと、タップアンドホールドジェスチャ入力がメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所からリフトする第1のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションを終了させることと、メディアキャプチャセッション中にメディアキャプチャアフォーダンスがグラフィカルユーザインタフェース上の第1の場所から第2の場所までスライドするスライドジェスチャ入力をメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更することと、スライドジェスチャ入力がメディアキャプチャセッション中に第2の場所でグラフィカルユーザインタフェースからリフトする第2のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションをロック状態に遷移させることと、を含む。 The disclosed embodiments are directed to media capture locking affordances for graphical user interfaces. In one embodiment, a method of capturing media includes tapping and targeting media capture affordances displayed by a media capture device at a first location on a graphical user interface presented on a display screen of the media capture device. detecting hold gesture input; starting a media capture session on the media capture device in an unlocked state by the media capture device in response to the tap-and-hold gesture input; terminating the media capture session by the media capture device in response to the media capture device detecting a first lift gesture of lifting from a first location on the graphical user interface during the capture session; In response to the media capture device detecting a slide gesture input in which the media capture affordance slides from a first location to a second location on the graphical user interface during the session, the media capture affordance is displayed on the media by the media capture device. In response to changing to the capture lock affordance and the media capture device detecting a second lift gesture in which the slide gesture input lifts from the graphical user interface at a second location during the media capture session. transitioning the media capture session to a locked state by.
他の実施形態は、装置、コンピューティングデバイス、及び非一時的コンピュータ可読記憶媒体を含むことができる。 Other embodiments may include apparatus, computing devices, and non-transitory computer-readable storage media.
一部の実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は命令を記憶しており、命令はメディアキャプチャデバイスによって実行されると、メディアキャプチャデバイスに、メディアキャプチャデバイスによって、メディアキャプチャデバイスのディスプレイスクリーン上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を検出することと、タップアンドホールドジェスチャ入力に応答して、メディアキャプチャデバイスによって、メディアキャプチャデバイス上のメディアキャプチャセッションを、アンロックされたメディアセッションキャプチャ状態で開始することと、タップアンドホールドジェスチャ入力がメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所からリフトする第1のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションを終了させることと、メディアキャプチャアフォーダンスがメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所から第2の場所までスライドするスライドジェスチャ入力をメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更することと、スライドジェスチャ入力がメディアキャプチャセッション中に第2の場所でグラフィカルユーザインタフェースからリフトする第2のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションをロックされたメディアキャプチャセッション状態に遷移させることと、を含む動作を実行させる。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores instructions that, when executed by the media capture device, present a graphical user interface to the media capture device and by the media capture device on a display screen of the media capture device. detecting a tap-and-hold gesture input directed to the media capture affordance displayed in a first location above; starting the session in an unlocked media session capture state; Terminating the media capture session by the media capture device in response to detecting and a slide gesture in which the media capture affordance slides from a first location to a second location on the graphical user interface during the media capture session. changing, by the media capture device, a media capture affordance to a media capture lock affordance in response to detection by the media capture device of the input; and transitioning the media capture session to a locked media capture session state by the media capture device in response to the media capture device detecting a second lift gesture that lifts from.
一部の実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は命令を記憶しており、命令はメディアキャプチャデバイスによって実行されると、メディアキャプチャデバイスに、メディアキャプチャデバイスのディスプレイスクリーン上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を検出することと、タップアンドホールドジェスチャ入力に応答して、メディアキャプチャデバイスによって、メディアキャプチャデバイス上のメディアキャプチャセッションを、アンロックされたメディアセッションキャプチャ状態で開始することと、タップアンドホールドジェスチャ入力がメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所からリフトする第1のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションを終了させることと、メディアキャプチャアフォーダンスがメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所から第2の場所までスライドするスライドジェスチャ入力をメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更することと、スライドジェスチャ入力がメディアキャプチャセッション中に第2の場所でグラフィカルユーザインタフェースからリフトする第2のリフトジェスチャを、メディアキャプチャデバイスが検出したことに応答して、メディアキャプチャデバイスによって、メディアキャプチャセッションをロックされたメディアキャプチャセッション状態に遷移させることと、を含む動作を実行させる。 According to some embodiments, a temporary computer-readable storage medium is described. The non-transitory computer-readable storage medium stores instructions that, when executed by the media capture device, cause the media capture device to display a first image on a graphical user interface presented on a display screen of the media capture device. Unlocking, by the media capture device, a media capture session on the media capture device in response to detecting tap-and-hold gesture input directed to the media capture affordance displayed at the location and in response to the tap-and-hold gesture input and in response to the media capture device detecting a first lift gesture in which the tap-and-hold gesture input lifts from a first location on the graphical user interface during the media capture session. and causing the media capture device to terminate the media capture session and a slide gesture input in which the media capture affordance slides from a first location to a second location on the graphical user interface during the media capture session. changing, by the media capture device, the media capture affordance to a media capture lock affordance in response to detecting a second slide gesture input lifts from the graphical user interface at a second location during the media capture session; and transitioning the media capture session to a locked media capture session state by the media capture device in response to detection by the media capture device of the lift gesture.
一部の実施形態によれば、メディアキャプチャデバイスが記載される。メディアキャプチャデバイスは、タッチスクリーンと、1つ以上のプロセッサと、1つ以上のプロセッサと結合しており、命令を記憶するように構成されたメモリと、を備え、命令は、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、タッチスクリーンによって、メディアキャプチャデバイスのタッチスクリーン上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を検出することと、タップアンドホールドジェスチャ入力に応答して、メディアキャプチャデバイス上のメディアキャプチャセッションを、アンロックされたメディアキャプチャセッション状態で開始することと、タップアンドホールドジェスチャ入力がメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所からリフトする第1のリフトジェスチャをタッチスクリーンが検出したことに応答して、メディアキャプチャセッションを終了させることと、メディアキャプチャアフォーダンスがメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所から第2の場所までスライドするスライドジェスチャ入力をタッチスクリーンが検出したことに応答して、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更することと、スライドジェスチャ入力がメディアキャプチャセッション中に第2の場所でグラフィカルユーザインタフェースからリフトする第2のリフトジェスチャを、タッチスクリーンが検出したことに応答して、メディアキャプチャセッションをロックされたメディアキャプチャセッション状態に遷移させることと、を含む動作を実行させる。 According to some embodiments, a media capture device is described. The media capture device comprises a touch screen, one or more processors, and a memory coupled to the one or more processors and configured to store instructions, the instructions being stored in the one or more processors. causes one or more processors to tap and target media capture affordances displayed by the touch screen at a first location on a graphical user interface presented on the touch screen of the media capture device; detecting the hold gesture input; starting a media capture session on the media capture device in an unlocked media capture session state in response to the tap-and-hold gesture input; terminating the media capture session in response to the touch screen detecting a first lift gesture lifting from a first location on the graphical user interface during the capture session; changing a media capture affordance to a media capture lock affordance in response to the touch screen detecting a slide gesture input that slides from a first location to a second location on the graphical user interface; and sliding gesture input. transitioning the media capture session to a locked media capture session state in response to the touch screen detecting a second lift gesture that lifts from the graphical user interface at a second location during the media capture session. , and causes an action including .
一部の実施形態によれば、電子デバイスが記載される。電子デバイスは、ディスプレイスクリーンと、メディアキャプチャデバイスのディスプレイスクリーン上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を検出するための手段と、タップアンドホールドジェスチャ入力に応答して、メディアキャプチャデバイス上のメディアキャプチャセッションを、アンロックされたメディアキャプチャセッション状態で開始する手段と、タップアンドホールドジェスチャ入力がメディアキャプチャセッション中にグラフィカルユーザインタフェース上の第1の場所からリフトする第1のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャセッションを終了させる手段と、メディアキャプチャセッション中にメディアキャプチャアフォーダンスがグラフィカルユーザインタフェース上の第1の場所から第2の場所までスライドするスライドジェスチャ入力をメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更する手段と、スライドジェスチャ入力がメディアキャプチャセッション中に第2の場所でグラフィカルユーザインタフェースからリフトする第2のリフトジェスチャをメディアキャプチャデバイスが検出したことに応答して、メディアキャプチャセッションをロックされたメディアキャプチャセッション状態に遷移させる手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device comprises a display screen and means for detecting a tap-and-hold gesture input directed to a media capture affordance displayed at a first location on a graphical user interface presented on the display screen of the media capture device. and means for, in response to the tap-and-hold gesture input, starting a media capture session on the media capture device in an unlocked media capture session state; means for terminating a media capture session in response to the media capture device detecting a first lift gesture lifting from a first location above; means for changing a media capture affordance to a media capture lock affordance in response to the media capture device detecting a slide gesture input that slides from a first location to a second location; means for transitioning the media capture session to a locked media capture session state in response to the media capture device detecting a second lift gesture lifting from the graphical user interface at the second location.
本明細書に開示する特定の実施形態は、以下の利点のうちの1つ以上を提供することができる。メディアキャプチャロックアフォーダンスは、ユーザが、メディアキャプチャデバイスを片手で保持しながら、ユーザの指(例えば、ユーザの親指)によって適用され得る単純かつ直感的なタッチジェスチャを使用して、メディアキャプチャデバイスのキャプチャ状態をロック及びアンロックすることを可能にする。 Certain embodiments disclosed herein can provide one or more of the following advantages. A media capture lock affordance allows a user to capture a media capture device using simple and intuitive touch gestures that can be applied by a user's finger (e.g., a user's thumb) while holding the media capture device in one hand. Allows to lock and unlock states.
主題の1つ以上の実装形態の詳細は、添付図面及び下掲の明細書に記載されている。本主題の他の特徴、態様、及び利点は、明細書、図面、及び特許請求の範囲から明らかとなるであろう。 The details of one or more implementations of the subject matter are set forth in the accompanying drawings and the description below. Other features, aspects, and advantages of the present subject matter will become apparent from the specification, drawings, and claims.
一部の実施形態によれば、方法が記載される。方法は、ディスプレイ、タッチ感知面、及び1つ以上のメディアキャプチャ構成要素を有するデバイスにおいて、ディスプレイ上に第1のユーザインタフェース要素を表示することと、タッチ感知面を介して、第1のユーザインタフェース要素に対応するタッチ感知面上の場所で開始するタッチ入力を検出することと、タッチ入力を検出したことに応答して、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、タッチ感知面からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャすることと、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディアをキャプチャすることと、タッチ入力が移動基準を満たし、第1の方向への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続することと、を含む。 According to some embodiments, a method is described. A method, in a device having a display, a touch-sensitive surface, and one or more media capture components, comprises displaying a first user interface element on the display; detecting touch input beginning at a location on the touch-sensitive surface corresponding to the element; capturing the first type of media according to a determination that it has been lifted from the touch-sensitive surface before the threshold time elapses; and before the touch input meets the movement criteria and after the touch input is detected. After the time has elapsed, capturing a second type of media having a duration based on the duration of the touch input on the touch-sensitive surface according to the determination that it has been lifted from the touch-sensitive surface; and begins capturing a second type of media in accordance with a determination that it involves movement in the first direction; continuing the capture;
一部の実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、ディスプレイ、タッチ感知面及び1つ以上のメディアキャプチャ構成要素を有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に第1のユーザインタフェースを表示する命令と、タッチ感知面を介して、第1のユーザインタフェース要素に対応するタッチ感知面上の場所で開始するタッチ入力を検出する命令と、タッチ入力を検出したことに応答して、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たし、第1の方向への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャ継続する命令と、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display, touch-sensitive surface, and one or more media capture components. , one or more programs provide instructions for displaying a first user interface on the display and, via the touch-sensitive surface, inputting a touch starting at a location on the touch-sensitive surface corresponding to the first user interface element. In response to the instruction to detect and detecting the touch input, the touch input lifts from the touch-sensitive surface before the touch input meets the movement criteria and before the threshold time has elapsed since the touch input was detected. capturing the first type of media according to the determination that the touch input was detected; instructions for capturing a second type of media having a duration based on the duration of the touch input on the touch-sensitive surface according to the lift determination; initiating capture of the second type of media in accordance with the determining to include and continuing to capture the second type of media after detecting lift-off of the touch input from the touch-sensitive surface.
一部の実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、ディスプレイ、タッチ感知面及び1つ以上のメディアキャプチャ構成要素を有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に第1のユーザインタフェースを表示する命令と、タッチ感知面を介して、第1のユーザインタフェース要素に対応するタッチ感知面上の場所で開始するタッチ入力を検出する命令と、タッチ入力を検出したことに応答して、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たす前、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たし、第1の方向への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続する命令と、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display, a touch-sensitive surface, and one or more media capture components; The one or more programs receive instructions to display a first user interface on the display and, via the touch-sensitive surface, detect a touch input starting at a location on the touch-sensitive surface corresponding to the first user interface element. and in response to detecting the touch input, the touch input is lifted from the touch-sensitive surface before the touch input meets the movement criteria and before the threshold time has elapsed since the touch input was detected. and lifting the touch input from the touch-sensitive surface before the touch input meets the movement criteria and after a threshold time has elapsed since the touch input was detected. and capturing a second type of media having a duration based on the duration of the touch input on the touch-sensitive surface, and wherein the touch input meets the movement criteria and includes movement in the first direction. initiating capture of the second type of media in accordance with the determination of and continuing capturing of the second type of media after detecting lift-off of touch input from the touch sensitive surface.
一部の実施形態によれば、電子デバイスが記載される。電子デバイスは、ディスプレイと、タッチ感知面と、1つ以上のメディアキャプチャ構成要素と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ディスプレイ上に第1のユーザインタフェースを表示する命令と、タッチ感知面を介して第1のユーザインタフェース要素に対応するタッチ感知面上の場所で開始するタッチ入力を検出する命令と、タッチ入力を検出したことに応答して、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディアをキャプチャする命令と、タッチ入力が移動基準を満たし、第1の方向への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続する命令と、を含む。 According to some embodiments, an electronic device is described. An electronic device stores a display, a touch-sensitive surface, one or more media capture components, one or more processors, and one or more programs configured to be executed by the one or more processors. one or more programs having instructions for displaying a first user interface on the display and at locations on the touch-sensitive surface corresponding to the first user interface elements via the touch-sensitive surface. an instruction to detect a touch input to initiate; an instruction to capture a first type of media in accordance with a determination that it has been lifted from the touch-sensitive surface; is lifted from the touch-sensitive surface, capturing a second type of media having a duration based on the duration of the touch-input on the touch-sensitive surface; instructions for initiating capture of a second type of media according to a determination that it involves movement in a direction of and continuing capturing of the second type of media after detecting lift-off of touch input from the touch-sensitive surface; and including.
一部の実施形態によれば、電子デバイスが記載される。電子デバイスは、ディスプレイと、タッチ感知面と、1つ以上のメディアキャプチャ構成要素と、ディスプレイ上に第1のユーザインタフェースを表示する手段と、タッチ感知面を介して、第1のユーザインタフェース要素に対応するタッチ感知面上の場所で開始するタッチ入力を検出する手段と、タッチ入力を検出したことに応答して、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャし、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディアをキャプチャし、タッチ入力が移動基準を満たし、第1の方向への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャ継続する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device comprises a display, a touch-sensitive surface, one or more media capture components, means for displaying a first user interface on the display, and a first user interface element via the touch-sensitive surface. means for detecting a touch input starting at a location on a corresponding touch-sensitive surface and, in response to detecting the touch input, a threshold time before the touch input meets the movement criteria and after the touch input is detected capturing a first type of media according to a determination that the touch input has been lifted from the touch-sensitive surface before elapses of a threshold time before the touch input meets the movement criteria and after the touch input is detected; capturing a second type of media having a duration based on the duration of the touch input on the touch sensitive surface after the touch input is lifted from the touch sensitive surface; and begins capturing a second type of media in accordance with a determination that it includes movement in the first direction; and means for continuing capture.
これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。 Executable instructions for performing these functions are optionally contained within a non-transitory computer-readable storage medium or other computer program product configured to be executed by one or more processors. Executable instructions for performing these functions are optionally contained within a temporary computer-readable storage medium or other computer program product configured to be executed by one or more processors.
このように、デバイスには、より速く、より効率的な、ジェスチャによるメディアキャプチャを実行するための方法及びインタフェースが設けられ、それによって、このようなデバイスについての有効性、効率及びユーザ満足度が増大する。このような方法及びインタフェースは、ジェスチャによるメディアキャプチャを実行するための他の方法を任意選択的に補完するか、又は取り替えることができる。 Devices are thus provided with faster, more efficient methods and interfaces for performing gestural media capture, thereby increasing the effectiveness, efficiency and user satisfaction of such devices. increase. Such methods and interfaces may optionally supplement or replace other methods for performing gestural media capture.
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。 For a better understanding of the various described embodiments, reference should be made to the following detailed description in conjunction with the following drawings, where like reference numerals refer to the following figures. Refers to corresponding parts throughout.
以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、代わりに例示的な実施形態の説明として提供されることを認識されたい。 The following description sets forth exemplary methods, parameters, and the like. It should be recognized, however, that such description is not intended as a limitation on the scope of the present disclosure, but is instead provided as a description of exemplary embodiments.
ジェスチャによるメディアキャプチャを実行する効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。このような技法は、メディアをキャプチャするためにデバイスを使用するユーザの認識的負担を軽減し、それにより、生産性を向上させることができる。更に、このような技法は、普通なら冗長なユーザ入力に浪費されるプロセッサ及び電池の電力を低減させることができる。 What is needed is an electronic device that provides an efficient method and interface for performing gestural media capture. Such techniques can reduce the cognitive burden of users using devices to capture media, thereby increasing productivity. In addition, such techniques can reduce processor and battery power otherwise wasted on redundant user input.
以下に、図1A~図1B、図2、図3、図4A~図4B、及び図5A~図5Hは、イベント通知を管理する技法を実行するための例示的なデバイスの説明を提供する。図6A~図6Hは、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。図7は、一部の実施形態による、ジェスチャによるメディアキャプチャを実行する方法を示すフロー図である。図6A~図6Hのユーザインタフェースは、図7の処理を含む、以下で説明する処理を示すために使用される。図9A~図10Fは、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。図11A~図11Bは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行する方法を示すフロー図である。図9A~図10Fのユーザインタフェースは、図11A~図11Bのプロセスを含む後述するプロセスを示すために使用される。 1A-1B, 2, 3, 4A-4B, and 5A-5H below provide descriptions of exemplary devices for implementing techniques for managing event notifications. 6A-6H illustrate exemplary user interfaces for performing gestural media capture. FIG. 7 is a flow diagram illustrating a method of performing media capture with gestures, according to some embodiments. The user interfaces of FIGS. 6A-6H are used to illustrate the processes described below, including the process of FIG. 9A-10F illustrate exemplary user interfaces for performing gestural media capture. 11A-11B are flow diagrams illustrating methods of performing media capture with gestures, according to some embodiments. The user interfaces of FIGS. 9A-10F are used to illustrate the processes described below, including the processes of FIGS. 11A-11B.
以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。 Although the following description uses terms such as "first," "second," etc. to describe various elements, these elements should not be limited by those terms. These terms are only used to distinguish one element from another. For example, a first touch could be referred to as a second touch, and similarly a second touch could be referred to as a first touch, without departing from the scope of various described embodiments. Both the first touch and the second touch are touches, but they are not the same touch.
本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。 The terminology used in the description of the various embodiments provided herein is for the purpose of describing particular embodiments only and is not intended to be limiting. In the description of the various embodiments described and in the appended claims, the singular forms "a," "an," and "the" are intended to include the plural as well, unless the context clearly dictates otherwise. Also, as used herein, the term "and/or" is understood to refer to and include any and all possible combinations of one or more of the associated listed items. want to be The terms "includes," "including," "comprises," and/or "comprising," as used herein, refer to the features mentioned, specifying the presence of an integer, step, operation, element, and/or component, but specifying the presence or addition of one or more other features, integers, steps, operations, elements, components, and/or groups thereof It will be further understood that no exclusions are made.
「~の場合(if)」という用語は、任意選択的に、文脈に応答して、「~とき(when)」若しくは「~とき(upon)」、又は「~と判定したことに応答して(in response to determining)」若しくは「~を検出したことに応答して(in response to detecting)」を意味すると解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の条件又はイベント]が検出された場合(if [a stated condition or event] is detected)」という語句は、任意選択的に、文脈に応答して、「~と判定したとき(upon determining)」若しくは「~と判定したことに応答して(in response to determining)」、又は「[記載の条件又はイベント]を検出したとき(upon detecting [the stated condition or event])」若しくは「[記載の条件又はイベント]を検出したことに応答して(in response to detecting [the stated condition or event])」を意味すると解釈される。 The term “if” is optionally used in response to context, “when” or “upon”, or “in response to determining that "in response to determining" or "in response to detecting". Similarly, the phrases "if it is determined" or "if [a stated condition or event] is detected" are optional. literally, in response to context, "upon determining" or "in response to determining", or "detect [statement or event] construed to mean “upon detecting [the stated condition or event]” or “in response to detecting [the stated condition or event]”. be.
電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。一部の実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面を有するラップトップ又はタブレットコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)などの他のポータブル電子デバイスも使用される。また、一部の実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面を有するデスクトップコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)であることも理解されたい。 Embodiments of electronic devices, user interfaces for such devices, and associated processes of using such devices are described. In some embodiments, the device is a portable communication device such as a mobile phone that also includes PDA functionality and/or other functionality such as music player functionality. Exemplary embodiments of portable multifunction devices include those manufactured by Apple Inc. of Cupertino, Calif. including, but not limited to, iPhone®, iPod Touch®, and iPad® devices from Apple Inc. Optionally, other portable electronic devices such as laptop or tablet computers with touch-sensitive surfaces (eg, touchscreen displays and/or touchpads) are also used. It should also be appreciated that in some embodiments the device is not a portable communication device, but a desktop computer with a touch-sensitive surface (eg, a touchscreen display and/or touchpad).
以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。 The following discussion describes electronic devices that include displays and touch-sensitive surfaces. However, it should be understood that the electronic device optionally includes one or more other physical user interface devices such as physical keyboards, mice and/or joysticks.
デバイスは、典型的には、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。 Devices are typically used in drawing applications, presentation applications, word processing applications, website creation applications, disc authoring applications, spreadsheet applications, gaming applications, telephony applications, video conferencing applications, e-mail applications, instant messaging applications, training It supports various applications such as one or more of a support application, a photo management application, a digital camera application, a digital video camera application, a web browsing application, a digital music player application, and/or a digital video player application.
本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透過的なユーザインタフェースを備える様々なアプリケーションをサポートする。 Various applications running on the device optionally use at least one common physical user interface device, such as a touch-sensitive surface. One or more functions of the touch-sensitive surface and corresponding information displayed on the device are optionally adjusted and/or changed from application to application and/or within each application. In this way, the common physical architecture of the device (such as the touch-sensitive surface) optionally supports various applications with a user interface that is intuitive and transparent to the user.
ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、一部の実施形態による、タッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光学センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号線103を介して通信する。
Attention is now directed to embodiments of portable devices with touch-sensitive displays. FIG. 1A is a block diagram illustrating portable
本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代替物(代用物)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、判定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。一部の実装形態では、複数の力センサからの力測定値は、接触の推定される力を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。代替的に、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変化、接触に近接するタッチ感知面の静電容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化は、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。一部の実装形態では、接触の力又は圧力のための代替測定値は、強度閾値を超えているかどうかを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。一部の実装形態では、接触の力又は圧力に対する代替測定値は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超えているかどうかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを(例えば、タッチ感知ディスプレイ上に)表示するための、及び/又は、ユーザ入力を(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的制御部を介して)受信するための面積が制限されている、低減されたサイズのデバイス上で、通常であればユーザによってアクセスすることが不可能であり得る追加のデバイス機能への、ユーザのアクセスが可能となる。 As used herein and in the claims, the term "strength" of contact on the touch-sensitive surface refers to the force or pressure (force per unit area) of contact (e.g., finger contact) on the touch-sensitive surface. ), or a substitute for the force or pressure of contact on a touch-sensitive surface. The intensity of contact has a range of values including at least four distinct values, and more typically including several hundred (eg, at least 256) distinct values. The strength of contact is optionally determined (or measured) using various techniques and various sensors or combinations of sensors. For example, one or more force sensors under or adjacent to the touch-sensitive surface are optionally used to measure force at various points on the touch-sensitive surface. In some implementations, force measurements from multiple force sensors are combined (eg, weighted average) to determine the estimated force of the contact. Similarly, the stylus' pressure-sensitive tip is optionally used to determine the pressure of the stylus on the touch-sensitive surface. Alternatively, the size and/or change in the contact area detected on the touch sensitive surface, the capacitance and/or change in the touch sensitive surface proximate to the contact, and/or the touch sensitive surface proximate to the contact. The resistance of and/or changes thereof is optionally used as a proxy for contact force or pressure on the touch-sensitive surface. In some implementations, the alternate measure for contact force or pressure is used directly to determine whether an intensity threshold has been exceeded (e.g., the intensity threshold is in units corresponding to the alternate measure). ). In some implementations, the alternate measurement for contact force or pressure is converted to an estimated force or pressure, and the estimated force or pressure is used to determine whether the intensity threshold is exceeded. (eg, the intensity threshold is the pressure threshold measured in units of pressure). to display affordances (e.g., on a touch-sensitive display) and/or measure user input (e.g., on a touch-sensitive display, touch-sensitive surface, or Not normally accessible by the user on reduced size devices with limited area for receiving (via physical/mechanical controls such as knobs or buttons) It allows the user access to additional device functions that are available.
本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの以前の位置に対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、ハウジング)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変化に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。いくつかの場合、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。 As used herein and in the claims, the term "tactile output" refers to the physical displacement of the device relative to its previous position, which is to be detected by the user in the user's tactile sense. Refers to the physical displacement of a component (eg, touch-sensitive surface) relative to another component of the device (eg, housing) or the displacement of a component relative to the device's center of mass. For example, in situations where a device or device component is in contact with a touch-sensitive surface of a user (e.g., fingers, palm, or other part of the user's hand), tactile sensations generated by physical displacement The output will be interpreted by the user as a tactile sensation corresponding to a perceived change in the physical properties of the device or device components. For example, movement of a touch-sensitive surface (eg, touch-sensitive display or trackpad) is optionally interpreted by the user as a "down-click" or "up-click" of a physical actuator button. In some cases, a user can "down-click" or "up-click" even when there is no movement of the physical actuator button associated with the touch-sensitive surface that is physically pressed (e.g., displaced) by the user's motion. ” and other tactile sensations. As another example, movement of the touch-sensitive surface is optionally interpreted or perceived by the user as "roughness" of the touch-sensitive surface, even if there is no change in the smoothness of the touch-sensitive surface. be. Such a user's interpretation of touch depends on the user's personal sensory perception, but there are many sensory perceptions of touch that are common to the majority of users. Thus, when a tactile output is described as corresponding to a particular sensory perception of a user (e.g., "upclick", "downclick", "roughness"), the generated tactile A sensory output corresponds to the physical displacement of a device, or a component of a device, that produces the described sensory perception of a typical (or average) user.
デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実装される。
メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。
Memory 102 optionally includes high speed random access memory and optionally non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. include.
周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させるか、又は実行して、デバイス100のための様々な機能を実行し、データを処理する。一部の実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上で実装される。一部の他の実施形態では、それらは別々のチップ上に任意選択的に実装される。
RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線機などによって近距離通信(near field communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、動き通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution,Data-Only、EV-DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetoothローエネルギー(Bluetooth Low Energy、BTLE(登録商標))、ワイヤレスフィデリティ(Wireless Fidelity、Wi-Fi(登録商標))(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/若しくはIEEE 802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX(登録商標)、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンションのためのセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適した通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
RF (radio frequency)
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に送信する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に送信される。一部の実施形態では、オーディオ回路110はヘッドセットジャック(例えば、図2の212)も備える。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を備えるヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光学センサコントローラ158、深度カメラコントローラ169、強度センサコントローラ159、触覚フィードバックコントローラ161、及び、他の入力デバイス若しくは制御デバイス用の1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。一部の代替的な実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又はいずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量コントロールのための上下ボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。
I/
全体として参照により本明細書に組み込まれている、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押圧は、任意選択的に、タッチスクリーン112のロックを係合解除し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをアンロックするプロセスを開始する。プッシュボタン(例えば、206)のより長い押圧は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能性は、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112は、仮想ボタン又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。
U.S. Patent Application No. 11/322,549, "Unlocking a Device by Performing Gestures on an Unlock Image," filed Dec. 23, 2005, which is incorporated herein by reference in its entirety, U.S. Patent No. 7, 657,849, a quick press of the push button optionally disengages the lock on the
タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信、及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚出力を表示する。この視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。一部の実施形態では、視覚出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。
Touch-
タッチスクリーン112は、触覚及び/若しくは触知接触に基づくユーザからの入力を受け入れるタッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)、タッチスクリーン112への接触(及びあらゆる接触の移動又は中断)を検出し、検出された接触をタッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)との対話に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。
タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術も使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、それだけに限定されるものではないが、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素を含む、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる移動又は中断を検出する。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるものなどの、投影型相互静電容量感知技術が使用される。
The
タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、任意選択的に、それぞれが全体として参照により本明細書に組み込まれている、米国特許第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/若しくは第6,677,932号(Westerman)、並びに/又は米国特許公開第2002/0015024A1号に記載されているマルチタッチ感知タッチパッドに類似している。しかし、タッチスクリーン112はデバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは視覚出力を提供しない。
The touch-sensitive display in some embodiments of
タッチスクリーン112の一部の実施形態におけるタッチ感知ディスプレイは、(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi-Functional Hand-Held Device」という出願に記載されている。これらの出願は全て、全体として参照により本明細書に組み込まれている。
The touch sensitive display in some embodiments of the
タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。一部の実施形態では、タッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の適した物体又は付属物を使用して、タッチスクリーン112に接触する。一部の実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャを主に扱うように設計されるが、これは、タッチスクリーン上の指の接触面積がより大きいため、スタイラスベースの入力ほど精密でない可能性がある。一部の実施形態では、デバイスは、粗い指ベースの入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。
一部の実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを含む。一部の実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112又はタッチスクリーンによって形成されるタッチ感知面の拡張部とは別個のタッチ感知面である。
In some embodiments, in addition to the touchscreen,
デバイス100は、様々な構成要素に電力を供給する電力システム162も含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。
また、デバイス100は、任意選択的に、1つ以上の光学センサ164を含む。図1Aは、I/Oサブシステム106内の光学センサコントローラ158に結合された光学センサを示す。光学センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光学センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光学センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連動して、任意選択的に、静止画像又はビデオをキャプチャする。一部の実施形態では、光学センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対のデバイス100の裏面に位置するので、タッチスクリーンディスプレイは、静止画像及び/又はビデオ画像の取得のためのビューファインダとしての使用が可能になる。一部の実施形態では、光学センサは、デバイスの前面に位置するので、ユーザは他のテレビ会議参加者をタッチスクリーンディスプレイ上で閲覧しながら、ユーザの画像は任意選択的に、テレビ会議のために取得される。一部の実施形態では、光学センサ164の位置は、ユーザによって(例えば、デバイスハウジング内のレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光学センサ164が、タッチスクリーンディスプレイと共に、テレビ会議用にも静止画像及び/又はビデオ画像の取得のためにも使用される。
デバイス100はまた、任意選択的に、1つ以上の深度カメラセンサ175を含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内のオブジェクト(例えば、顔面)の3次元モデルを作成する。一部の実施形態では、撮像モジュール143(カメラモジュールとも呼ばれるもの)と連携して、深度カメラセンサ175は、任意選択的に、撮像モジュール143によってキャプチャされた画像の種々の部分の深度マップを決定するために使用される。一部の実施形態では、デバイス100の前面に深度カメラセンサが位置しているので、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で閲覧しながら、深度マップデータを有する自撮り画像をキャプチャするために、深度情報を有するユーザの画像が、任意選択的に、テレビ会議のために取得される。一部の実施形態では、深度カメラセンサ175は、デバイスの背面に、あるいはデバイス100の背面及び前面に位置している。一部の実施形態では、深度カメラセンサ175の位置は、ユーザによって(例えば、デバイスハウジング内のレンズ及びセンサを回転させることによって)変更することができ、したがって深度カメラセンサ175が、タッチスクリーンディスプレイと共に、テレビ会議用にも静止画像及び/又はビデオ画像の取得のためにも使用される。
デバイス100は、任意選択で、1つ以上の接触強度センサ165も含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、静電容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に含む。接触強度センサ165は、環境から接触強度情報(例えば、圧力情報、又は圧力情報の代用物)を受信する。一部の実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接される。一部の実施形態では、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に位置している。
また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。代わりに、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、全体として参照により本明細書に組み込まれている、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、第11/240,788号、「Proximity Detector In Handheld Device」第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されるように機能するものであり、これらの出願は、全体が参照により本明細書に組み込まれる。一部の実施形態では、多機能デバイスが、ユーザの耳の近くに配置される場合(例えば、ユーザが電話通話を行っている場合)、近接センサは、タッチスクリーン112をオフにして無効化する。
デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。一部の実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と一緒に並べて配置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。一部の実施形態では、少なくとも1つの触知出力生成器センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に位置している。
また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。代わりに、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、どちらも全体として参照により本明細書に組み込まれている、米国特許公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び米国特許公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。一部の実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の場所及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。
一部の実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、一部の実施形態では、メモリ102(図1A)又はメモリ370(図3)は、図1A及び図3に示すように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示すアクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占めているかを示す表示状態、デバイスの様々なセンサ及び入力コントロールデバイス116から取得した情報を含むセンサ状態、並びにデバイスの場所及び/又は姿勢に関する位置情報、のうちの1つ以上を含む。
In some embodiments, the software components stored in memory 102 include
オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込みオペレーティングシステム)は、通常のシステムタスク(例えば、メモリ管理、記憶デバイスの制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。 operating system 126 (e.g., Darwin®, RTXC®, LINUX®, UNIX®, OS X®, iOS®, WINDOWS®, or Embedded operating systems, such as VxWorks®, include various software components and/or drivers that control and manage normal system tasks (e.g., memory management, storage device control, power management, etc.) and include various Facilitates communication between flexible hardware and software components.
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えばユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに結合されるように適合されている。一部の実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは類似であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。
接触/動きモジュール130は、任意選択的に、タッチスクリーン112(ディスプレイコントローラ156と連動して)及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が生じたかどうかを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するかどうかを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が中止したかどうかを判定すること(例えば、指を上げるイベント又は接触の中止を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。一部の実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
Contact/
一部の実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたかどうかを判定するための(例えば、ユーザがアイコン上で「クリック」したかどうかを判定するための)、1つ以上の強度閾値のセットを使用する。一部の実施形態では、強度閾値の少なくとも1つのサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変化させることなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変化させることなく、広範囲の既定閾値のうちのいずれかに設定することができる。加えて、一部の実装形態では、デバイスのユーザは、強度閾値のセットのうちの1つ以上を調整するソフトウェア設定が提供される(例えば、システムレベルのクリック「強度」パラメータによって、個々の強度閾値を調整すること、及び/又は複数の強度閾値を一度に調整することによる)。
In some embodiments, the contact/
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指を下ろすイベントを検出し、それに続いて指を下ろすイベントと同じ位置(又は実質的に同じ位置)(例えば、アイコンの位置)で指を上げる(リフトオフ)イベントを検出することを含む。別の例として、タッチ感知面上で指スワイプジェスチャを検出することは、指を下ろすイベントを検出し、それに続いて1つ以上の指をドラッグするイベントを検出し、その後それに続いて指を上げる(リフトオフ)イベントを検出することを含む。
Contact/
グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、さまざまな既知のソフトウェア構成要素を含む。本明細書で使用されるとき、用語「グラフィック」は、それだけに限定されるものではないが、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含む、ユーザに表示することができる任意のオブジェクトを含む。
The
一部の実施形態では、グラフィックモジュール132は、使用されるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データと共に、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力するためのスクリーン画像データを生成する。
In some embodiments,
触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応答して、デバイス100上の1つ以上の場所で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。
テキスト入力モジュール134は、任意選択で、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。
GPSモジュール135は、デバイスの場所を判定し、この情報を様々なアプリケーションで使用するために(例えば、位置に基づくダイヤル発呼で使用するために電話138へ、画像/ビデオのメタデータとしてカメラ143へ、並びに、気象ウィジェット、地域のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどの、場所に基づくサービスを提供するアプリケーションへ)提供する。
The
アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●任意選択的に気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって入手された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを一体化したビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は、
●オンラインビデオモジュール155。
- the contacts module 137 (sometimes called an address book or contact list);
a
a
-
an instant messaging (IM)
●
- a
an
● video player module,
● music player module,
the
a
- Optionally weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, dictionary widget 149-5, and other user-obtained and user-created widgets a
- a
a
- a video and
●
-
•
任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
Examples of
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、連絡先モジュール137は、任意選択的に、アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、実際の住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始及び/又は促進することなどを含めて、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)を管理するために使用される。
In conjunction with
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電話モジュール138は、任意選択的に、電話番号に対応する文字シーケンスの入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、それぞれの電話番号のダイヤル、会話の実施、会話が終了したときの通話停止又はハングアップのために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
In conjunction with
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光学センサ164、光学センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連動して、テレビ会議モジュール139は、ユーザ命令に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了するための実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電子メールクライアントモジュール140は、ユーザ命令に応答して電子メールを作成、送信、受信、及び管理するための実行可能な命令を含む。画像管理モジュール144と連動して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。
In conjunction with
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字シーケンスの入力、以前に入力された文字の修正、それぞれのインスタントメッセージの送信(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)、インスタントメッセージの受信、及び受信したインスタントメッセージの閲覧のための実行可能な命令を含む。一部の実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるグラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書では、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)との両方を指す。
In conjunction with
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽プレーヤモジュールと連動して、トレーニングサポートモジュール142は、トレーニング(例えば、時間、距離、及び/又はカロリー燃焼目標を有する)を作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択及び再生し、並びに、トレーニングデータを表示、記憶、及び送信するための実行可能な命令を含む。
In conjunction with
タッチスクリーン112、ディスプレイコントローラ156、光学センサ(単数又は複数)164、光学センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連動して、カメラモジュール143は、静止画像若しくはビデオ(ビデオストリームを含む)のキャプチャ及びメモリ102内への記憶、静止画像若しくはビデオの特性の修正、又はメモリ102からの静止画像若しくはビデオの削除のための実行可能な命令を含む。
In conjunction with
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連動して、画像管理モジュール144は、静止画像及び/又はビデオ画像の配置、修正(例えば、編集)、あるいはその他の操作、ラベル付け、削除、提示(例えば、デジタルスライドショー又はアルバムにおける)、及び記憶のための実行可能な命令を含む。
In conjunction with
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、ブラウザモジュール147は、ウェブページ又はその一部分、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含めて、ユーザ命令に従ってインターネットをブラウジングするための実行可能な命令を含む。
In conjunction with the
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、カレンダモジュール148は、ユーザの指示に従い、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダ項目、to doリストなど)を作成し、表示し、変更し、記憶するための実行可能な命令を含む。
In conjunction with
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェットモジュール149は、任意選択的にユーザによってダウンロード及び使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。一部の実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScript(登録商標)ファイルを含む。一部の実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル及びJavaScript(登録商標)ファイル(例えば、Yahoo!ウィジェット)を含む。
In conjunction with
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェットクリエータモジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、検索モジュール151は、ユーザ命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)に一致するメモリ102内の文字、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索するための実行可能な命令を含む。
In conjunction with
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びにビデオを(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生するための実行可能な命令を含む。一部の実施形態では、デバイス100は、任意選択的に、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を含む。
In conjunction with
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、メモモジュール153は、ユーザ命令に従ってメモ、やることリストなどを作成及び管理するための実行可能な命令を含む。
In conjunction with
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連動して、地図モジュール154は、任意選択的に、ユーザ命令に従って、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の場所又はその付近の店舗及び他の対象地点に関するデータ、並びに他の場所ベースのデータ)を受信、表示、修正、及び記憶するために使用される。
In conjunction with
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連動して、オンラインビデオモジュール155は、ユーザが特定のオンラインビデオへのアクセス、特定のオンラインビデオのブラウジング、受信(例えば、ストリーミング及び/又はダウンロードによる)、再生(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上)、特定のオンラインビデオへのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイル形式のオンラインビデオの他の管理を行うことを可能にする命令を含む。一部の実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションについての追加の説明は、その内容が全体として参照により本明細書に組み込まれている、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」において見ることができる。
In conjunction with
上記で特定したモジュール及びアプリケーションはそれぞれ、前述した1つ以上の機能及び本出願に記載する方法(例えば、本明細書に記載するコンピュータにより実装される方法及び他の情報処理方法)を実行する実行可能な命令のセットに対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットが、任意選択的に、組み合わされ、又は他の形で再構成される。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)にされる。一部の実施形態では、メモリ102は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
Each of the modules and applications identified above may be implemented to perform one or more of the functions described above and the methods described herein (e.g., the computer-implemented methods and other information processing methods described herein). Corresponds to the set of possible instructions. These modules (e.g., instruction sets) need not be implemented as separate software programs, procedures, or modules, and thus, in various embodiments, various subsets of these modules optionally include: combined or otherwise rearranged. For example, a video player module is optionally combined with a music player module into a single module (eg, video and
一部の実施形態では、デバイス100は、そのデバイスにおける所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。
In some embodiments,
タッチスクリーン及び/又はタッチパッドを通じてのみ実行される既定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。一部の実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。一部の他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。
A default set of functions performed only through a touchscreen and/or touchpad optionally includes navigation between user interfaces. In some embodiments, the touchpad navigates
図1Bは、一部の実施形態による、イベント処理のための例示的な構成要素を示すブロック図である。一部の実施形態では、メモリ102(図1A)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)と、それぞれのアプリケーション136-1(例えば、前述のアプリケーション137~151、155、380~390のうちのいずれか)とを含む。 FIG. 1B is a block diagram illustrating exemplary components for event processing, according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) includes event sorter 170 (eg, within operating system 126) and respective applications 136-1 (eg, the aforementioned applications 137-151, 155, any of 380-390).
イベントソータ170は、イベント情報を受信し、イベント情報が配信されるアプリケーション136-1、及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。一部の実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中のとき、タッチ感知ディスプレイ112で上に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192を含む。一部の実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーションが現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。
一部の実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用すべき再開情報、アプリケーション136-1によって表示されている情報を示す又は表示する準備ができたユーザインタフェース状態情報、ユーザがアプリケーション136-1の以前の状態又はビューに戻ることを可能にする状態キュー、及びユーザによって行われた以前のアクションのリドゥ/アンドゥキューのうちの1つ以上などの追加の情報を含む。
In some embodiments, application
イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としてのタッチ感知ディスプレイ112上のユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
一部の実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回る及び/又は所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。 In some embodiments, event monitor 171 sends requests to peripherals interface 118 at predetermined intervals. In response, peripherals interface 118 transmits event information. In other embodiments, peripherals interface 118 transmits event information only when there is a significant event (eg, receipt of input above a predetermined noise threshold and/or exceeding a predetermined duration).
一部の実施形態では、イベントソータ170は、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。
In some embodiments,
ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示するとき、サブイベントが1つ以上のビュー内のどこで行われたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。
Hit
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウインドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。 Another aspect of the user interface associated with an application is the set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and touch-based gestures occur. The application view (of the respective application) in which the touch is detected optionally corresponds to a program level within the application's program hierarchy or view hierarchy. For example, the lowest level view in which touch is detected is optionally called the hit view, and the set of events recognized as appropriate input is optionally the initial view that initiates a touch gesture. The determination is based at least in part on the hit view of the touch.
ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき、階層内の最下位のビューとしてのヒットビューを特定する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成するサブイベントシーケンス内の第1のサブイベント)が行われる最も低いレベルのビューである。ヒットビューがヒットビュー判定モジュール172によって特定されると、このヒットビューは、典型的には、ヒットビューとして特定されたのと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。
The hit
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。一部の実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理的な場所を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連付けられたエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。
Active event
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。一部の実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部182によって取得されるイベント情報をイベント待ち行列に記憶する。
一部の実施形態では、オペレーティングシステム126は、イベントソータ170を含む。代替的に、アプリケーション136-1がイベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュールであり、又は接触/動きモジュール130などのメモリ102内に記憶されている別のモジュールの一部分である。
In some embodiments,
一部の実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理するための命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット、又は、アプリケーション136-1が方法及び他の属性を継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。一部の実施形態では、それぞれのイベントハンドラ190は、データアップデータ176、オブジェクトアップデータ177、GUIアップデータ178、及び/又はイベントソータ170から受信されたイベントデータ179のうちの1つ以上を含む。イベントハンドラ190は、任意選択的に、データアップデータ176、オブジェクトアップデータ177、又はGUIアップデータ178を利用し又は呼び出して、アプリケーション内部状態192を更新する。代替的に、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベントハンドラ190を含む。また、一部の実施形態では、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178のうちの1つ以上は、それぞれのアプリケーションビュー191に含まれる。
In some embodiments, application 136-1 includes
それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、このイベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。一部の実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。
Each
イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの場所などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。一部の実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。
The
イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。一部の実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば既定のサブイベントのシーケンス)の定義を含む。一部の実施形態では、イベント187におけるサブイベントは、例えば、タッチ開始、タッチ終了、タッチの移動、タッチの取り消し、及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に対する表示オブジェクト上のタッチ(又は接触)、タッチ感知ディスプレイ112におけるタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。一部の実施形態では、イベントは、1つ以上の関連付けられたイベントハンドラ190に関する情報も含む。
The
一部の実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベント定義を含む。一部の実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112上に3つのユーザインタフェースオブジェクトが表示されているアプリケーションビュー内で、タッチ感知ディスプレイ112上でタッチが検出されたとき、イベント比較部184は、ヒットテストを実行して、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定する。表示された各オブジェクトが、それぞれのイベントハンドラ190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベントハンドラ190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトに関連付けられたイベントハンドラを選択する。
In some embodiments, event definitions 187 include event definitions for respective user interface objects. In some embodiments,
一部の実施形態では、それぞれのイベント187の定義は、サブイベントのシーケンスがイベント認識部のイベントタイプに対応するかどうかが判定されるまで、イベント情報の配信を遅らせる遅延アクションも含む。 In some embodiments, each event 187 definition also includes a delay action that delays delivery of event information until it is determined if the sequence of sub-events corresponds to the event recognizer's event type.
それぞれのイベント認識部180が一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判定した場合、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。
If the
一部の実施形態では、それぞれのイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。一部の実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話することができるようになっているかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。一部の実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。
In some embodiments, each
一部の実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントに関連付けられたイベントハンドラ190をアクティブ化する。一部の実施形態では、それぞれのイベント認識部180は、イベントに関連付けられたイベント情報をイベントハンドラ190に配信する。イベントハンドラ190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。一部の実施形態では、イベント認識部180は、認識したイベントに関連付けられたフラグを投入し、そのフラグに関連付けられたイベントハンドラ190は、そのフラグを捕らえ、所定のプロセスを実行する。
In some embodiments, each
一部の実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベントハンドラに、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベントハンドラは、イベント情報を受信し、所定の処理を実行する。
In some embodiments,
一部の実施形態では、データアップデータ176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データアップデータ176は、連絡先モジュール137で使用される電話番号を更新し、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。一部の実施形態では、オブジェクトアップデータ177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデータ177は、新たなユーザインタフェースオブジェクトを作成し、又はユーザインタフェースオブジェクトの位置を更新する。GUIアップデータ178は、GUIを更新する。例えば、GUIアップデータ178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。
In some embodiments,
一部の実施形態では、イベントハンドラ(単数又は複数)190は、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178を含む、又はそれらへのアクセスを有する。一部の実施形態では、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。
In some embodiments, event handler(s) 190 includes or has access to
タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、そのすべてがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された眼球運動、バイオメトリック入力、並びに/又はそれらの任意の組み合わせを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。
The foregoing description of event handling of a user's touch on a touch-sensitive display also applies to other forms of user input for operating
図2は、一部の実施形態による、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに以下で説明される他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。一部の実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。一部の実施形態では、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上向きに及び/若しくは下向きに)、並びに/又は、デバイス100と接触した指のローリング(右から左へ、左から右へ、上向きに及び/若しくは下向きに)を、任意選択で含む。一部の実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。
FIG. 2 illustrates portable
デバイス100はまた、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンを含む。前述したように、メニューボタン204は、任意選択的に、任意選択的にデバイス100上で実行される1組のアプリケーション内の任意のアプリケーション136へナビゲートするために使用される。代替的に、一部の実施形態では、メニューボタンは、タッチスクリーン112上に表示されるGUI内のソフトキーとして実装される。
一部の実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフにしてデバイスをロックするプッシュボタン206、音量調整ボタン208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択で、ボタンを押し下げて、所定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、所定の期間が経過する前にボタンを解放することによってデバイスをロックするため、及び/又はデバイスをアンロックする、若しくはアンロックプロセスを開始するために、使用され得る。代替的実施形態では、デバイス100はまた、マイクロフォン113を介して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力も受け入れる。デバイス100はまた、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167を含む。
In some embodiments, the
図3は、一部の実施形態による、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。一部の実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレイヤデバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は典型的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インタフェース330を含む。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350と、タッチパッド355と、デバイス300上に触知出力を生成する触知出力生成器357(例えば、図1Aを参照して前述した触知出力生成器167に類似している)と、センサ359(例えば、図1Aを参照して前述した接触強度センサ165に類似している光学センサ、加速度センサ、近接センサ、タッチ感知センサ、及び/又は接触強度センサ)とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光学ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、任意選択で、CPU(単数又は複数)310からリモートに位置する1つ以上の記憶デバイスを含む。一部の実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102内に記憶されているプログラム、モジュール、及びデータ構造に類似したプログラム、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は、任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。
FIG. 3 is a block diagram of an exemplary multifunction device having a display and touch-sensitive surface, according to some embodiments; Device 300 need not be portable. In some embodiments, device 300 is a laptop computer, desktop computer, tablet computer, multimedia player device, navigation device, educational device (such as a children's learning toy), gaming system, or control device (e.g., home controller for commercial use or business use). Device 300 typically includes one or more processing units (CPUs) 310, one or more network or
図3の上記で特定した要素はそれぞれ、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で特定したモジュールはそれぞれ、前述した機能を実行する命令セットに対応する。上記で特定したモジュール又はプログラム(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットは、任意選択的に、組み合わされ、又は他の形で再構成される。一部の実施形態では、メモリ370は、任意選択で、上記で特定されたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the above-identified elements of FIG. 3 are optionally stored in one or more of the memory devices previously described. Each of the modules identified above corresponds to a set of instructions that perform the functions previously described. The modules or programs (e.g., instruction set) identified above need not be implemented as separate software programs, procedures, or modules, and thus in various embodiments various subsets of these modules are optional. combined or otherwise rearranged. In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. In addition, memory 370 optionally stores additional modules and data structures not described above.
次に、任意選択的に例えばポータブル多機能デバイス100上で実装されるユーザインタフェースの実施形態に注意を向ける。
Attention is now directed to user interface embodiments that are optionally implemented, for example, on
図4Aは、一部の実施形態による、ポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。一部の実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi-Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされる、iPod(Apple Inc.の商標)モジュール152とも呼ばれるビデオ及び音楽プレーヤモジュール152用のアイコン422、及び
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株式ウィジェット149-2のアイコン434、
○「地図」とラベル付けされた、地図モジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136についての設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション又はモジュール用のアイコン446。
FIG. 4A shows an exemplary user interface of a menu of applications on
- signal strength indicator(s) 402 for wireless communication(s) such as cellular and Wi-Fi signals;
● Time 404,
-
-
- A
o an icon 416 for the
o an icon 418 for the
o icon 420 for
o Icon 442 for
図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152のためのアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる、他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。一部の実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。一部の実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
Note that the icon labels shown in FIG. 4A are merely exemplary. For example, the
図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を生成する1つ以上の触知出力生成器357を含む。
FIG. 4B is an exemplary illustration on a device (eg, device 300 of FIG. 3) having a touch-sensitive surface 451 (eg, tablet or
以下の例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、一部の実施形態では、デバイスは、図4Bに示すディスプレイとは別個のタッチ感知面上の入力を検出する。一部の実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の1次軸(例えば、図4Bの453)に対応する1次軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの場所に対応する場所(例えば、図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの動き)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。
Although some of the examples below are given with reference to input on the touch screen display 112 (which is a combined touch sensitive surface and display), in some embodiments the device is as shown in FIG. 4B. Detects input on a touch-sensitive surface separate from the display shown. In some embodiments, the touch-sensitive surface (eg, 451 in FIG. 4B) has a primary axis (eg, 453 in FIG. 4B) that corresponds to a primary axis (eg, 453 in FIG. 4B) on the display (eg, 450). 452). According to these embodiments, the device interacts with touch-
加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられるが、一部の実施形態では、指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)と取り替えられることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりの)マウスクリックに続けた、(例えば、接触の移動の代わりの)スワイプの経路に沿ったカーソルの移動によって、任意選択的に取り替えられる。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの場所の上に位置する間はマウスクリックと取り替えられる(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。 Additionally, although the examples below are given primarily with reference to finger input (e.g., finger contact, finger tap gesture, finger swipe gesture), in some embodiments one or more of the finger inputs are , may be replaced by input from another input device (eg, mouse-based input or stylus input). For example, a swipe gesture is optionally replaced by a mouse click (eg, instead of contact) followed by cursor movement along the path of the swipe (eg, instead of contact movement). As another example, a tap gesture is optionally replaced with a mouse click while the cursor is positioned over the location of the tap gesture (e.g., detect contact and subsequently stop detecting contact). instead of). Similarly, when multiple user inputs are detected simultaneously, it will be appreciated that multiple computer mice are optionally used simultaneously, or mouse and finger contact are optionally used simultaneously. sea bream.
図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。一部の実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~図4B)に関して説明する特徴のうちのいくつか又は全てを含むことができる。一部の実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下ではタッチスクリーン504、を有する。代替的に、又はタッチスクリーン504に加えて、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、一部の実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。
FIG. 5A shows an exemplary personal
タッチ強度を検出及び処理する例示的な技法は、例えば、それぞれ全体として参照により本明細書に組み込まれている、国際特許第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際特許第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」という関連出願に見られる。 Exemplary techniques for detecting and processing touch intensity are disclosed, for example, in International Patent Application No. PCT/US2013/040061, "Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application", and International Patent No. WO/2014/103712, published as See related application entitled "Device, Method, and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships," International Patent Application No. PCT/US2013/069483, filed Jan. 11.
一部の実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的機構とすることができる。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。一部の実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、アイウェア、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計のバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。
In some embodiments,
図5Bは、例示的なパーソナル電子デバイス500を示す。一部の実施形態では、デバイス500は、図1A、図1B、及び図3に関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。加えて、I/Oセクション514は、Wi-Fi、Bluetooth、近距離通信(NFC)、セルラー、及び/又は他の無線通信技法を使用してアプリケーション及びオペレーティングシステムデータを受信する通信ユニット530に接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば回転可能入力デバイス又は押下可能及び回転可能入力デバイスである。いくつかの例では、入力機構508は、任意選択的にボタンである。
FIG. 5B shows an exemplary personal
いくつかの例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はこれらの組み合わせなどの様々なセンサを含み、これらのセンサは全て、I/Oセクション514に動作可能に接続することができる。
In some examples,
パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶するための、1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、それら命令は、1つ以上のコンピュータプロセッサ516によって実行される時、例えば、コンピュータプロセッサに、プロセス700及びプロセス1100(図7及び図11)を含めた、後述する技法を行わせることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって使用するための、又は命令実行システム、装置、又はデバイスに接続されているコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体とすることができる。いくつかの例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それだけに限定されるものではないが、磁気記憶装置、光学記憶装置、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu-ray(登録商標)技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの常駐ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。
本明細書で使用されるとき、用語「アフォーダンス」は、任意選択的にデバイス100、300、及び/又は500(図1A、図3、及び図5A~図5B)のディスプレイスクリーン上に表示されるユーザ対話グラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及びテキスト(例えば、ハイパーリンク)はそれぞれ、任意選択的に、アフォーダンスを構成する。
As used herein, the term “affordance” is optionally displayed on the display screen of
本明細書で使用されるとき、使用される「フォーカスセレクタ」という用語は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の場所マーカを含む一部の実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の上に位置する間に、タッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で入力(例えば、押圧入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接的な対話を可能にするタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含む一部の実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の場所で入力(例えば、接触による押圧入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。一部の実装形態では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動(例えば、フォーカスを1つのボタンから別のボタンへ動かすためにタブキー又は矢印キーを使用することによる)なく、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域へ動かされ、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタがとる特有の形態にかかわらず、フォーカスセレクタは、一般に、ユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)であり、ユーザの意図するユーザインタフェースとの対話を(例えば、ユーザが対話することを意図しているユーザインタフェースの要素をデバイスに示すことによって)通信するように、ユーザによって制御される。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、対応のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の場所は、その対応のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。
As used herein, the term "focus selector" as used refers to an input element that indicates the current portion of the user interface with which the user is interacting. In some implementations that include a cursor or other location marker, the cursor acts as a "focus selector," so that the cursor is positioned over a particular user interface element (e.g., button, window, slider, or other user interface element). When an input (e.g., press input) is detected on a touch-sensitive surface (e.g.,
本明細書及び特許請求の範囲で使用される、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。一部の実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、すなわち、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後)に関連する所定の時間期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。一部の実施形態では、特性強度を判定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続時間が使用される。一部の実施形態では、特性強度は、ユーザによって動作が実行されたかどうかを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1つ以上の強度閾値のセットは、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この例では、第1の閾値を超過しない特性強度を有する接触は、第1の動作をもたらし、第1の強度閾値を超過するが第2の強度閾値を超過しない特性強度を有する接触は、第2の動作をもたらし、第2の閾値を超過する特性強度を有する接触は、第3の動作をもたらす。一部の実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、それぞれの動作を実行するべきか、それともそれぞれの動作を実行するのを取り止めるべきか)を判定するために使用される。 As used herein and in the claims, the term "characteristic strength" of contact refers to the properties of that contact based on one or more strengths of the contact. In some embodiments, the characteristic intensity is based on multiple intensity samples. The characteristic intensity is optionally a predefined number of intensity samples, i.e., a predefined event (e.g., after detecting a contact, before detecting lift-off of the contact, before or after detecting the start of movement of the contact, a predetermined time period (e.g., 0.05, 0.1, 0.2, 0.5, 1, 2, 5, 10 seconds). The characteristic strength of contact is optionally maximum strength of contact, mean strength of contact, average strength of contact, top 10 percentile strength of contact, strength of contact , a maximum 90 percent value of the intensity of contact, and so on. In some embodiments, the duration of contact is used in determining the characteristic strength (eg, when the characteristic strength is the average strength of the contact over time). In some embodiments, the characteristic strength is compared to a set of one or more strength thresholds to determine whether an action has been performed by the user. For example, the set of one or more intensity thresholds optionally includes a first intensity threshold and a second intensity threshold. In this example, a contact with a characteristic strength that does not exceed a first threshold results in a first action, and a contact with a characteristic strength that exceeds the first strength threshold but does not exceed a second strength threshold results in a second A contact that results in a motion of 2 and has a characteristic intensity exceeding a second threshold results in a third motion. In some embodiments, a comparison between the characteristic strength and one or more thresholds is used to determine whether to perform the first action or the second action. Instead, it is used to determine whether to perform one or more actions (e.g., whether to perform each action or not to perform each action).
図5Cは、複数の強度センサ524A~524Dによってタッチ感知ディスプレイスクリーン504上で複数の接触552A~552Eを検出することを示す。図5Cは、追加として、強度単位に対する強度センサ524A~524Dの現在の強度測定値を示す強度ダイアグラムを含む。この例では、強度センサ524A及び524Dの強度測定値はそれぞれ9強度単位であり、強度センサ524B及び524Cの強度測定値はそれぞれ7強度単位である。一部の実装形態では、集約強度は、複数の強度センサ524A~524Dの強度測定値の和であり、この例では32強度単位である。一部の実施形態では、各接触に、集約強度の一部分であるそれぞれの強度が割り当てられる。図5Dは、力の中心554からの距離に基づいて、集約強度を接触552A~552Eに割り当てることを示す。この例では、接触552A、552B、及び552Eのそれぞれに、集約強度の8強度単位の接触の強度が割り当てられ、接触552C及び552Dのそれぞれに、集約強度の4強度単位の接触の強度が割り当てられる。より一般的には、一部の実装形態では、各接触jは、所定の数学関数Ij=A・(Dj/ΣDi)に従って、集約強度Aの一部分である、それぞれの強度Ijが割り当てられ、ここで、Djは、力の中心からそれぞれの接触jまでの距離であり、ΣDiは、力の中心から全てのそれぞれ接触(例えば、i=1から最後まで)までの距離の和である。図5C~図5Dを参照して説明した動作は、デバイス100、300又は500と類似若しくは同一の電子デバイスを使用して実行することができる。一部の実施形態では、接触の特性強度は、接触の1つ以上の強度に基づいている。一部の実施形態では、強度センサは、単一の特性強度(例えば、単一の接触の単一の特性強度)を判定するために使用される。強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5C~図5Dに含まれていることに留意されたい。
FIG. 5C illustrates detecting
一部の実施形態では、特性強度を判定する目的のために、ジェスチャの一部分が特定される。例えば、タッチ感知面は、任意選択的に、開始場所から遷移して終了場所に到達する連続するスワイプ接触を受信し、その時点で接触の強度が増大する。この例では、終了場所での接触の特性強度は、任意選択的に、スワイプ接触全体ではなく、連続するスワイプ接触の一部分のみ(例えば、スワイプ接触のうち終了場所の部分のみ)に基づいている。一部の実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムがスワイプ接触の強度に適用される。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を判定する目的のために、スワイプ接触の強度の小幅な上昇又は降下を排除する。 In some embodiments, a portion of the gesture is identified for purposes of determining characteristic strength. For example, the touch-sensitive surface optionally receives successive swipe contacts transitioning from a starting location to reaching an ending location, at which point the contact increases in strength. In this example, the characteristic strength of the contact at the end location is optionally based on only a portion of the continuous swipe contact (eg, only the portion of the swipe contact at the end location) rather than the entire swipe contact. In some embodiments, a smoothing algorithm is optionally applied to the strength of the swipe contact prior to determining the characteristic strength of the contact. For example, the smoothing algorithm optionally includes one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and/or an exponential smoothing algorithm. In some situations, these smoothing algorithms eliminate small increases or decreases in strength of swipe contacts for purposes of determining characteristic strength.
タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押圧強度閾値、深い押圧の強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けられる。一部の実施形態では、軽い押圧の強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作をデバイスが実行する強度に相当する。一部の実施形態では、深い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作とは異なる動作をデバイスが実行する強度に相当する。一部の実施形態では、軽い押圧強度閾値を下回る(例えば、それを下回ると接触が検出されなくなる公称接触検出強度閾値を上回る)特性強度を有する接触が検出されたとき、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従ってフォーカスセレクタを動かす。一般に、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の様々なセットの間で一貫している。 The intensity of contact on the touch-sensitive surface is optionally determined by one or more intensity thresholds, such as a touch detection intensity threshold, a light press intensity threshold, a deep press intensity threshold, and/or one or more other intensity thresholds. characterized for In some embodiments, the light press intensity threshold corresponds to the intensity at which the device performs actions typically associated with clicking a physical mouse button or trackpad. In some embodiments, the deep press intensity threshold corresponds to an intensity at which the device performs a different action than is typically associated with clicking a physical mouse button or trackpad. In some embodiments, when a touch is detected with a characteristic strength below a light pressure intensity threshold (e.g., above a nominal touch detection intensity threshold below which no contact is detected), the device detects the light pressure intensity Moving the focus selector according to the movement of the contact on the touch-sensitive surface without performing the actions associated with the threshold or the deep pressure intensity threshold. In general, unless otherwise stated, these intensity thresholds are consistent between different sets of user interface diagrams.
軽い押圧強度閾値を下回る強度から、軽い押圧強度閾値と深い押圧強度閾値との間の強度への、接触の特性強度の増大は、「軽い押圧」入力と呼ばれることがある。深い押圧強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への、接触の特性強度の増大は、「深い押圧」入力と呼ばれることがある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への、接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれることがある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への、接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれることがある。一部の実施形態では、接触検出強度閾値はゼロである。一部の実施形態では、接触検出強度閾値は、ゼロより大きい。 An increase in the characteristic strength of a touch from an intensity below the light pressure threshold to an intensity between the light pressure threshold and the deep pressure threshold is sometimes referred to as a "light pressure" input. Increasing the characteristic strength of a contact from an intensity below the deep pressure threshold to an intensity above the deep pressure threshold is sometimes referred to as a "deep pressure" input. An increase in the characteristic strength of a touch from an intensity below the touch detection intensity threshold to an intensity between the touch detection intensity threshold and the light pressure intensity threshold is sometimes referred to as detecting contact on the touch surface. A decrease in the characteristic strength of the contact from an intensity above the contact detection intensity threshold to an intensity below the contact detection intensity threshold is sometimes referred to as detecting lift-off of the contact from the touch surface. In some embodiments, the contact detection strength threshold is zero. In some embodiments, the contact detection strength threshold is greater than zero.
本明細書に記載する一部の実施形態では、それぞれの押圧入力を含むジェスチャを検出したことに応答して、又はそれぞれの接触(若しくは複数の接触)によって実行されたそれぞれの押圧入力を検出したことに応答して、1つ以上の動作が実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は複数の接触)の強度の増大を検出したことに少なくとも部分的に基づいて検出される。一部の実施形態では、それぞれの動作は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大(例えば、それぞれの押圧入力の「ダウンストローク」)を検出したことに応答して実行される。一部の実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続く押圧入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応答して実行される。 Some embodiments described herein detect respective pressure inputs performed in response to detecting gestures including respective pressure inputs or by respective contact (or multiple contacts). One or more actions are performed in response to detecting a respective pressure input based at least in part on detecting an increase in the intensity of the contact (or contacts) above the pressure input intensity threshold. be done. In some embodiments, the respective action is performed in response to detecting an increase in the strength of the respective contact above a pressure input strength threshold (eg, a "downstroke" of the respective pressure input). In some embodiments, the pressure input includes an increase in strength of each contact above the pressure input strength threshold followed by a decrease in strength of the contact below the pressure input strength threshold, each action comprising a subsequent pressure Executed in response to detecting a decrease in the intensity of the respective touch below the input threshold (eg, an "upstroke" of the respective pressure input).
図5E~図5Hは、図5Eの軽い押圧強度閾値(例えば、「ITL」)を下回る強度から、図5Hの深い押圧強度閾値(例えば、「ITD」)を上回る強度への、接触562の強度の増大に対応する押圧入力を含むジェスチャの検出を示す。接触562によって実行されるジェスチャは、タッチ感知面560上で検出され、所定の領域574内に表示されたアプリケーションアイコン572A~572Dを含む表示ユーザインタフェース570上では、アプリ2に対応するアプリケーションアイコン572Bの上にカーソル576が表示される。一部の実施形態では、ジェスチャは、タッチ感知ディスプレイ504上に検出される。強度センサは、タッチ感知面560上の接触の強度を検出する。デバイスは、接触562の強度が深い押圧強度閾値(例えば、「ITD」)を上回ってピークに達したと判定する。接触562は、タッチ感知面560上で維持される。ジェスチャの検出に応答して、ジェスチャ中に深い押圧強度閾値(例えば、「ITD」)を上回る強度を有する接触562に従って、図5F~図5Hに示すように、アプリ2に対して最近開いた文書の縮尺が低減された表現578A~578C(例えば、サムネイル)が表示される。一部の実施形態では、1つ以上の強度閾値と比較されるこの強度は、接触の特性強度である。接触562に対する強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5E~図5Hに含まれていることに留意されたい。
FIGS. 5E-5H illustrate contact 562 from intensity below the light pressure intensity threshold (eg, “IT L ”) in FIG. 5E to intensity above the deep pressure intensity threshold (eg, “IT D ”) in FIG. 5H. Fig. 3 shows the detection of gestures involving press input corresponding to increasing strength of . The gesture performed by
一部の実施形態では、表現578A~578Cの表示は、アニメーションを含む。例えば、図5Fに示すように、表現578Aが、アプリケーションアイコン572Bに近接して最初に表示される。アニメーションが進むにつれて、図5Gに示すように、表現578Aは上方へ動き、表現578Bが、アプリケーションアイコン572Bに近接して表示される。次いで、図5Hに示すように、表現578Aが上方へ動き、表現578Bが表現578Aに向かって上方へ動き、表現578Cが、アプリケーションアイコン572Bに近接して表示される。表現578A~578Cは、アイコン572Bの上にアレイを形成する。一部の実施形態では、アニメーションは、図5F~図5Gに示すように、接触562の強度に従って進行し、接触562の強度が深い押圧強度閾値(例えば、「ITD」)に向かって増大するにつれて、表現578A~578Cが現れ、上方へ動く。一部の実施形態では、アニメーションの進行が基づいている強度は、接触の特性強度である。図5E~図5Hを参照して説明する動作は、デバイス100、300、又は500に類似又は同一の電子デバイスを使用して実行することができる。
In some embodiments, the display of
一部の実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との既定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な割合である)。したがって、一部の実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続くヒステリシス強度閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応答して実行される。同様に、一部の実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、その後のヒステリシス強度以下の強度への接触の強度の減少を検出するときにのみ検出され、それぞれの動作は、押圧入力(例えば、状況に応答して、接触の強度の増大又は接触の強度の減少)を検出したことに応答して実行される。 In some embodiments, the device employs intensity hysteresis to avoid inadvertent inputs, sometimes referred to as "jitter," and the device has a hysteresis intensity threshold that has a predetermined relationship to the pressing input intensity threshold. (e.g., the hysteresis intensity threshold is X intensity units less than the pressure input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable percentage of the pressure input intensity threshold ). Thus, in some embodiments, the pressure input includes an increase in strength of each contact above a pressure input strength threshold followed by a decrease in strength of the contact below a hysteresis strength threshold corresponding to the pressure input strength threshold, Each action is performed in response to detecting a subsequent decrease in the strength of the respective contact below the hysteresis strength threshold (eg, the "upstroke" of the respective pressure input). Similarly, in some embodiments, a pressure input causes the device to increase the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, and optionally thereafter a pressure below the hysteresis intensity. Each action is detected only when it detects a decrease in the strength of contact to the strength of the touch, and that each motion detected a pressing input (e.g., increasing the strength of the contact or decreasing the strength of the contact in response to the situation). is executed in response to
説明を容易にするために、押圧入力強度閾値に関連付けられた押圧入力、又は押圧入力を含むジェスチャに応答して実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応答してトリガされる。更に、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応答して実行されるように動作が記載される例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応答して実行される。 For ease of explanation, descriptions of actions performed in response to a pressure input associated with a pressure input intensity threshold, or a gesture including a pressure input, are optionally limited to those of a contact above the pressure input intensity threshold. an increase in intensity, an increase in intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, a decrease in intensity of the contact below the pressure input intensity threshold, and/or a hysteresis intensity corresponding to the pressure input intensity threshold. Triggered in response to detecting any decrease in the intensity of the touch below the threshold. Further, in examples in which actions are described as being performed in response to detecting a decrease in the intensity of contact below a pressure input intensity threshold, the actions optionally correspond to the pressure input intensity threshold, and in response to detecting a decrease in the intensity of the touch below a lower hysteresis intensity threshold.
次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実装されるユーザインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。
Attention is now directed to embodiments of user interfaces (“UIs”) and related processes implemented on an electronic device such as
図6A~図6Hは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図7のプロセスを含む後述のプロセスを例示するために使用される。 6A-6H illustrate exemplary user interfaces for performing gestural media capture, according to some embodiments. The user interfaces of these figures are used to illustrate the processes described below, including the process of FIG.
例示的なメディアロックアフォーダンス Exemplary Media Lock Affordances
本開示は、グラフィカルユーザインタフェース(GUI)上のメディアキャプチャアフォーダンスをロックして、連続的なメディアキャプチャのためのロックされたメディアキャプチャ状態にするメディアキャプチャデバイスのメディア記録機能に関する。一実施形態では、メディアクリップ(例えば、ビデオクリップ、オーディオクリップ)のメディアキャプチャセッションを開始するために、ユーザは、メディアキャプチャアフォーダンス(例えば、仮想記録ボタン)をタップして保持(タップアンドホール)する。ユーザがメディアキャプチャアフォーダンス上でタッチを保持する限り、メディアは、メディアキャプチャデバイスによってキャプチャされ続ける。ユーザがメディアキャプチャセッション中にタッチを取り去ると、メディアキャプチャセッションは終了する。ユーザが、指でスライディングジェスチャを行っている間、メディアキャプチャアフォーダンス上でタッチを維持する場合、メディアキャプチャアフォーダンスは、ロックされたメディアキャプチャアフォーダンスに視覚的に変化し、メディアキャプチャセッションが維持され、結果的にメディアが連続記録されることになる。一実施形態では、ロックされたメディアキャプチャアフォーダンスは、ユーザの指によって覆い隠されないように、ユーザの指の下方に移動する。ユーザは、ロックされたメディアキャプチャアフォーダンスから指を取り去ることができ、メディアキャプチャセッションは、ユーザがロック状態キャプチャボタンをタップするまで維持され、その後、メディアキャプチャセッションが終了する。 The present disclosure relates to media recording functionality of a media capture device that locks media capture affordances on a graphical user interface (GUI) into a locked media capture state for continuous media capture. In one embodiment, a user taps and holds a media capture affordance (e.g., a virtual record button) to initiate a media capture session for a media clip (e.g., video clip, audio clip). . As long as the user holds touch on the media capture affordance, media continues to be captured by the media capture device. When the user removes the touch during a media capture session, the media capture session ends. If the user maintains touch on the media capture affordance while performing the sliding finger gesture, the media capture affordance visually changes to a locked media capture affordance, the media capture session is maintained, and the result Therefore, the media is recorded continuously. In one embodiment, the locked media capture affordance moves under the user's finger so that it is not obscured by the user's finger. The user can remove their finger from the locked media capture affordance and the media capture session is maintained until the user taps the locked capture button, after which the media capture session ends.
図6A~図6Hは、一実施形態による、メディアキャプチャロックアフォーダンスの動作を示す。図6Aを参照すると、メディアキャプチャデバイス600は、ディスプレイスクリーン上にGUI601を提示している。GUI601はメディアキャプチャアフォーダンス602を含む。メディアキャプチャデバイス600は、この例示的な実施形態ではスマートフォンとして示されている。しかし、メディアキャプチャデバイス600は、タブレットコンピュータ、ウェアラブルコンピュータ、デジタルカメラ、ビデオレコーダ、及びオーディオ記録デバイスを含む、メディアをキャプチャすることができる任意の電子デバイスであってもよい。一部の実施形態では、メディアキャプチャデバイス600は、デバイス100、デバイス300、又はデバイス500の1つ以上の特徴を含む。メディアキャプチャアフォーダンス602は、任意の所望の形状、サイズ、又は色を有することができる。図示の例では、メディアキャプチャアフォーダンス602は楕円形のボタンである。GUI601はまた、ライブメディアを表示し、キャプチャされたメディアを再生するための表示領域も含む。メディアは、ビデオ、静止画像及びオーディオ、又はこれらの任意の組み合わせを含む、キャプチャされ得る任意のタイプのメディアとすることができる。
Figures 6A-6H illustrate the operation of media capture lock affordances, according to one embodiment. Referring to FIG. 6A,
図6Bを参照すると、ユーザは、指で(例えば、メディアキャプチャデバイス600を保持しながら親指で)メディアキャプチャアフォーダンス602をタップアンドホールド603(破線円として示される)して、「アンロック」状態でのメディアキャプチャセッションを開始する。メディアキャプチャセッション中、組み込まれたビデオカメラ及び/又は1つ以上のマイクロフォンはメディアをキャプチャする(例えば、ビデオ及びオーディオをキャプチャする)。メディアキャプチャセッションが「アンロック」され、これは、ユーザが、メディアキャプチャアフォーダンス602から指をリフトした(持ち上げた)(ディスプレイスクリーンから指をリフトオフした)場合、メディアキャプチャセッションが終了し、メディアがメディアキャプチャデバイス600に記憶される(例えば、キャッシュメモリに記憶される)ことを意味する。視覚的方向インジケータ604a(例えば、矢印の先端)がGUI601上に表示され、メディアキャプチャセッションを「ロック」状態に遷移させるためにユーザが指をスライドさせ得る方向を示す。「ロック」状態にある間、メディアは中断せずに連続的にキャプチャされる。例えば、ビデオ及びオーディオは記録を継続し、静止画像は「バースト」モードで撮影されるであろう。ユーザに「連続記録のためにスライドアップしてください」と指示するテキストもGUI601上に表示される。
Referring to FIG. 6B, the user taps and holds 603 (shown as a dashed circle) the
一部の実施形態では、キャプチャされたメディア(以下、「メディアクリップ」とも呼ばれる)をユーザが再生する、順序を変える、フィルタリングする、当該メディアクリップに対して絵文字、アニメーションアイコン、及びタイトルを追加することを可能にするための追加のアフォーダンス(図示せず)がGUI601上に含まれる。他のアフォーダンスにより、ユーザは、メディアクリップをソーシャルネットワーキングウェブサイトで間接的に共有すること、並びに様々な通信手段(例えば、インスタントメッセージング、電子メール、ツイート)を通じて友人及び家族に直接共有することが可能になる。図示の実施形態では、ユーザがカメラ、ライブラリ、及びポスターなどの動作モードを選択することを可能にするナビゲーションバーは、メディア表示領域の下に位置している。
In some embodiments, the user plays, reorders, filters, and adds emojis, animated icons, and titles to the captured media (hereinafter also referred to as "media clips"). Additional affordances (not shown) are included on the
図6Cを参照すると、メディアキャプチャアフォーダンス602がメディアキャプチャエリアに向かってスライドアップすることになる、ユーザのスライドジェスチャ入力を示す。スライドジェスチャ入力中、ユーザの指はディスプレイスクリーンとの接触は中断しないことに留意されたい。
Referring to FIG. 6C, it shows a user slide gesture input that causes the
図6D~図6Gを参照すると、ユーザがメディアキャプチャアフォーダンス602を所定距離スライドアップすると、メディアキャプチャアフォーダンス602は、メディアキャプチャロックアフォーダンス605に変化又はモーフィングし、図6Fに示すように、「ロック」状態を視覚的に示す。メディア表示領域の下のテキストも変化し、ユーザに、例えば、「記録を停止するためのタップしてください」のような、「ロック」状態をどのように停止させるかをユーザに指示する。メディアキャプチャロックアフォーダンス605は、任意のサイズ、形状、又は色であってもよい。図示の例では、メディアキャプチャロックアフォーダンス605は、正方形のボタンである。メディアキャプチャアフォーダンス602からメディアキャプチャロックアフォーダンス605への変化又はモーフィング後、ユーザが指をリフトしてディスプレイスクリーンとの接触を中断する場合、メディアキャプチャセッションは「ロック」状態に移行する。「ロック」状態では、メディアキャプチャセッションは、ユーザがメディアキャプチャロックアフォーダンス605(図6G)をタップ606するまでメディアキャプチャを継続し、その場合メディアキャプチャセッションは終了する。代替的実施形態では、視覚的方向インジケータ604aは、ボタントラック604b(図6H)と取り替えられており、ユーザが「ロック」状態に移行するためにメディアキャプチャアフォーダンス602をスライドすべき距離をユーザに示すことができる。
6D-6G, when the user slides up the Media Capture Affordance 602 a predetermined distance, the
他の実施形態では、単一タップの代わりに複数のタップを使用してもよい。スライドジェスチャ入力の方向は、上、下、右、及び左を含む、GUI601上の任意の方向であってもよい。メディアキャプチャセッションがロックされたとき、及びアンロックされたときを示すために、「クリック」効果音などの、効果音を、タップアンドスライドジェスチャと同期して再生することができる。一実施形態では、メディアキャプチャセッションがロックされたとき、及びアンロックされたときを示すために、触覚エンジンによって力フィードバック(例えば、振動)を提供することができる。アフォーダンス602、606は、GUI601上の任意の所望の場所に配置することができ、縦向き及び横向きなどのメディアキャプチャデバイス600の向きに応じて、位置、サイズ、及び/又は形状を変更することができる。一実施形態では、ユーザは、メディアキャプチャデバイス600内に実装された発話検出/認識エンジンによって処理される、音声コマンドを用いて、ロックされたメディアキャプチャ状態に移行すること、又はそれから移行することができる。
In other embodiments, multiple taps may be used instead of a single tap. The direction of slide gesture input may be any direction on the
例示的なプロセス Exemplary process
図7は、一実施形態による、図6A~図6Hに示したメディアキャプチャロックアフォーダンスのアニメーションプロセスのフロー図である。プロセス700は、図8を参照して説明するデバイスのアーキテクチャ800を用いて実装することができる。プロセス700は、デバイス(例えば、100、300、500、800)において実行される。方法700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
FIG. 7 is a flow diagram of an animation process for the media capture lock affordance shown in FIGS. 6A-6H, according to one embodiment.
プロセス700は、メディアキャプチャデバイスのディスプレイデバイス上に提示されたGUIの第1の場所のメディアキャプチャアフォーダンスを対象とするタップアンドホールドジェスチャ入力を受け取ることで開始する(701)。メディアキャプチャアフォーダンスは、任意のサイズ、形状、又は色であってもよい。第1の場所は、GUI上の任意の所望の場所であってもよい。タップアンドホールドジェスチャ入力に応答して、プロセス700は、メディアキャプチャデバイス上でメディアキャプチャセッションを開始し、その場合、メディアキャプチャセッションは、「アンロック」状態で開始される(702)。第1の場所での第1のリフトジェスチャに応答して、プロセス700は、メディアキャプチャセッションを終了させる(703)。
GUI上の第1の場所から第2の場所へのスライドジェスチャ入力に応答して、プロセス700は、メディアキャプチャアフォーダンスをメディアキャプチャロックアフォーダンスに変更する(704)。メディアキャプチャロックアフォーダンスは、任意のサイズ、形状、又は色であってもよい。第2の場所は、第1の場所以外のGUI上の所望の場所とすることができる。スライドジェスチャは、上、下、左、及び右を含む任意の所望の方向であってもよい。
In response to a slide gesture input from a first location to a second location on the GUI,
第2の場所で第2のリフトジェスチャを検出したことに応答して、プロセス700は、メディアキャプチャセッションをアンロック状態からロック状態に遷移させる(705)。ロック状態では、メディアキャプチャデバイスは、ユーザがメディアキャプチャロックアフォーダンスをタップしてメディアキャプチャセッションを終了させるまで、メディアを連続的にキャプチャする。一実施形態では、ユーザは、第2のリフトジェスチャの後にメディアキャプチャセッションを終了させるためにGUI上の任意の場所をタップすることができ、又はメディアキャプチャデバイス上の機械的ボタン(例えば、スマートフォン上のホームボタン)を押すことができる。
In response to detecting the second lift gesture at the second location, the
方法700に関して上記した処理の詳細(例えば、図7)は、以下に説明される方法にも同様の方法で適用可能であることに留意されたい。例えば、方法700は、方法1100を参照して後述する様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
Note that the processing details described above with respect to method 700 (eg, FIG. 7) are applicable in a similar manner to the methods described below. For example,
例示的なモバイルデバイスのアーキテクチャ An exemplary mobile device architecture
図8は、図6及び図7を参照して説明したメディアキャプチャロックアフォーダンスを実装するモバイルデバイスの例示的なメディアキャプチャデバイスのアーキテクチャ800を示す。アーキテクチャ800は、メモリインタフェース802、1つ以上のデータプロセッサ、画像プロセッサ、及び/又はプロセッサ804、並びに周辺機器インタフェース806を含み得る。メモリインタフェース802、1つ以上のプロセッサ804、及び/又は周辺機器インタフェース806は、別個の構成要素としてもよく、あるいは1つ以上の集積回路内に集積されてもよい。アーキテクチャ800内の様々な構成要素は、1つ以上の通信バス又は信号線によって結合することができる。
FIG. 8 illustrates an exemplary media
センサ、デバイス、及びサブシステムを周辺機器インタフェース806に結合することにより、多機能性を促進することができる。例えば、1つ以上の動きセンサ810、光センサ812、及び近接センサ814を周辺機器インタフェース806に結合して、モバイルデバイスの動き感知(例えば、加速度、回転速度)、光及び近接機能を促進することができる。位置プロセッサ815は、周辺機器インタフェース806に接続され、無線位置測定を行うことができる。一部の実装形態では、位置プロセッサ815は、全地球測位システム(Global Positioning System、GPS)受信機チップなどのGNSS受信機であり得る。電子磁気計816(例えば、集積回路チップ)はまた、周辺機器インタフェース806に接続され、磁北の方向を決定するために使用できるデータを提供することができる。電子磁気計816は、データを電子コンパスアプリケーションに提供できる。動きセンサ(単数又は複数)810は、モバイルデバイスの移動の速度及び方向の変化を判定するように構成された1つ以上の加速度計及び/又はジャイロを含み得る。気圧計817は、モバイルデバイス周辺の大気圧を測定するように構成することができる。
Coupling sensors, devices, and subsystems to the peripherals interface 806 can facilitate versatility. For example, coupling one or more of
カメラサブシステム820及び光学センサ822、例えば、電荷結合素子(CCD)又は相捕型金属酸化膜半導体(CMOS)光学センサを利用して、写真のキャプチャ及びビデオクリップの記録などのカメラ機能を容易にすることができる。
A
通信機能は、1つ以上の無線通信サブシステム824を通じて、促進することができ、それらのサブシステムとしては、高周波(RF)受信機及び送信機(又は送受信機)、並びに/あるいは光学(例えば、赤外線)受信機及び送信機を挙げることができる。通信サブシステム824の具体的な設計及び実装は、このモバイルデバイスが動作することを目的とする、通信ネットワーク(単数又は複数)次第であり得る。例えば、アーキテクチャ800は、GSMネットワーク、GPRSネットワーク、EDGEネットワーク、Wi-Fi(商標)又はWi-Max(商標)ネットワーク、及びBluetooth(商標)ネットワーク上で動作するように設計された通信サブシステム824を含み得る。特に、無線通信サブシステム824は、このモバイルデバイスを、他の無線デバイスのための基地局として構成できるようなホスティングプロトコルを含むことができる。
Communication functions can be facilitated through one or more
オーディオサブシステム826をスピーカ828及びマイクロフォン830に結合することにより、音声認識機能、音声複製機能、デジタル録音機能、及び電話機能などの音声使用可能な機能を容易にすることができる。オーディオサブシステム826は、ユーザから音声コマンドを受信するように構成することができる。
I/Oサブシステム840は、タッチ面コントローラ842及び/又は他の入力コントローラ(単数又は複数)844を含み得る。タッチ面コントローラ842は、タッチ面846又はパッドに結合することができる。タッチ面846及びタッチ面コントローラ842は、例えば、複数のタッチ感度技術のうちのいずれかを使用して、接触及び移動を検出することも、又は接触及び移動の中断を検出することもできる。タッチ感度技術としては、静電容量技術、抵抗性技術、赤外線技術、及び表面弾性波技術に加えて、タッチ面846との1つ以上の接触点を判定するための、他の近接センサアレイ又は他の要素が挙げられるが、これらに限定されない。タッチ面846は、例えば、タッチスクリーンを含むことができる。I/Oサブシステム840は、プロセッサからのコマンドに応答して、触知フィードバック(例えば、振動)を提供するための触覚エンジン又はデバイスを含むことができる。
I/
他の入力コントローラ(単数又は複数)844は、1つ以上のボタン、ロッカースイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御デバイス848に結合することができる。1つ以上のボタン(図示せず)は、スピーカ828及び/又はマイクロフォン830の音量コントロールのための上下ボタンを含むことができる。タッチ面846又は他のコントローラ844(例えば、ボタン)は、指紋(単数又は複数)に基づいてユーザを認証するために、指紋認証アプリケーションと共に使用するための指紋識別回路を含むことができる、又はそれと結合することができる。
Other input controller(s) 844 couple to other input/
一実装形態では、第1の持続時間でボタンを押すことにより、タッチ面846のロックを解除することができ、第1の持続時間よりも長い第2の持続時間でボタンを押すことにより、モバイルデバイスへの電源をオン/オフすることができる。ユーザは、1つ以上のボタンの機能をカスタマイズすることができる。また、タッチ面846を使用して、例えば、仮想ボタン若しくはソフトボタン、及び/又は仮想タッチキーボードを実装することもできる。
In one implementation, pressing the button for a first duration can unlock the
一部の実装形態では、このモバイルデバイスは、MP3ファイル、AACファイル、及びMPEGファイルなどの記録されたオーディオファイル及び/又はビデオファイルを提示することができる。一部の実装形態では、このモバイルデバイスは、MP3プレーヤの機能性を含み得る。また、他の入出力及び制御デバイスも使用できる。 In some implementations, the mobile device can present recorded audio and/or video files such as MP3 files, AAC files, and MPEG files. In some implementations, the mobile device may include MP3 player functionality. Other input/output and control devices can also be used.
メモリインタフェース802は、メモリ850に結合することができる。メモリ850は、高速のランダムアクセスメモリ、並びに/あるいは、1つ以上の磁気ディスク記憶デバイス、1つ以上の光学記憶デバイス、及び/又はフラッシュメモリ(例えば、NAND、NOR)などの不揮発性メモリを含み得る。メモリ850は、iOS、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS、又はVxWorksなどの組み込みオペレーティングシステムなどのオペレーティングシステム852を記憶することができる。オペレーティングシステム852は、基本システムサービスを処理するための命令、及びハードウェア依存タスクを実行するための命令を含み得る。一部の実装形態では、オペレーティングシステム852は、カーネル(例えば、UNIXカーネル)を含み得る。
メモリ850はまた、1つ以上の追加のデバイス、1つ以上のコンピュータ、及び/又は1つ以上のサーバとの通信を促進するための通信命令854、例えば、他のデバイスとの有線通信又は無線通信のためのソフトウェアスタックを実装するための命令なども記憶できる。メモリ850は、図6及び図7を参照して説明したグラフィカルユーザインタフェース処理を容易にするためのグラフィカルユーザインタフェース命令856と、センサ関連の処理及び機能を容易にするためのセンサ処理命令858と、電話関連の処理及び機能を容易にするための電話命令860と、電子メッセージング関連の処理及び機能を容易にするための電子メッセージング命令862と、ウェブブラウジング関連の処理及び機能を容易にするためのウェブブラウジング命令864と、メディア処理関連の処理及び機能を容易にするためのメディア処理命令866と、包括的なGNSS及び位置関連の処理及び命令を容易にするためのGNSS/場所命令868と、図6及び図7を参照して説明したカメラ関連の処理及び機能を容易にするカメラ命令870と、他のアプリケーション872命令と、を含んでもよい。メモリ850はまた、セキュリティ命令、ウェブビデオ関連の処理及び機能を促進するためのウェブビデオ命令、並びに/又は、ウェブショッピング関連の処理及び機能を促進するためのウェブショッピング命令など、他のソフトウェア命令(図示せず)を記憶することができる。一部の実装形態では、メディア処理命令866を、オーディオ処理関連の処理及び機能を容易にするためのオーディオ処理命令と、ビデオ処理関連の処理及び機能を容易にするためのビデオ処理命令とに、それぞれ分割することができる。
一実施形態では、図6及び図7を参照して説明したタップ、スライド、及びリフトジェスチャが、メディアキャプチャデバイス800上のソフトウェアに実装されたタッチイベントモデルを用いて検出される。例示的なタッチイベントモデルは、その全体が参照により本明細書に組み込まれる、2013年10月15日に発行の「Touch Event Model」と題された米国特許第8,560,975号に記載されている。
In one embodiment, the tap, slide, and lift gestures described with reference to FIGS. 6 and 7 are detected using a touch event model implemented in software on
上記で特定された命令及びアプリケーションのそれぞれは、上記1つ以上の機能を実行する命令セットに対応し得る。これらの命令は、別個のソフトウェアプログラム、手順、又はモジュールとして実装する必要がない。メモリ850に追加の命令を含めてもよいし、又は含まれている命令を減らしてもよい。更にまた、モバイルデバイスの様々な機能は、1つ以上の信号処理及び/又は特定用途向け集積回路を含むハードウェア及び/又はソフトウェアに実装できる。
Each of the instructions and applications identified above may correspond to a set of instructions for performing one or more functions described above. These instructions need not be implemented as separate software programs, procedures, or modules. Additional instructions or fewer instructions may be included in
記載された機能は、有利なことに、データストレージシステム、少なくとも1つの入力デバイス、及び少なくとも1つの出力機器からのデータ及び命令を受信し、並びにこれらにデータ及び命令を送信するように結合された少なくとも1つのプログラム可能プロセッサを含む、プログラム可能システム上で実行可能な1つ以上のコンピュータプログラム内に実装できる。コンピュータプログラムは、特定の行動を実行するか、又は特定の結果をもたらすために、コンピュータ内で直接的又は間接的に使用することができる命令セットである。コンピュータプログラムは、コンパイル型言語又はインタプリタ型言語を含む、任意の形態のプログラミング言語(例えば、SWIFT(登録商標)、Objective-C、C#、Java)で書くことができ、スタンドアロンプログラム若しくはモジュール、コンポーネント、サブルーチン、ブラウザベースウェブアプリケーション、又はコンピューティング環境で使用するのに好適な他のユニットを含む、任意の形態で配布され得る。 The described functionality is advantageously coupled to receive data and instructions from and to transmit data and instructions to a data storage system, at least one input device, and at least one output device It can be implemented in one or more computer programs executable on a programmable system, including at least one programmable processor. A computer program is a set of instructions that can be used, directly or indirectly, in a computer to perform a certain action or bring about a certain result. Computer programs can be written in any form of programming language (e.g., SWIFT® , Objective-C, C#, Java), including compiled or interpreted languages, stand-alone programs or modules, components , subroutines, browser-based web applications, or other units suitable for use in a computing environment.
命令のプログラムの実行に好適なプロセッサには、例として、汎用マイクロプロセッサ及び専用マイクロプロセッサの両方、並びに任意の種類のコンピュータの、ソールプロセッサ、又は複数のプロセッサ若しくはコアのうちの1つ、が含まれる。一般的に、プロセッサは、読み出し専用メモリ若しくはランダムアクセスメモリ、又はその両方から命令及びデータを受信する。コンピュータの必須要素は、命令を実行するプロセッサ、並びに命令及びデータを保存する1つ以上のメモリである。一般に、コンピュータはまた、データファイルを記憶するための1つ以上の大容量記憶デバイスを含むか、又はそれらと通信するように動作可能に結合され、そのようなデバイスとしては、内蔵ハードディスク及びリムーバブルディスクなどの磁気ディスク、光磁気ディスク、及び光学ディスクが挙げられる。コンピュータプログラム命令及びデータを明確に具体化するのに適した記憶デバイスには、例として、EPROM、EEPROM、フラッシュメモリデバイスなどの半導体メモリデバイス、内蔵ハードディスク及びリムーバブルディスクなどの磁気ディスク、光磁気ディスク、並びにCD-ROM及びDVD-ROMディスク、を含む、全ての形態の不揮発性メモリが含まれる。プロセッサ及びメモリは、ASIC(特定用途向け集積回路)によって補完されるか、又はその中に組み込まれてもよい。 Processors suitable for executing a program of instructions include, by way of example, both general and special purpose microprocessors, as well as a sole processor or one of multiple processors or cores of any kind of computer. be Generally, a processor receives instructions and data from read-only memory, random-access memory, or both. The essential elements of a computer are a processor, which executes instructions, and one or more memories, which store instructions and data. Generally, a computer will also include, or be operably coupled in communication with, one or more mass storage devices for storing data files, such devices including internal hard disks and removable disks. magnetic discs, magneto-optical discs, and optical discs. Storage devices suitable for tangibly embodying computer program instructions and data include, by way of example, semiconductor memory devices such as EPROM, EEPROM and flash memory devices; magnetic disks such as internal hard disks and removable disks; magneto-optical disks; and all forms of non-volatile memory, including CD-ROM and DVD-ROM disks. The processor and memory may be supplemented by or embedded in an ASIC (Application Specific Integrated Circuit).
ユーザとの対話を行うために、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ、あるいはユーザに情報を表示するための網膜表示デバイスなどの表示デバイスを有するコンピュータに、特徴を実装することができる。コンピュータは、タッチ面の入力デバイス(例えば、タッチスクリーン)又はキーボード、及びユーザがコンピュータへの入力を行うことができるマウス又はトラックボールなどのポインティングデバイスを有することができる。コンピュータは、ユーザからの音声コマンドを受信するための音声入力デバイスを有することができる。 Features can be implemented in a computer having a display device such as a CRT (cathode ray tube) or LCD (liquid crystal display) monitor, or a retinal display device for displaying information to a user, for interaction with a user. . A computer may have a touch surface input device (eg, a touch screen) or keyboard, and a pointing device such as a mouse or trackball that allows a user to provide input to the computer. A computer may have a voice input device for receiving voice commands from a user.
特徴は、データサーバなどのバックエンドコンポーネントを含むコンピュータシステム、又はアプリケーションサーバ若しくはインターネットサーバなどのミドルウェア構成要素を含むコンピュータシステム、又はグラフィカルユーザインタフェース若しくはインターネットブラウザを有するクライアントコンピュータなどのフロントエンド構成要素、若しくはそれらの任意の組み合わせを含むコンピュータシステム内に実装されてもよい。システムの構成要素は、通信ネットワークなどの、デジタルデータ通信の任意の形態又は媒体によって接続されてもよい。通信ネットワークの例には、例えば、LAN、WAN、並びにインターネットを形成するコンピュータ及びネットワークが含まれる。 A feature may be a computer system including back-end components such as a data server, or a computer system including middleware components such as an application server or Internet server, or a front-end component such as a client computer with a graphical user interface or Internet browser, or It may be implemented in a computer system including any combination thereof. The components of the system may be connected by any form or medium of digital data communication such as a communication network. Examples of communication networks include, for example, LANs, WANs, and the computers and networks that make up the Internet.
コンピュータシステムは、クライアント及びサーバを含むことができる。一般的に、クライアント及びサーバは、互いに遠隔にあり、典型的には、通信ネットワークを通じて相互作用する。クライアント及びサーバの関係は、各々のコンピュータ上で実行されていてかつ相互にクライアント/サーバ関係を有するコンピュータプログラムを介して生起される。一部の実施形態では、サーバは、クライアントデバイスに、(例えば、クライアントデバイスと対話するユーザにデータを表示し、ユーザからのユーザ入力を受信する目的のために)データ(例えば、HTMLページ)を送信する。クライアントデバイスで生成されたデータ(例えば、ユーザ対話の結果)は、クライアントデバイスから、サーバで受信することができる。 The computer system can include clients and servers. A client and server are generally remote from each other and typically interact through a communication network. The relationship of client and server arises through computer programs running on the respective computers and having a client/server relationship to each other. In some embodiments, the server sends data (e.g., HTML pages) to the client device (e.g., for the purposes of displaying data to a user interacting with the client device and receiving user input from the user). Send. Data generated at the client device (eg, results of user interactions) can be received at the server from the client device.
1つ以上のコンピュータのシステムは、ソフトウェア、ファームウェア、ハードウェア、又はそれらの組み合わせを動作中のシステムにインストールして、そのシステムにその動作を実行させることによって、特定のアクションを実行するように構成することができる。1つ以上のコンピュータプログラムは、データ処理装置によって実行されたときにその装置に動作を実行させる命令を備えることによって、特定のアクションを実行するように構成することができる。 A system of one or more computers configured to perform a particular action by installing software, firmware, hardware, or a combination thereof on a running system to cause that system to perform its operations can do. One or more computer programs can be configured to perform specific actions by comprising instructions which, when executed by a data processing device, cause that device to perform operations.
開示される実施形態の1つ以上の特徴又はステップは、アプリケーションプログラミングインタフェース(API)を使用して実装されてもよい。APIは、データを提供する、又は動作若しくは計算を実行するサービスを提供する、呼び出しアプリケーションと、他のソフトウェアコード(例えば、オペレーティングシステム、ライブラリルーチン、機能)との間を渡される、1つ以上のパラメータを定義することができる。APIは、API仕様書で定義される呼び出し規約に基づいて、パラメータリスト又は他の構造を介して1つ以上のパラメータを送信又は受信する、プログラムコード内の1つ以上の呼び出しとして実装されてもよい。パラメータは、定数、キー、データ構造、オブジェクト、オブジェクトクラス、変数、データ型、ポインタ、アレイ、リスト、又は別の呼び出しであってもよい。API呼び出し及びパラメータは、任意のプログラミング言語で実装されてもよい。プログラミング言語は、プログラマがAPIをサポートする機能にアクセスするために使用する語彙及び呼び出し規約を定義することができる。一部の実装形態では、API呼び出しは、入力能力、出力能力、処理能力、電力能力、通信能力などのアプリケーションを実行するデバイスの能力を、アプリケーションに報告することができる。 One or more features or steps of the disclosed embodiments may be implemented using an application programming interface (API). An API is one or more functions passed between a calling application and other software code (e.g., operating system, library routines, functions) that provide data or provide services that perform operations or computations. Parameters can be defined. An API may be implemented as one or more calls in program code that send or receive one or more parameters via a parameter list or other structure, according to the calling conventions defined in the API specification. good. Parameters may be constants, keys, data structures, objects, object classes, variables, data types, pointers, arrays, lists, or other calls. API calls and parameters may be implemented in any programming language. A programming language can define the vocabulary and calling conventions that programmers use to access the functions that support the API. In some implementations, the API calls can report to the application the capabilities of the device executing the application, such as input capabilities, output capabilities, processing capabilities, power capabilities, communication capabilities, and the like.
本明細書は、多数の特定の実装詳細を含むが、これらは、任意の発明の範囲又は特許請求され得る範囲の制限として解釈されるべきではなく、特定の発明の特定の実施形態に固有である特徴の説明として解釈されるべきである。別個の実施形態のコンテキストで本明細書に記載されている特定の特徴どうしを組み合わせて、単一の実施形態に実装することもできる。その逆に、単一の実施形態のコンテキストで記載されている様々な特徴をそれぞれ別個に複数の実施形態に、又は任意の好適な部分的組み合わせにて実装することもできる。更に、特徴が特定の組み合わせで作用するものとして上に記載されている場合もあれば、更には当初からそのようなものとして主張されている場合もあるが、いくつかの実例においては、主張された組み合わせの1つ以上の特徴をその組み合わせから削除することもできる。また、主張された組み合わせを部分的組み合わせ又は部分的組み合わせの変形態様に向けることもできる。 Although this specification contains numerous specific implementation details, these should not be construed as limitations on the scope of any invention or claims, but are inherent in particular embodiments of particular inventions. should be construed as a description of certain features. Certain features that are described in this specification in the context of separate embodiments can also be implemented in combination in a single embodiment. Conversely, various features that are described in the context of a single embodiment can also be implemented in multiple embodiments separately or in any suitable subcombination. Further, while features may be described above as working in a particular combination, or even originally claimed as such, in some instances they may be claimed as such. One or more of the features of the combination may also be deleted from the combination. A claimed combination may also be directed to subcombinations or subcombination variants.
同様に、図面において、動作は、特定の順番で表されているが、望ましい結果を達成するために、これらの動作が示された順番、若しくは逐次的順番、又は示された動作が全て実行されることを必要としていると理解すべきではない。特定の状況において、多重タスク処理及び並列処理が、有利な場合がある。そのうえ、上述した実施形態における様々なシステム構成要素の分離は、あらゆる実施形態においてそのような分離が要求されるものとして理解されるべきではなく、説明したプログラム構成要素及びシステムを概してまとめて単一のソフトウェア製品に一体化してもよいし、又は複数のソフトウェア製品にパッケージ化してもよいことは理解されるべきである。 Similarly, although operations may appear in the figures in a particular order, it is possible that these operations may be performed in the order shown, or the sequential order, or all of the operations shown may be performed to achieve the desired result. should not be understood as requiring In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of various system components in the above-described embodiments should not be construed as requiring such separation in any embodiment, rather the described program components and system may generally be collectively referred to as a single unit. It should be understood that it may be integrated into one software product or packaged into multiple software products.
図9A~図9P及び図10A~図10Fは、一部の実施形態による、ジェスチャによるメディアキャプチャを実行するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図11A~図11Bにおける処理を含む、以下で説明される処理を例示するために使用される。 9A-9P and 10A-10F illustrate exemplary user interfaces for performing gestural media capture, according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 11A-11B.
図9Aは、例示的なメディアキャプチャユーザインタフェース904を示す。一部の実施形態では、デバイス900は、デバイス100、300、又は500の1つ以上の特徴を含む。この例では、デバイス900は、メディアキャプチャインタフェース904を表示するタッチスクリーンディスプレイ902を含む。一部の実施形態では、メディアキャプチャインタフェースは、ユーザ入力(例えば、タッチ入力)に応答して1つ以上のタイプのメディアをキャプチャするために使用される。例えば、メディアキャプチャインタフェースは、静止画像、ビデオ(例えば、オーディオを含む)、及び画像のシーケンス(例えば、バースト画像キャプチャ)のうちの1つ以上をキャプチャするために使用可能なグラフィカルユーザインタフェースであってもよい。メディアキャプチャインタフェース904は、(例えば、ユーザがメディア項目をキャプチャするのに適切な時間を決定できるように)例えば、メディアキャプチャインタフェースで表示するためにシーンのビューを通過する画像センサ(例えば、光学センサ164)などのメディアキャプチャ構成要素によって取得されているシーンの描写を含むビューファインダエリア906を含む。メディアキャプチャインタフェース904はまた、(例えば、「写真」から「ビデオ」に、又はパノラマ」、「タイムラプス」、「スローモーション」などに)メディアキャプチャモードを変更するために(例えば、タッチ入力、スワイプ入力を介して)使用することができるモードセレクタ908も含む。メディアキャプチャインタフェース904はまた、メディアキャプチャアフォーダンス910を含む。メディアキャプチャアフォーダンスはまた、「シャッタ」又は「シャッタアフォーダンス」などと呼ばれる場合もある。
FIG. 9A shows an exemplary media
一部の実施形態では、メディアキャプチャアフォーダンス上のタッチ入力(例えば、タップとも呼ばれる、タップジェスチャ)により、デバイスは、(例えば、現在のメディアキャプチャモードに従って)メディア項目をキャプチャする。例えば、図9Aに示す例では、現在のメディアキャプチャモードは「写真」であるため、ユーザは、デバイス900がメディアキャプチャアフォーダンス910上のタップに応答して静止画像をキャプチャすることを期待することができる。メディアキャプチャインタフェース904はまた、メディアをキャプチャするために使用されるデバイス900の画像センサ(例えば、前面カメラ、背面カメラ)を(例えば、ユーザ入力に応答して)変更するために使用することができる、カメラセレクタアフォーダンス912を含む。メディアキャプチャインタフェース904はまた、最後にキャプチャされたメディア項目のプレビュー(例えば、サムネイル、ビデオの単一フレーム)を表示する、最後にキャプチャされたメディア項目エリア914を含む。一部の実施形態では、最後のキャプチャメディア項目エリア(例えば、914)に関連付けられたタッチ入力に応答して、デバイス(例えば、900)は、1つ以上の最近のキャプチャメディア項目、複数のメディア項目(例えば、カメラロール)、及び/又はメディアライブラリを表示する。
In some embodiments, a touch input (eg, a tap gesture, also called a tap) on the media capture affordance causes the device to capture media items (eg, according to the current media capture mode). For example, in the example shown in FIG. 9A, the current media capture mode is "photo", so the user may expect
上述のように、デバイス(例えば、900)は典型的には、現在のメディアキャプチャモードに基づいて、メディアキャプチャアフォーダンス(例えば、910)上のユーザ入力に応答する。本明細書では、メディアのジェスチャによるキャプチャの技法を記載する。ジェスチャに依存することにより、使用される特定のジェスチャに基づいて、異なるタイプのメディアをキャプチャさせることができる。メディアをキャプチャするために使用可能な特定のジェスチャは、ユーザ入力特性(例えば、持続時間、移動、及び/又はそれらの様々な組み合わせ)に基づいて異なる特性を有することができる。図9A~図9Pの以下の例に示すように、キャプチャされたメディアのタイプは、タッチ入力を受け取ったときにアクディブなメディアキャプチャモードに対応する必要はない。 As noted above, a device (eg, 900) typically responds to user input on a media capture affordance (eg, 910) based on its current media capture mode. SUMMARY Techniques for gestural capture of media are described herein. By relying on gestures, different types of media can be captured based on the particular gesture used. Certain gestures that can be used to capture media can have different properties based on user input properties (eg, duration, movement, and/or various combinations thereof). As shown in the following examples of FIGS. 9A-9P, the type of captured media need not correspond to the active media capture mode when touch input is received.
とりわけ、入力特性ボックス901は、図9A~図9P全体を通して含まれ、対応する図における(例えば、電子デバイス900によって検出された)タッチ入力の特性を示し、それぞれの図に描かれたそれぞれの例示的なシナリオにおける(例えば、デバイス900のメモリ内の)タッチ入力特性の視覚的表現として提供される。タッチ入力に関連付けられた入力特性は、デバイス(例えば、900)によって使用されて、タッチ入力が特定のジェスチャ(例えば、それはメディアキャプチャ関連のアクションを実行させることができる)と見なされる基準を満たすかどうかを判定することができる。入力特性ボックス901は、読者の理解を容易にするための視覚的補助としてのみ提供され、必ずしもデバイス(例えば、900)には表示されない。加えて、図又は本明細書で特に言及しない限り、入力特性ボックス901は、デバイス900がそれぞれの図内の描かれたタッチ入力(例えば、図9Bの920)を受け取った後の、またそのような入力の検出を中止する前のタッチ入力の特性(例えば、タッチ入力のリフトオフ)を示す。
In particular, an input characteristics box 901 is included throughout FIGS. 9A-9P to indicate characteristics of touch input (eg, detected by electronic device 900) in the corresponding figures, and each illustration depicted in each figure. provided as a visual representation of touch input characteristics (eg, in memory of device 900) in a typical scenario. Whether the input characteristics associated with the touch input meet the criteria used by the device (e.g., 900) to consider the touch input to be a particular gesture (e.g., it can cause media capture-related actions to be performed) can determine whether The input properties box 901 is provided only as a visual aid to facilitate reader comprehension and is not necessarily displayed on the device (eg, 900). In addition, unless otherwise noted in the figures or herein, the input characteristics box 901 indicates that the
図9A~図9Bは第1のタイプのメディア項目のキャプチャを示す。図9A~図9Bに示す例では、デバイス900は、現在のメディアキャプチャモード(例えば、「写真」)に対応する第1のタイプのメディア項目をキャプチャする。図9Bでは、デバイス900は、メディアキャプチャアフォーダンス910に対応するタッチスクリーンディスプレイ902上の場所におけるタッチ入力であるユーザ入力920を受け取る。図9Bの入力特性ボックス901に示すように、ユーザ入力920(タッチ入力920とも呼ばれる)は、移動基準を満たさず(移動基準:満たしていない)、閾値時間よりも長い間検出されていない(閾値時間:経過していない)。この例では、デバイス900は、移動基準が満たされる前かつ閾値時間が経過する前に、(例えば、入力のリフトオフに起因して)タッチ入力920の検出を中止する。したがって、この例では、タッチ入力920はタップ入力ジェスチャである。図9Cは、タッチ入力920のリフトオフ後のデバイス900を示す。図9Cでは、メディアキャプチャインタフェース904は、図9Aに示すものと同じ状態に戻るが、ここで、最後にキャプチャされたメディア項目エリア914は、デバイス900がメディア項目をキャプチャしたことを示すビューファインダエリア906に示される現在のシーンの表現を含む。この例では、デバイス900は、静止画像(例えば、例示的な第1のタイプのメディア)をキャプチャしたものである。一部の実施形態では、デバイス900は、移動基準を満たさず、閾値時間を超える間に検出されなかったユーザ入力(例えば、タップ入力)に応答して、第1のタイプのメディア項目に加えて、第2のタイプのメディア項目をキャプチャする。一部の実施形態では、第2のタイプのメディアは、タッチ入力の持続時間とは無関係の持続時間を有する。例えば、デバイス900は、タッチ入力の持続時間(例えば、0.5秒)にかかわらず、固定持続時間(例えば、3秒の長さ)又は可変持続時間(例えば、2~5秒の長さ)のビデオクリップ(例えば、オーディオを含む)を追加的に(又は代わりに)キャプチャすることができる。
Figures 9A-9B illustrate capture of a first type of media item. In the example shown in FIGS. 9A-9B, the
図9D~図9Fは、第2のタイプのメディア項目のキャプチャを示す。図9D~図9Fに示す例では、デバイス900は、移動基準を満たさないが、時間基準を満たす(例えば、閾値時間を超える間検出される)タッチ入力を使用して、現在のメディアキャプチャモード(例えば、「写真」)に対応しない第2のタイプのメディア項目(例えば、ビデオ)をキャプチャする。図9Dでは、デバイス900は、メディアキャプチャアフォーダンス910に対応するタッチスクリーンディスプレイ902上の場所におけるタッチ入力であるユーザ入力930を受け取る。図9Dの入力特性ボックス901に示すように、ユーザ入力930は移動基準を満たさず(移動基準:満たしていない)、閾値時間より長い間検出されていない(閾値時間:経過していない)。
Figures 9D-9F illustrate the capture of a second type of media item. In the example shown in FIGS. 9D-9F, the
図9Eは、デバイス900が閾値時間経過後、ただし、移動基準が満たされる前までタッチ入力930の検出を継続することを示す。したがって、図9Eの入力特性ボックス901は、ユーザ入力930が移動基準を満たさない(移動基準:満たしていない)が、閾値時間よりも長い間検出されている(閾値時間:経過した)ことを示す。したがって、この例では、タッチ入力930は、タップアンドホールド入力ジェスチャ(例えば、閾値時間にわたって保持されるタップ)である。タッチ入力930が閾値時間を超える間検出されたことに応答して、デバイス900は、ビデオ(例えば、例示的な第2のタイプのメディア)のキャプチャ(例えば、記録)を開始する。図9Eに示すように、デバイス900は現在、ビデオをキャプチャしている。この例では、ビデオキャプチャ中、ビデオの経過時間(00:00:08、又は8秒)が示され、メディアキャプチャアフォーダンス910は、停止アフォーダンス934と取り替えられている。加えて、図9Eでは、デバイス900は、(例えば、カメラセレクタアフォーダンス912を取り替えて)以下でより詳細に論じられるメディアキャプチャロックアフォーダンス932を表示する。
FIG. 9E shows that
図9Fは、タッチ入力930のリフトオフ後のデバイス900を示す。図9Fでは、タッチ入力930のリフトオフに応答して、メディアキャプチャインタフェース904は、図9Dに示すものと同じ状態に戻るが、ここで、最後にキャプチャされたメディア項目エリア914は、デバイス900がメディア項目をキャプチャしたことを示すビューファインダエリア906に示される現在のシーンの表現を含む。この例では、デバイス900は、ビデオ(例えば、例示的な第2のタイプのメディア)をキャプチャしたものである。一部の実施形態では、デバイス900は、移動基準を満たさないが閾値時間を超える間に検出されたユーザ入力(例えば、タップアンドホールドジェスチャ、タッチ入力930)に応答して、第2のタイプのメディア項目に加えて、第1のタイプのメディア項目をキャプチャする。例えば、ビデオをキャプチャすることに加えて、デバイス900は追加的に静止画像をキャプチャすることができる。一部の実施形態では、(例えば、タッチ入力930に応答してキャプチャされた)第2のタイプのメディアは、タッチ入力(例えば、930)の持続時間に基づく持続時間を有する。例えば、デバイス900は、タッチ入力930が検出された持続時間に基づく持続時間を有するビデオクリップ(例えば、オーディオを含む)をキャプチャすることができる。したがって、タッチ入力930がタッチスクリーンディスプレイ902上で8秒間検出された場合、結果としてキャプチャされた第2のタイプのメディアは、8秒の長さのビデオであり得る。一部の実施形態では、第2のタイプのメディアの持続時間は、タッチ入力の持続時間に基づくものであるが、ビデオ記録は、タッチ入力が閾値持続時間を超える間検出された後に開始する。したがって、閾値持続時間が1秒であり、タッチ入力が8秒間検出された場合、得られるビデオは7秒である(例えば、リフトオフがビデオの記録を終了させ、次いで、それはデバイス900によってメディアライブラリに記憶される)。
FIG. 9F shows
図9G~図9Jは、ジェスチャの検出が中止される後に継続する第2のタイプの媒体のキャプチャを開始するためのジェスチャの使用を示す。図9G~図9Jに示す例では、デバイス900は、(例えば、第1の方向への)移動基準を満たす(また、時間基準も満たす)タッチ入力940を用いて、現在のメディアキャプチャモード(例えば、「写真」)に対応しない第2のタイプのメディア項目(例えば、ビデオ)をキャプチャする。図9Gでは、デバイス900は、メディアキャプチャアフォーダンス910に対応するタッチスクリーンディスプレイ902上の場所におけるタッチ入力であるユーザ入力940を受け取る。図9Dの入力特性ボックス901に示すように、ユーザ入力940は移動基準を満たさず(移動基準:満たしていない)、閾値時間よりも長い間検出されていない(閾値時間:経過していない)。
Figures 9G-9J illustrate the use of a gesture to initiate capture of a second type of media that continues after gesture detection ceases. In the example shown in FIGS. 9G-9J, the
図9G~図9Jの例では、タッチ入力940は閾値持続時間よりも長い間検出されるが、閾値持続時間を満たすことは、メディアキャプチャセッションをロックされたメディアキャプチャ状態に遷移させるための要件ではない。むしろ、この例では、移動基準が満たされていることが唯一の要件である。一部の実施形態では、メディアキャプチャセッションをロックするために、閾値時間が追加的に必要とされる場合がある。
In the example of FIGS. 9G-9J,
図9Hは、デバイス900が、閾値時間経過後、ただし、移動基準が満たされる前までタッチ入力940の検出を継続することを示す。したがって、図9Hの入力特性ボックス901は、ユーザ入力940が移動基準を満たさない(移動基準:満たしていない)が、閾値時間よりも長い間検出されている(閾値時間:経過した)ことを示す。図9D~図9Fに上記した例と同様に、閾値期間よりも長く検出されたタッチ入力に応答して、デバイス900は、ビデオ(例えば、例示的な第2のタイプのメディア)のキャプチャ(例えば、記録)を開始する。この例では、タッチ入力940は、接触の初期位置(例えば、910の場所)からドラッグされたタッチ入力である。本明細書で使用するとき、「ドラッグされた」タッチ入力は、「スライドする」タッチ入力とも呼ばれる。図9Hでは、タッチ入力940は、メディアキャプチャアフォーダンス910の右にドラッグされている。図9Hに示すように、デバイス900は現在、ビデオをキャプチャしている。この例では、ビデオの経過時間(00:00:08、又は8秒)が示され、メディアキャプチャアフォーダンス910は、停止アフォーダンス934と取り替えられている。停止アフォーダンスは、(例えば、ロックされたメディアキャプチャセッション中にメディアキャプチャアフォーダンスを取り替えた場合)、本明細書では「ロック状態キャプチャボタン」とも呼ばれる。一部の実施形態では、停止アフォーダンス(例えば、934)は、(例えば、メディアキャプチャセッションをロックされたメディアキャプチャ状態に移行させる)タッチ入力のリフトオフに応答して、メディアキャプチャアフォーダンス(例えば、910)を取り替える。加えて、図9Hでは、デバイス900は、(例えば、カメラセレクタアフォーダンス912を取り替えて)以下でより詳細に論じられるメディアキャプチャロックアフォーダンス932を表示する。
FIG. 9H shows that the
とりわけ、図9Hに示すシナリオは、図9Hにおけるタッチ入力(940)がわずかに右に移動し、図9Eにおけるタッチ入力(930)が移動していないことを除いて、図9Eのシナリオと同様である。したがって、タッチ入力940が移動基準を満たさないが、閾値時間よりも長い間検出されているので、(例えば、タッチ入力940のリフトオフにより)タッチ入力940の検出が図9Hに示す瞬間に中止された場合、図9Fに示すものと同様の結果が生じ、デバイス900は、タッチ入力940が検出された持続時間に基づく持続時間を有するビデオをキャプチャすることになる。しかし、この例では、以下に記載する図9I及び図9Jに示されるように、タッチ入力940は検出され続ける。
Notably, the scenario shown in Figure 9H is similar to the scenario of Figure 9E, except that the touch input (940) in Figure 9H has moved slightly to the right and the touch input (930) in Figure 9E has not moved. be. Therefore, since
図9Hでは、デバイス900は、タッチ入力940の現在の場所の表現であるタッチ入力インジケータ942を表示する。この例では、タッチ入力インジケータはタッチ入力940の移動(例えば、メディアキャプチャアフォーダンス910(図9G)/停止アフォーダンス934(図9H)に関連付けられた領域から離れるタッチ入力の移動)に応答して表示される。移動経路インジケータ943も示され、停止アフォーダンス934(又は停止アフォーダンス934と取り替えられていなかった場合には、メディアキャプチャ910)とメディアキャプチャロックアフォーダンス932との間に表示されている。タッチ入力インジケータ942は、(例えば、左又は右の一方又はいずれかの方向への)タッチ入力904のドラッグ(「スライド」とも呼ばれる)に応答して、指示された移動経路に沿って移動する。
In FIG. 9H,
ここで図9I及び図9Jを参照すると、ユーザ入力の検出を中止した後にメディアのキャプチャを継続する技法が示されている。図9B~図9Cに関連して上述したように、デバイスは、特定の特性(例えば、閾値時間未満の間検出される移動はない)を有するユーザ入力(例えば、ジェスチャ)に応答して、任意選択的に第1のタイプのメディアをキャプチャする。図9D~図9Fに関連して上述したように、デバイスは任意選択的に、ユーザ入力が他の特性を有する(例えば、移動はなく(又は移動が基準を満たさず)、閾値時間を超える間検出される)場合、ユーザ入力の持続時間に基づく第2のタイプのメディア(例えば、ビデオ)をキャプチャする。一部の実施形態では、デバイスは、タッチ入力の検出が中止された後であっても継続するように、第2のタイプのメディアのキャプチャを継続する。 9I and 9J, techniques for continuing to capture media after ceasing to detect user input are illustrated. As described above in connection with FIGS. 9B-9C, the device responds to user input (eg, gestures) with certain characteristics (eg, no movement detected for less than a threshold time) to arbitrarily Selectively capture a first type of media. As described above in connection with FIGS. 9D-9F, the device optionally allows user input to have other characteristics (e.g., no movement (or movement does not meet criteria) and detected), capture a second type of media (eg, video) based on the duration of the user input. In some embodiments, the device continues capturing the second type of media such that it continues even after touch input detection ceases.
図9Iでは、タッチ入力940は、更に右に移動しており、現在、メディアキャプチャロックアフォーダンス932に対応する場所にある。この例では、タッチ入力(例えば、940)が、メディアキャプチャアフォーダンス910の場所から(例えば、タッチダウンで)(又は、メディアキャプチャアフォーダンスを取り替えた停止アフォーダンス(例えば、934)の場所から)メディアキャプチャロックアフォーダンス932の場所へ移動する(例えば、ドラッグされる)ときに、移動基準は満たされる。一部の実施形態では、デバイスは、ユーザ入力の検出が中止されたことに応答して(例えば、タッチ入力のリフトオフ時に)移動基準が満たされたかどうかを判定する。したがって、図9Iの入力特性ボックス901は、ユーザ入力940が現在の場所で発生した場合に移動基準を満たすことになる(移動基準:満たされた(リフトオフ時))ことを示し、またタッチ入力が閾値時間よりも長い間検出されていること(閾値時間:経過した)を示す。図9Iに示すように、移動インジケータ942は、接触が対応する場所にあり、検出され続ける間、メディアキャプチャロックアフォーダンス932を覆わない/覆い隠さない。一部の実施形態では、移動インジケータ(例えば、942)は、接触が対応する場所にあり、検出され続ける間、メディアキャプチャロックアフォーダンス(例えば、932)を覆う/覆い隠す。図9Iに示すように、メディアキャプチャインタフェース904は、ビデオ記録状態のままにある。停止アフォーダンス934が表示され続け、ビデオキャプチャの経過時間(00:00:10、又は10秒)が表示され続ける。
In FIG. 9I,
図9Jは、タッチ入力940のリフトオフ後のデバイス900を示す。タッチ入力940の検出を中止したことに応答して、タッチ入力940のリフトオフが、移動基準を満たした後に発生したため(例えば、アフォーダンス932上のリフトオフ)、デバイス900は、第2のタイプのメディア(例えば、ビデオ記録)のキャプチャを継続する。メディアのキャプチャを継続することは、本明細書では、メディアキャプチャセッションを「維持する」とも呼ばれる。この例では、メディアキャプチャセッション(例えば、ビデオのキャプチャ)が、アンロックされたメディアキャプチャ状態からロックされたメディアキャプチャ状態に遷移したため、デバイス900は第2のタイプのメディアのキャプチャを継続する。メディアキャプチャ状態は、本明細書では、「メディアキャプチャセッション状態」とも呼ばれる。本明細書で使用するとき、アンロックされたメディアキャプチャ状態にあるメディアキャプチャセッションは、「アンロックされた」メディアキャプチャセッションとも呼ばれる。本明細書で使用するとき、ロックされたメディアキャプチャ状態にあるメディアキャプチャセッションは、「ロックされた」メディアキャプチャセッションとも呼ばれる。一部の実施形態では、メディアキャプチャセッションがロックされたメディアキャプチャ状態にあるとき、メディアセッションは(例えば、メディアセッションを開始させるタッチ入力ジェスチャの検出の中止後に)継続する。図9Jに示すように、メディアキャプチャインタフェース904は、ビデオ記録状態のままである。停止アフォーダンス934が引き続き表示され、ビデオキャプチャの経過時間(00:00:12、又は12秒)が継続して表示される(例えば、またキャプチャ中により長い時間が経過すると更に進行する)。また図9Jに示すように、デバイス900は、第2のタイプのメディア(例えば、ビデオ)のキャプチャを継続している間、第1のタイプのメディア(例えば、静止画像及び/又は固定持続時間クリップ)をキャプチャするのに使用され得る画像キャプチャアフォーダンス944を表示する。この例では、デバイス900は、ビデオ(例えば、例示的な第2のタイプのメディア)のキャプチャを継続する。
FIG. 9J shows
一部の実施形態では、デバイス900は、移動基準を満たし、閾値時間を超える間検出されたユーザ入力に応答して、第2のタイプのメディア項目に加えて、第1のタイプのメディア項目をキャプチャする。例えば、ビデオをキャプチャすることに加えて、デバイス900は、タッチ入力940に応答して静止画像を追加的にキャプチャすることができる。一部の実施形態では、静止画像は廃棄される。例えば、タッチ入力のタッチダウンに応答して、第1のタイプのメディア(例えば、静止画像)を取得することができるが、デバイスは、第2のタイプのメディアがキャプチャされた(例えば、タッチ入力が閾値時間にわたって継続する、又は移動基準を満たす)場合、第1のタイプのメディアを廃棄することができる。
In some embodiments, the
一部の実施形態では、デバイスは、ユーザ入力の検出が継続している間に移動基準が満たされるかどうかを判定する。例えば、デバイス900は、タッチ入力940が、図9Iのメディアキャプチャロックアフォーダンス932の場所などの特定の場所に到達すると、移動基準を満たすと判定することができる。このような例では、ユーザ入力が移動基準を満たしたことに応答して、デバイスは、最初にリフトオフを必要とせずに(例えば、タッチ入力940が依然として検出されている場合でも)、(例えば、図9Jに示すように)現在のメディアキャプチャセッションをロックされたメディアキャプチャ状態に遷移させることができる。したがって、デバイス900は、(例えば、メディアキャプチャアフォーダンス910の方向に戻る、図9Hに示すような場所までの)タッチ入力940の更なる移動及びメディアキャプチャロックアフォーダンス932以外の場所でのリフトオフにもかかわらず、第2のタイプのメディアのキャプチャを継続することができる。一部の実施形態では、メディアキャプチャアフォーダンス(例えば、910)上の、又は停止アフォーダンス(例えば、934)上の(例えば、タッチ入力940の)リフトオフにより、デバイス(例えば、900)はメディアのキャプチャを中止する(例えば、メディアキャプチャはリフトオフ後に継続しない)。
In some embodiments, the device determines whether the movement criteria are met while detection of user input continues. For example,
一部の実施形態では、タッチ入力がメディアキャプチャロックアフォーダンス(例えば、932)に向かって少なくとも所定の量(例えば、割合、一定距離)だけドラッグされた場合に、移動基準は満たされる。例えば、タッチ入力940が、図9Gのメディアキャプチャアフォーダンス910の場所(例えば、図9Hの停止アフォーダンス934と同じ場所)と、メディアキャプチャロックアフォーダンス932との間の距離の少なくとも50%、移動インジケータ942をドラッグした場合、移動基準は、(例えば、即座に、又はリフトオフ時に)満たされ得る。これは、図10A~図10Fに示される例において示されており、以下でより詳細に説明する。
In some embodiments, the movement criterion is met if the touch input is dragged toward the media capture lock affordance (eg, 932) by at least a predetermined amount (eg, percentage, constant distance). For example, if
一部の実施形態では、移動基準は、(例えば、満たされるために)特定の方向(例えば、右、左、下、上)への移動を必要とする。例えば、図9G~図9Jは、移動基準を満たすために必要とされる(メディアキャプチャアフォーダンス910の)右への移動を示す。一部の実施形態では、移動基準は、1つ以上の方向への移動によって満たされる(例えば、左又は右への移動は移動基準を満たすことができる)。 In some embodiments, movement criteria require (eg, to be met) movement in a particular direction (eg, right, left, down, up). For example, FIGS. 9G-9J show the movement to the right (of media capture affordance 910) required to meet the movement criteria. In some embodiments, movement criteria are satisfied by movement in one or more directions (eg, movement to the left or right may satisfy the movement criteria).
図9Kは、メディアセッションがロックされたメディアキャプチャ状態にある間に第2のタイプのメディアのキャプチャを中止する例示的な技法を示す。タッチ入力940をリフトオフするとメディアがキャプチャされ続けるため、停止アフォーダンス934へのタッチ入力950を使用して、デバイス900にビデオのキャプチャを中止させることができる。例えば、タッチ入力950に応答して、デバイス900は、ビデオを記録することを中止し、図9Fに示すように、メディアキャプチャインタフェース904を表示することができる(例えば、現在何も記録されていないことを示す)。
FIG. 9K illustrates an exemplary technique for suspending capture of the second type of media while the media session is in the locked media capture state.
図9Lは、メディアセッションがロックされたメディアキャプチャ状態にある間に第1のタイプのメディアをキャプチャする例示的な技法を示す。図9Lでは、デバイス900は画像キャプチャアフォーダンス944上のユーザ入力960を受け取り、それは、第2のタイプのメディア(例えば、ビデオ)を記録しながら、デバイス900に第1のタイプのメディア(例えば、静止画像及び/又は固定持続時間クリップ)をキャプチャさせるために使用することができる。この例では、デバイス900は、タッチ入力960の後に、ビデオ(例えば、例示的な第2のタイプのメディア)のキャプチャを継続する。タッチ入力960に応答して、デバイス900は、ビデオフレームから静止画像をキャプチャする(例えば、メディアライブラリ内に静止画像を記憶することを含む)。
FIG. 9L illustrates an exemplary technique for capturing a first type of media while the media session is in a locked media capture state. In FIG. 9L,
図9M~図9Pは、タッチ入力ジェスチャを用いた、第1のタイプのメディア項目のシーケンスのキャプチャを示す。図9M~図9Pに示す例では、デバイス900は、第2の移動基準を満たすタッチ入力を用いて、第1のタイプのメディア項目(例えば、静止画像)のシーケンスをキャプチャする。一部の実施形態では、デバイスは、ユーザ入力(例えば、タッチ入力)が1つ以上の異なる移動基準(例えば、第1の移動基準及び第2の移動基準)を満たすかどうかを判定する。例えば、例示的な第1の移動基準は、図9B~図9Kに関して上述した移動基準とすることができ、その場合、基準を満たすと、デバイスはメディアキャプチャセッションをロックされたメディアキャプチャ状態に変更する。一部の実施形態では、第2の移動基準を満たすと、デバイス900は、異なるメディアキャプチャアクション(例えば、第1の移動基準が満たされたことに応答して取られるアクションとは異なる)を行う。この例では、デバイス900は、以下でより詳細に論じられる第2の移動基準を満たすタッチ入力の検出に応答して、バーストメディアキャプチャを実行する。
Figures 9M-9P illustrate capturing a sequence of media items of the first type using touch input gestures. In the example shown in FIGS. 9M-9P,
図9Mでは、デバイス900は、メディアキャプチャアフォーダンス910に対応するタッチスクリーンディスプレイ902上の場所におけるタッチ入力であるユーザ入力970を受け取る。図9Dの入力特性ボックス901に示すように、ユーザ入力970は移動基準を満たさず(移動基準:満たしていない)、閾値時間よりも長い間検出されていない(閾値時間:経過していない)。
9M,
図9Nは、閾値時間が経過した後、かつ移動基準が満たされた後まで、デバイス900がタッチ入力970を検出し続けることを示す。したがって、図9Hの入力特性ボックス901は、ユーザ入力940が移動基準を満たさない(移動基準:満たしていない)が、閾値時間よりも長い間検出された(閾値時間:経過した)ことを示す。図9Nの例では、満たされた移動基準は、第2の移動基準である。この例では、第2の移動基準は、図9B~図9Kに関して上記した(第1の)移動基準とは異なる。この例では、第2の移動基準は、第2の方向への閾値量(例えば、任意の量、最小量)の移動を含む。図9Nの例では、タッチ入力970は、最小量(例えば、最小量の画素)だけ、第1の方向(例えば、右)とは異なる第2の方向(例えば、左)に移動している。タッチ入力970が第2の方向の第2の移動基準を満たすことを検出したことに応答して、デバイス900は、第1のタイプのメディア項目のメディア項目のシーケンスのキャプチャを開始する(例えば、「バースト」画像キャプチャモードで画像のキャプチャを開始する)。この例では、デバイス900は、タッチ入力970の検出を中止するまでメディア項目のシーケンスのキャプチャを継続する。一部の実施形態では、デバイスは、メディア項目のシーケンスをキャプチャしている間に、ロックされたメディアキャプチャ状態に移行する。例えば、デバイス900は、任意選択的に、メディアキャプチャセッションをバーストモードにロックする能力を提供し、図9G~図9Jのビデオに関して上記したのと同様に、タッチ入力970のリフトオフ時にバースト撮影が継続する。上記と同様に、バーストモードは、1つ以上の移動基準(例えば、第3の移動基準)を満たすタッチ入力に基づいてロックされ得る。
FIG. 9N shows that
第1の移動基準と第2の移動基準の詳細の説明は、(例えば、本明細書で使用される例とは異なる本明細書の技法の実装形態において)いずれかを限定すること、又はいずれかの特性に限定することを意図するものではないことに留意されたい。したがって、本明細書の具体的な移動基準に関して記載された具体的な詳細は単なる例示であり、当業者は、移動基準が本明細書に記載するあらゆる移動基準の1つ以上の特性を有し得ることを理解する。 The detailed description of the first movement criterion and the second movement criterion is either limiting (e.g., in implementations of the techniques herein that differ from the examples used herein) or Note that it is not intended to be limited to any one characteristic. Accordingly, the specific details set forth with respect to particular moving criteria herein are merely exemplary, and it will be appreciated by those skilled in the art that moving criteria may have one or more characteristics of any moving criteria described herein. Understand what you get.
図9Nに示すように、タッチ入力970の検出を継続している間、デバイス900は、メディア項目のシーケンスのキャプチャを継続する。メディア項目のシーケンスのキャプチャを継続している間、デバイス900は、タッチ入力970の場所を表すタッチ入力インジケータ974を表示する。タッチ入力インジケータ974は、例示的な移動経路インジケータ975(図9O)に沿って移動する。デバイス900はまた、メディア項目のシーケンスをキャプチャする進行中の(バースト)メディアキャプチャセッション中にキャプチャされたメディア項目の数を示すシーケンスカウント972を表示する。図9Nに示すように、シーケンスカウント972の番号「1」が示すように、デバイス900が(例えば、ユーザ入力970に応答して)現在のシーケンスのキャプチャを開始以来これまで、1つのメディア項目がキャプチャされている。
As shown in FIG. 9N, while continuing to detect
図9O及び図9Pは、タッチ入力の検出を継続している間、デバイス900がメディア項目のシーケンスのキャプチャを継続することを示す。図9Oでは、タッチ入力970の検出が継続し、更に左にドラッグされており、シーケンスカウント976は、ここで「10」を示す(例えば、第1のタイプの10個のメディア項目がキャプチャされている)。図9Oでは、タッチ入力インジケータ974は、例示的な移動経路インジケータ975(実線として示される)に沿って移動する。一部の実施形態では、デバイス(例えば、900)は、タッチ入力の移動に応答してシーケンスカウントを移動させる(例えば、コピーを作成し、それを含む新しいユーザインタフェース要素を再位置し、表示する)。例えば、図9Oでは、タッチ入力970が(図9Nの)シーケンスカウント972の場所に向かって移動した(例えば、近づいた、又は到達した)ことに応答して、デバイス900は、(メディアキャプチャアフォーダンス910の元の場所に対応する)シーケンスカウント976において、新たな場所でキャプチャされたメディア項目の数を表示する。一部の実施形態では、デバイス(例えば、900)は、シーケンスカウントの(例えば、976までの)移動に従って、初期表示場所でのシーケンスカウント(例えば、972)の表示を中止する。このようにして、デバイス900は、ドラッグされたタッチ入力がシーケンスカウントを覆ってしまうのを防止する。一部の実施形態では、シーケンスカウントは、タッチ入力の移動に応答して移動しない。例えば、シーケンスカウントは、単一の場所(例えば、972、976、又は別の場所のいずれか)に表示され、タッチ入力が対応する場所に移動したことに応答して移動しない場合がある。一部の実施形態では、シーケンスカウントは、更なる移動に応答してもう一度移動する。例えば、タッチ入力がシーケンスカウント976の場所に戻ると、シーケンスは再び移動することができる(例えば、シーケンスカウント972として再び表示され得る)。
Figures 9O and 9P illustrate that
図9Pでは、タッチ入力970が検出され続け、更に左にドラッグされており、シーケンスカウント976はここで「20」を示す(例えば、第1のタイプの20個のメディア項目がキャプチャされている)。一部の実施形態では、デバイス(例えば、900)は、タッチ入力の検出を中止したことに応答して、メディア項目のシーケンスのキャプチャを中止する。例えば、デバイス900が、図9Pに示す瞬間にタッチ入力970の検出を中止する場合、メディア項目のシーケンスのキャプチャは、(例えば、第1のタイプの20個のメディア項目をキャプチャした後に)中止することになる。このような例では、タッチ入力970のリフトオフに応答して、デバイス900は、図9Fに示されるものと同様のメディアキャプチャインタフェース904を表示することができ、ここでは最後にキャプチャされたメディア項目エリア914は、メディア項目のシーケンス内にキャプチャされた20個のメディア項目のうちの1つの表現を含む。
In FIG. 9P,
一部の実施形態では、タッチ入力の移動量及び/又は移動速度は、第1のタイプのメディア項目のシーケンスのキャプチャ特性に影響を及ぼす。例えば、閾値速度(例えば、タッチスクリーンディスプレイ上の移動速度)を上回る移動を有するタッチ入力は、バースト画像キャプチャの速度を増大させる(例えば、より低速で移動する類似のタッチ入力よりも高速にする)ことができ、かつ/又は(例えば、より低速で移動する類似のタッチ入力より)より高速で推移することができる。別の例として、初期位置(例えば、910)からよりも長い距離を移動するタッチ入力は、バースト画像キャプチャの速度を、より短距離を移動したタッチよりも大きくすることができる。 In some embodiments, the amount and/or speed of movement of the touch input affects the capture characteristics of the sequence of media items of the first type. For example, a touch input that has movement above a threshold speed (e.g., speed of movement on a touch screen display) will increase the speed of burst image capture (e.g., make it faster than a similar touch input that moves at a slower speed). and/or may transition faster (eg, than similar touch inputs that move slower). As another example, a touch input that travels a greater distance from the initial position (eg, 910) can cause the burst image capture rate to be greater than a touch that travels a shorter distance.
図10A~図10Fは、メディアキャプチャセッションを、アンロックされたメディアキャプチャ状態からロックされたメディアキャプチャ状態に遷移させるための例示的なインタフェースを示す。特に、図10A~図10Fは、図6A~図6F及び図9A~図9Pに関して上記したように、メディアセッションをロックされたメディアキャプチャ状態に移行させるために、1つ以上のアフォーダンスと対話するタッチ入力の例示的な詳細図を示す。図10A~図10Fに示されるインタフェースは、デバイス900によって(例えば、図9A~図9Pに示されるインタフェースの1つ以上で)表示され得る。 10A-10F illustrate example interfaces for transitioning a media capture session from an unlocked media capture state to a locked media capture state. In particular, FIGS. 10A-10F illustrate touch interacting with one or more affordances to transition a media session to a locked media capture state, as described above with respect to FIGS. 6A-6F and 9A-9P. Fig. 3 shows an exemplary detailed view of an input; The interfaces shown in FIGS. 10A-10F may be displayed by device 900 (eg, in one or more of the interfaces shown in FIGS. 9A-9P).
図10Aは、例示的なメディアキャプチャアフォーダンス1000を示す。例えば、メディアキャプチャアフォーダンス1000は、メディアキャプチャアフォーダンス602又は910に関して上記したものと同じ機能を含むことができる。
FIG. 10A shows an exemplary
図10Bでは、ユーザ入力1002(タッチ入力1002とも呼ばれる)は、メディアキャプチャアフォーダンス1000に関連付けられた場所で受け取られる(例えば、ユーザ入力は、アフォーダンス1000を表示するデバイスによって検出される)。この例では、図9D及び図9Eのタッチ入力930に関して上記したものと同様に、タッチ入力1002が閾値時間より長い間検出され、したがって、メディア(例えば、ビデオ)のキャプチャは、(例えば、デバイスがタッチ入力1002を検出したことに応答して、又はタッチ入力1002が閾値持続時間よりも長い間検出されたことに応答して)開始する。図10Bの矢印が示すように、タッチ入力1002は、メディアキャプチャアフォーダンス1000の右方向への移動成分を含む。図10Bにも示すように、メディアキャプチャロックアフォーダンス1004は、メディアキャプチャアフォーダンス1000の右に表示されている。例えば、メディアキャプチャロックアフォーダンス1004は、メディアキャプチャロックアフォーダンス932に関して上記したものと同じ機能を含むことができる。図10Bはまた、メディアキャプチャアフォーダンス1000とメディアキャプチャロックアフォーダンス1004とを接続する移動経路インジケータ1005も示し、それはメディアキャプチャロックアフォーダンス1004に向かう移動方向を示す。移動経路インジケータは、本明細書で使用するとき、「視覚的方向インジケータ」とも呼ばれる。
In FIG. 10B, user input 1002 (also referred to as touch input 1002) is received at a location associated with media capture affordance 1000 (eg, user input detected by the device displaying affordance 1000). In this example, similar to what was described above with respect to touch
図10Cでは、タッチ入力1002は図10Bからわずかに右に移動しており、図10Dでは、タッチ入力1002は図10Cから更に右に移動している。図10Dでは、タッチ入力インジケータ1006は、ロック距離マーカ1008をまだ通過していない。タッチ入力インジケータ1006は、上記のタッチ入力インジケータ942の1つ以上の特徴を含むことができる。一部の実施形態では、ロック距離マーカ(例えば、1008)は、移動基準に関連付けられた(例えば、それを満たすのに十分な)場所を示して(例えば、移動経路インジケータ1005上に)表示され得る。図10Dでは、ロック距離マーカ1008は、メディアキャプチャセッション状態をロックするための移動基準を満たす距離を示す。図10C及び図10Dでは、タッチ入力1002が検出され続けるにつれて、ビデオはキャプチャされ続ける。
In FIG. 10C the
図10Eでは、タッチ入力1002は右に移動し、ロック距離マーカ1008を通過している。この例では、移動基準は、メディアキャプチャセッションをロックされたメディアキャプチャ状態に遷移させるための移動基準を満たすためにタッチ入力(例えば、1002)のリフトオフを必要としない。したがって、図10Eでは、メディアキャプチャセッション(例えば、ビデオの記録)がロックされたメディアキャプチャ状態に移行されている。例えば、図10Fに示すように、図10Eに描かれた位置でのタッチ入力1002のリフトオフ後、ビデオキャプチャが継続する(例えば、停止アフォーダンス1010が表示され、ビデオが記録されていることを示している)。また、図10Eに示すように、メディアキャプチャロックアフォーダンス1004は、(例えば、画像キャプチャアフォーダンス944と同様の)画像キャプチャアフォーダンス1012の表示と取り替えられており、それは、第2のタイプのメディア(例えば、ビデオ)を記録している間、メディア(例えば、静止画像、及び/又は固定持続時間クリップなどの第1のタイプ)をキャプチャするために使用され得る。
In FIG. 10E,
図10Fでは、デバイスは、タッチ入力1002の検出を中止しているが、図9Jに関して上記したものと同様に、メディアのキャプチャ(例えば、ビデオの記録)を継続する。この例では、タッチ入力1002のリフトオフは、(例えば、メディアキャプチャロックアフォーダンス1004に関連付けられた場所に到達する前に)、図10Eに示す場所である間に発生したが、タッチ入力1002の移動がロック距離マーカ1008を通り越して(タッチ入力インジケータ1006によって表されるように)移動したため、メディアキャプチャセッションは依然として継続することになる。一部の実施形態では、デバイスは、タッチ入力インジケータ(例えば、1006)、ロック距離マーカ(例えば、1008)、及び移動経路インジケータ(例えば、1005)のうちの1つ以上を表示しない。例えば、図10Eを参照すると、デバイスは、タッチ入力インジケータ1006、ロック距離マーカ1008及び移動経路インジケータ1005のうちの全て表示できるわけではなく(又は、いずれも表示することができず)表示、依然として図10E及び図10Fに関して説明するリフトオフに応答して同じ動作を実行することができる。
In FIG. 10F, the device has stopped detecting
上記の説明では、タッチ入力920、930、940、970、及び1002は、異なる参照番号によって示されている。しかし、これらのタッチ入力は、タッチ入力が結局1つ以上のジェスチャ入力であるかどうかに基づいて発生し得る複数の潜在的なジェスチャ及び/又は結果を表すことを意図している。すなわち、タッチ入力920、930、940、970、及び1002のそれぞれは、単一のタッチ入力に関する異なる可能な結果を表す。例えば、タッチ入力920及び930は、同じ場所で同じデバイス条件の間に開始し、タッチ入力のための共通の開始点を表す。しかし、1つはタップジェスチャ(920)となり、1つはタップアンドホールドジェスチャ(930)になるので、異なるメディアキャプチャアクションが行われる。したがって、ユーザには、ユーザがタッチ入力を用いて実行するジェスチャに基づいて、デバイスの複数のメディアキャプチャアクションの制御が行われ得る。
In the above description,
加えて、上記の例は例示的なものであり、ジェスチャ、メディアアクション、移動基準、及び閾値時間の様々な組み合わせに関して限定することを意図するものではない。例えば、ビデオキャプチャが右方向への移動に関して説明されているが、代わりに右への移動に応答して、バーストメディアキャプチャを実行することができる。同様に、左への移動は、上記のようにバーストメディアキャプチャをもたらす代わりに、第1のタイプのメディア(例えば、静止画像)のキャプチャとなってもよい。ジェスチャ、メディアアクション、移動基準、及び閾値時間の様々な組み合わせを、本開示の範囲に従ってユーザインタフェースを作成するためにあらゆる組み合わせで組み合わせる、かつ/又は配置することができることを当業者であれば認識するであろう。このようなインタフェースはすべて、本開示の範囲内であることが意図される。 Additionally, the above examples are illustrative and not intended to be limiting with respect to various combinations of gestures, media actions, movement criteria, and threshold times. For example, although video capture is described with respect to rightward movement, burst media capture can alternatively be performed in response to rightward movement. Similarly, moving to the left may result in the capture of the first type of media (eg, still images) instead of resulting in burst media capture as described above. Those skilled in the art will recognize that various combinations of gestures, media actions, movement criteria, and threshold times can be combined and/or arranged in any combination to create a user interface in accordance with the scope of this disclosure. Will. All such interfaces are intended to be within the scope of this disclosure.
図11は、一部の実施形態による電子デバイスを使用したジェスチャによるメディアキャプチャを実行する方法を示すフロー図である。方法1100は、ディスプレイ、タッチ感知面、及び1つ以上のメディアキャプチャ構成要素(例えば、画像センサ、カメラ)を有するデバイス(例えば、100、300、500、800)で実行される。方法1100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
FIG. 11 is a flow diagram illustrating a method of performing gestural media capture using an electronic device according to some embodiments.
後述するように、方法1100は、ジェスチャによるメディアキャプチャを実行するための直感的な仕方を提供する。この方法は、メディアキャプチャを実行するユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作成する。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアキャプチャを実行することを可能にすることで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below, the
電子デバイス(例えば、600、900)は、ディスプレイ(例えば、タッチスクリーンディスプレイ902)上に、第1のユーザインタフェース要素(例えば、910、602、1000)を(例えば、601で、904で)表示する(1102)。電子デバイスは、(例えば、第1のユーザインタフェース要素を表示している間に)タッチ感知面(例えば、タッチスクリーンディスプレイ902)を介して、第1のユーザインタフェース要素に対応するタッチ感知面上の場所(例えば、910の場所、602の場所、1000の場所)で(タッチ感知面上のオブジェクトのタッチダウン(指を下ろす)イベントを)開始するタッチ入力(例えば、603、920、930、940、970、1002)を検出する(1104)。 An electronic device (eg, 600, 900) displays (eg, at 601, 904) a first user interface element (eg, 910, 602, 1000) on a display (eg, touch screen display 902) (1102). The electronic device, via a touch-sensitive surface (e.g., touch screen display 902) (e.g., while displaying the first user interface element), Touch inputs (e.g., 603, 920, 930, 940, 940, 940, 940, 920, 940, 940, 920, 940, 910, 910, 910, 602, 1000). 970, 1002) is detected (1104).
タッチ入力の検出に応答して(1106)、タッチ入力(例えば、920)が移動基準を満たす前に、かつタッチ入力(例えば、タッチスクリーンディスプレイ902上のタッチ入力のタッチダウンイベント)が検出されてから閾値時間(例えば、1秒)(例えば、ビデオが記録を自動的に開始する前の時間)が経過する前に、タッチ入力がタッチ感知面(例えば、902)からリフトされたとの判定に従って、電子デバイス(例えば、600、900)は、第1のタイプのメディア(例えば、単一の画像、及び/又は固定持続時間を有するビデオ)をキャプチャする(1108)。例えば、図9B~図9Cは、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過する前に、例示的なタッチ入力920(タップ入力ジェスチャ)がタッチスクリーン902からリフトされたとの判定に従って、第1のタイプのメディアをキャプチャするデバイス900を示す。
In response to detecting 1106 the touch input, before the touch input (eg, 920) meets the movement criteria, and the touch input (eg, a touchdown event of the touch input on the touch screen display 902) is detected. according to a determination that the touch input was lifted from the touch-sensitive surface (e.g., 902) before a threshold time (e.g., 1 second) elapses (e.g., the time before the video automatically begins recording) from An electronic device (eg, 600, 900) captures (1108) a first type of media (eg, a single image and/or a video having a fixed duration). For example, FIGS. 9B-9C illustrate an exemplary touch input 920 (tap input gesture) touching the
一部の実施形態では、タッチ入力(例えば、920)が移動基準を満たす前にタッチ入力がタッチ感知面(例えば、902)からリフトされたとの判定は、閾値を超える移動量(例えば、メディアキャプチャセッションをアンロックされたメディアキャプチャ状態からロックされたメディアキャプチャ状態を移行する(例えば、遷移させる)のに十分な移動)が検出される前にタッチ入力がリフトされたとの判定を含む。例えば、閾値量は、タッチダウンの場所(例えば、メディアキャプチャアフォーダンス)から既定の距離、又はタッチダウンの場所(例えば、メディアキャプチャアフォーダンス)から既定の領域/エリア/場所までの距離であってもよい。一部の実施形態では、タッチ入力が移動基準を満たす前にタッチ入力がタッチ感知面からリフトされたとの判定は、タッチ入力がメディアキャプチャアフォーダンス(例えば、910、602、1000)に対応する第1の領域(例えば、エリア、場所)の外に移動する前に、かつ/又は、タッチ入力が、リフトオフを検出した後に継続する第2のタイプのメディアのキャプチャに関連付けられた第2の領域(例えば、エリア、場所)内に移動する前に、タッチ入力がリフトされたとの判定を含む。例えば、第1の領域は、メディアキャプチャアイコンアフォーダンス910(又は、第2のタイプのメディアの記録を開始したことに従ってメディアキャプチャアイコンアフォーダンス910を取り替えた場合には停止アフォーダンス934)の場所とすることができ、第2の領域は、メディアキャプチャロックアフォーダンス932とすることができる。更なる例では、第2の領域は、移動経路インジケータ(例えば、974、1005)に沿った領域(例えば、図10Eのロック距離マーカ1008の右などの、特定の点又はアフォーダンス1000又は1010からの距離を通り越した領域)であってもよい。
In some embodiments, determining that the touch input (eg, 920) was lifted from the touch-sensitive surface (eg, 902) before the touch input (eg, 920) met the movement criteria is an amount of movement (eg, media capture including determining that the touch input is lifted before sufficient movement to transition (e.g., transition) the session from the unlocked media capture state to the locked media capture state is detected. For example, the threshold amount may be a predetermined distance from the touchdown location (e.g., media capture affordance) or a distance from the touchdown location (e.g., media capture affordance) to a predetermined region/area/location. . In some embodiments, determining that the touch input was lifted from the touch-sensitive surface before the touch input met the movement criteria is the first step to which the touch input corresponds to the media capture affordance (eg, 910, 602, 1000). before moving out of the region (e.g., area, location) of the second region (e.g., , area, location), including determining that the touch input has been lifted. For example, the first region may be the location of the media capture icon affordance 910 (or the
一部の実施形態では、メディアをキャプチャすることは、1つ以上のメディアキャプチャ構成要素(例えば、画像センサ、カメラ)を使用して1つ以上の画像(例えば、単一の画像、一連の画像を含むビデオ)を記録すること、(例えば、ビデオ記録中に)オーディオを(例えば、1つ以上のマイクロフォンを用いて)記録すること、及び、メディアライブラリ内にメディア項目(例えば、記録中の静止画像、記録されたビデオ)を記憶すること、のうち1つ以上を含む。例えば、メディア項目をキャプチャすることは、ビデオクリップの記録を開始すること、そのビデオクリップの記録を中止すること、及びビデオクリップがデバイスに関連付けられたメディアライブラリ(例えば、カメラロール)に関連付けられる(例えば、それにアクセスできる)ようにビデオクリップを記憶すること、を含むことができる。別の例として、「キャプチャを開始する」とは、デバイスがビデオの記録を開始することを指すことができる。別の例として、「キャプチャを中止する」とは、デバイスがビデオの記録を中止する(例えば、ビデオ記録を停止する)ことを指すことができる。一部の実施形態では、「キャプチャを中止する」結果キャプチャされたビデオは、(例えば、ビデオの記録が中止されたことに従って自動的に)メディアライブラリに記憶される。一部の実施形態では、デバイス(例えば、600、900)は、タッチ感知面上のタッチ入力のタッチダウンを検出したことに応答して、第1のタイプのメディアをキャプチャする。一部の実施形態では、デバイスは、(例えば、タッチダウンで開始する)タッチ入力の検出中、及びタッチ感知面上のタッチ入力のリフトオフの検出中の任意の時点で、第1のタイプのメディアをキャプチャする。一部の実施形態では、デバイスは、タッチ感知面からのタッチ入力のリフトオフに応答して、第1のタイプのメディアをキャプチャする。一部の実施形態では、タッチ感知面上のタッチ入力のタッチダウンの前に、第1のタイプのメディアがキャプチャされる(又はキャプチャを開始する)。例えば、デバイス(例えば、600、900)は、タッチ入力の前に(例えば、タッチ入力を予測して)記録していることがあり、タッチ入力に応答して、タッチ入力(例えば、603、920、930、940、970、1002)が実際にデバイスによって検出される前にキャプチャされた又は(例えば、ビデオ用に)キャプチャが開始された1つ以上のメディア項目をキャプチャする。 In some embodiments, capturing media involves capturing one or more images (e.g., a single image, a series of images) using one or more media capture components (e.g., image sensors, cameras). recording audio (e.g., using one or more microphones) (e.g., during video recording); and recording media items (e.g., static storing images, recorded video). For example, capturing a media item includes starting recording a video clip, stopping recording that video clip, and the video clip being associated with a media library (e.g., camera roll) associated with the device ( For example, storing the video clip so that it can be accessed. As another example, "start capturing" can refer to the device starting to record video. As another example, "stop capturing" can refer to a device stopping recording video (eg, stopping video recording). In some embodiments, the video captured as a result of "stop capturing" is stored in the media library (eg, automatically according to which video recording was stopped). In some embodiments, the device (eg, 600, 900) captures the first type of media in response to detecting touchdown of touch input on the touch-sensitive surface. In some embodiments, at any time during detection of touch input (e.g., beginning with touchdown) and during detection of liftoff of touch input on the touch-sensitive surface, the device detects the first type of media. to capture. In some embodiments, the device captures the first type of media in response to lift-off of touch input from the touch-sensitive surface. In some embodiments, the first type of media is captured (or begins capturing) prior to touchdown of the touch input on the touch-sensitive surface. For example, a device (e.g., 600, 900) may have recorded prior to touch input (e.g., anticipate touch input), and in response to touch input, touch input (e.g., 603, 920). , 930 , 940 , 970 , 1002 ) were captured or started capturing (eg, for video) before they were actually detected by the device.
タッチ入力を検出したことに応答して(1106)、タッチ入力(例えば、930)が移動基準を満たす前に(例えば、閾値移動量を検出される前に、タッチ入力がキャプチャアフォーダンス(例えば、910、602、1000)に対応する第1の領域の外に移動する前に、かつ/又は、タッチ入力が、(例えば、アフォーダンス932での)リフトオフ検出後も継続する第2のタイプのメディアのキャプチャに関連付けられた第2の領域内に移動する前に)、かつ、タッチ入力(例えば、タッチスクリーン902へのタッチダウンイベント)が検出されてから閾値時間(例えば、1秒)を経過した後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、電子デバイス(例えば、600、900)は、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する第2のタイプのメディア(例えば、オーディオを含むビデオ)をキャプチャする(1110)。例えば、例示的なタップアンドホールドジェスチャ入力930に応答して、デバイス900は、タッチ入力の持続時間に基づく(例えば、等しい)長さを有するビデオをキャプチャする。一部の実施形態では、第2のタイプのメディアの持続時間は、タッチ入力がタッチ感知面上で検出された持続時間と同じである。例えば、タッチ入力持続時間が8秒である場合、得られるビデオは8秒である。一部の実施形態では、第2のタイプのメディアの持続時間は、タッチ入力が閾値時間を超えた時からタッチ感知面からのタッチ入力のリフトオフまでの持続時間である。例えば、タッチ入力持続時間が8秒であり、閾値時間が1秒である場合、得られるビデオは7秒である。一部の実施形態では、タッチ入力は、メディアキャプチャセッションをロックされたメディアキャプチャ状態に移行させるための移動基準を満たさない移動を含み、デバイス(例えば、600、900)は、(例えば、閾値時間を満たすタッチ入力に応答して、又はタッチ入力の移動(例えば、特定の方向における特定の移動量)に応答して)第2のタイプのメディアのキャプチャをいずれにしても開始する。一部の実施形態では、タッチ入力が、(例えば、メディアキャプチャロックアフォーダンスに向かう(例えば、最小量の)タッチ入力の移動に応答して)デバイス(例えば、600、900)に第2のタイプのメディアのキャプチャを開始させる移動基準(例えば、メディアキャプチャロック状態を可能にする基準と同一又は異なる)を満たす前に、タッチ入力は閾値時間検出されていない。図9D~図9Fは、タッチ入力が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、例示的なタッチ入力930がタッチ感知面からリフトされたとの判定に従って、タッチ感知面上のタッチ入力の持続時間に基づく持続時間を有する、第2のタイプのメディアをキャプチャするデバイス900を示す。
In response to detecting 1106 touch input, touch input is captured affordance (eg, 910) before the touch input (eg, 930) meets the movement criterion (eg, before threshold movement is detected). , 602, 1000) and/or the second type of media capture where the touch input continues after liftoff detection (eg, at affordance 932). before moving into a second region associated with the Upon determining that the touch input has been lifted from the touch-sensitive surface, the electronic device (eg, 600, 900) outputs a second type of media (eg, video (including audio) is captured (1110). For example, in response to exemplary tap-and-
タッチ入力を検出したことに応答して(1106)、タッチ入力(例えば、940、603)が移動基準を満たし、第1の方向への(例えば、図9G~図9Iに示すように)移動を含むとの判定に従って(例えば、タッチ入力は、第1の方向(例えば、タッチ感知面の第1の縁部に向かう、メディアキャプチャアフォーダンス910からメディアキャプチャロックアフォーダンス932に向かう)への2つ以上の閾値移動量(例えば、メディアキャプチャアフォーダンス910の場所からメディアキャプチャロックアフォーダンス932の場所への移動)を含む、又はタッチ入力が、(例えば、アフォーダンス932での)リフトオフの検出後に継続する第2のタイプのメディアのキャプチャに関連付けられた第2の領域内に移動しているとき)、電子デバイス(例えば、600、900)は、第2のタイプのメディア(例えば、ビデオ)のキャプチャを開始し、タッチ感知面からのタッチ入力のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続する(1112)。例えば、図9G~図9Jは、例示的なタッチ入力940が移動基準を満たし(例えば、アフォーダンス932の場所のリフトオフ)、第1の方向(例えば、アフォーダンス932に向かう)への移動を含むとの判定に従って、第2のタイプのメディアのキャプチャを開始し、(リフトオフ後に)キャプチャを継続するデバイス900を示す。更なる例では、図10A~図10Fは、移動基準を満たし(例えば、第1の方向へロック距離マーカ1008を通り越した移動)、第1の方向(例えば、右)への移動を含む例示的なタッチ入力1002を示す。一部の実施形態では、閾値時間が経過したかどうか、及び/又はタッチ入力の移動が閾値時間に対して開始又は終了したタイミングにかかわらず、移動基準を満たし、第1の方向への移動を含むタッチ入力に応答して、デバイスは上述した動作を実行する。例えば、デバイス900は、タッチ入力(例えば、閾値時間が1秒である場合)に応答してビデオの記録を開始することができ、タッチ入力が静止したタップアンドホールドであることを検出した(かつビデオを記録した)2分後に、デバイスは、タッチ入力が移動してメディアキャプチャセッションのロック基準を満たすことを検出し、それに応じて、デバイスはリフトオフ後に記録を継続することになる。
In response to detecting a touch input (1106), the touch input (eg, 940, 603) satisfies the movement criteria and causes movement in a first direction (eg, as shown in FIGS. 9G-9I). (e.g., touch input is directed to a first edge of the touch-sensitive surface, from
一部の実施形態では、メディアのキャプチャを継続することは、メディアキャプチャセッションをアンロックされたメディアキャプチャ状態からロックされたメディアキャプチャ状態(例えば、「ロックされたメディアキャプチャセッション状態」とも呼ばれる)に遷移させることを含む。一部の実施形態では、電子デバイス(例えば、600、900)は、ユーザインタフェース要素(例えば、マーカ1008、アフォーダンス932又は1004)、又は移動基準を満たすタッチ入力移動量の他のグラフィカル表示を表示する。一部の実施形態では、デバイスは、2つ以上のユーザインタフェース要素を表示する。一部の実施形態では、各ユーザインタフェース要素は、(例えば、異なるメディアキャプチャ関連動作に関連付けられた)同じ又は異なる移動基準に対応することができる。例えば、デバイスは、メディアキャプチャセッションをメディアキャプチャ状態に移行させ、したがって、タッチ入力(例えば、1002)のリフトオフの後に継続する移動量を示すエリア(例えば、932のエリア、1008の右のエリア)を示すグラフィカルユーザインタフェース要素(例えば、932、1008)を表示する。一部の実施形態では、移動基準は、(例えば、図10A~図10Fに関して図示し説明したように)第1のユーザインタフェース要素(例えば、1000)と他のユーザインタフェース要素(例えば、1004)との間の距離(例えば、その一部)よりも短い移動である。例えば、例示的な第1のユーザインタフェース要素1000から例示的なユーザインタフェース要素1004までの距離の少なくとも50%のタッチ入力1002の移動及びリフトオフは、タッチ入力のリフトオフ後にメディアのキャプチャを継続するために十分であり得る。
In some embodiments, continuing to capture media moves the media capture session from an unlocked media capture state to a locked media capture state (e.g., also referred to as a "locked media capture session state"). Including transitioning. In some embodiments, the electronic device (eg, 600, 900) displays a user interface element (eg,
第1のタイプのメディア、特定の持続時間を有する第2のタイプのメディア、及びキャプチャされ続ける第2のタイプのメディアをキャプチャするかどうかを判定するために、移動基準と閾値時間の1つ以上の組み合わせを使用すると、追加の表示された制御でユーザインタフェース(例えば、GUI)を雑然とさせずに追加の制御オプションが提供される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザを適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。更に、ユーザは、単一の技法を使用してビデオ記録を開始し、ビデオ記録を開始した後に、デバイスが記録を迅速に終了するか、それとも記録を延長するかを示す異なる継続ジェスチャを実行することができる。更に、ユーザは、迅速に記録を開始し、記録開始後に、写真、短いビデオ、又は長いビデオをキャプチャするかどうかを決定することができる。更に、これにより、ディスプレイ上に表示する必要がある制御の数が低減される(例えば、静止写真ボタン及びビデオボタンの両方、又は異なるタイプのメディア用の3つの異なるボタンは必要とされない)。スクリーンスペースの節約は、ユーザがキャプチャしているコンテンツのカメラプレビューを表示するために、スクリーンの残りの部分を使用することがある場合に特に重要である。 one or more of a movement criterion and a threshold time to determine whether to capture a first type of media, a second type of media having a specified duration, and a second type of media that continues to be captured; Using the combination of provides additional control options without cluttering the user interface (eg, GUI) with additional displayed controls. By providing additional control options without cluttering the UI with additional controllers being displayed, the usability of the device is enhanced and the user-device interface (e.g., when operating/interacting with the device making the device more efficient (by helping the user to give the correct input and reducing user error), as well as by enabling the user to use the device more quickly and efficiently Reduced usage and improved battery life. In addition, the user can use a single technique to start video recording, and after starting video recording, perform different continue gestures to indicate whether the device should end the recording quickly or extend the recording. be able to. Additionally, the user can quickly start recording and decide whether to capture a photo, short video, or long video after starting the recording. Furthermore, this reduces the number of controls that need to be shown on the display (eg, both still photo and video buttons, or three different buttons for different types of media are not required). Saving screen space is especially important when the rest of the screen may be used to display a camera preview of the content the user is capturing.
第1のタイプのメディア、特定の持続時間を有する第2のタイプのメディア、及びキャプチャされ続ける第2のタイプのメディアをキャプチャするかどうかを判定するために、移動基準と閾値時間の1つ以上の組み合わせを使用すると、特定のユーザインタフェースから開始の際に、これらの動作のうち1つ以上を実行するのに必要な入力数が低減される。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 one or more of a movement criterion and a threshold time to determine whether to capture a first type of media, a second type of media having a specified duration, and a second type of media that continues to be captured; Using a combination of , reduces the number of inputs required to perform one or more of these operations when starting from a particular user interface. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reducing device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved.
ユーザインタフェース要素上のタッチ入力の移動基準を使用すると、キャプチャされたタッチ入力のリフトオフ後にメディアのタイプがキャプチャされ続けるかどうかを制御するために(例えば、第2の)タイプのメディアのキャプチャを引き起こす/開始するために使用可能であり、ユーザインタフェース(例えば、GUI)を追加で表示された制御により雑然とさせずに、追加の制御オプションが提供される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザを適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Using touch input movement criteria on a user interface element triggers the capture of a (e.g., second) type of media to control whether that type of media continues to be captured after liftoff of captured touch input. / to provide additional control options without cluttering the user interface (eg, GUI) with additional displayed controls. By providing additional control options without cluttering the UI with additional controllers being displayed, the usability of the device is enhanced and the user-device interface (e.g., when operating/interacting with the device making the device more efficient (by helping the user to give the correct input and reducing user error), as well as by enabling the user to use the device more quickly and efficiently Reduced usage and improved battery life.
一部の実施形態では、タッチ入力(例えば、図9D~図9Fの930)が移動基準を満たす前に、かつタッチ入力が検出されてから閾値時間が経過した後に、タッチ入力がタッチ感知面(例えば、902)からリフトされたとの判定に従って、電子デバイス(例えば、600、900)は、タッチ入力のリフトオフを検出した(例えば、記録されたビデオ持続時間の終了がリフトオフで発生した)ことに応答して、(例えば、図9D~図9Fに示すように)第2のタイプのメディア(例えば、ビデオ)のキャプチャを中止する(例えば、ビデオの記録を中止し、得られたビデオをメディアライブラリに記憶する)。 In some embodiments, before the touch input (eg, 930 in FIGS. 9D-9F) meets the movement criteria and after a threshold time has elapsed since the touch input was detected, the touch input is detected on the touch-sensitive surface ( 902), the electronic device (e.g., 600, 900) responds to detecting liftoff of the touch input (e.g., the end of the recorded video duration occurred at liftoff). to stop capturing the second type of media (eg, video) (eg, as shown in FIGS. 9D-9F) (eg, stop recording the video and store the resulting video in the media library). Remember).
一部の実施形態では、第1のタイプのメディアは、タッチ感知面(例えば、902)上のタッチ入力(例えば、920)の持続時間とは無関係の持続時間を有する。例えば、第1のタイプのメディアは、(例えば、タッチスクリーンディスプレイ902上の)タッチ入力持続時間に影響されない一定の長さ(例えば、3秒の長さ)を有するビデオであってもよく、静止写真又は他の写真若しくはその静止写真の前にかつ/又はその後に既定の持続時間にわたるオーディオコンテンツなどのメディアのシーケンスを伴う静止写真であってもよい。 In some embodiments, the first type of media has a duration that is independent of the duration of touch input (eg, 920) on the touch-sensitive surface (eg, 902). For example, the first type of media may be video having a fixed length (eg, 3 seconds long) that is not affected by touch input duration (eg, on touch screen display 902), static It may be a still photograph with a sequence of media such as audio content for a predetermined duration preceding and/or following the photograph or other photograph or still photograph thereof.
一部の実施形態では、移動基準は第1の移動基準であり、タッチ入力(例えば、970)を検出したことに応答して(1106)、タッチ入力が第2の移動基準(例えば、図9M~図9Nのメディアキャプチャアフォーダンス910の領域/場所の外への移動)を満たし、第1の方向(例えば、図9M~図9Nの右へ)とは異なる第2の方向(例えば、図9M~図9Nのメディアキャプチャアフォーダンス910(又は停止アフォーダンス934)の場所の左へ)への移動を含むとの判定に従って、電子デバイス(例えば、600、900)は、第1のタイプのメディア(例えば、静止写真)のメディア項目のシーケンス(例えば、バースト画像キャプチャモードを開始する)のキャプチャを開始し(1114)、キャプチャされたメディア項目の数は、タッチ感知面上のタッチ入力の持続時間(例えば、ユーザインタフェース要素の場所(例えば、910、602、1000、934、605)から閾値距離を超える間の、又はタッチ入力が第1のタイプのメディアのメディア項目のシーケンスのキャプチャに関連付けられた既定の領域(例えば、アフォーダンス910、934、602、1000、又は605の左への領域)にある間の、タッチ入力の持続時間)に基づいて決定される。例えば、タッチ入力が、第1の方向(例えば、図9M~図9Nの右へ)とは異なる(例えば、それとは反対に、タッチ感知面の第2の端部に向かって)第2の方向への閾値を超える移動量(例えば、バーストモードを有効にするのに十分な)を含む、又は第1のタイプのメディアのメディア項目のシーケンスのキャプチャに関連付けられた既定の領域(例えば、図9M~図9Nのメディアキャプチャアフォーダンス910の左の領域)への移動を含む場合、タッチ入力は第2の移動基準を満たすことができる。メディア項目のシーケンスのキャプチャは、バーストモード、バースト画像キャプチャモード、連続撮影モードなどと呼ばれる場合もある。
In some embodiments, the movement criterion is a first movement criterion and in response to detecting 1106 touch input (eg, 970) touch input is a second movement criterion (eg, FIG. 9M). 9N) and a second direction (eg, to the right in FIGS. 9M-9N) that is different from the first direction (eg, to the right in FIGS. 9M-9N). In accordance with a determination to include movement to the left of the location of media capture affordance 910 (or stop affordance 934) in FIG. start capturing 1114 a sequence of media items (e.g., initiate a burst image capture mode) (e.g., start a burst image capture mode), and the number of media items captured is determined by the duration of the touch input on the touch-sensitive surface (e.g., user A predetermined region (e.g., 910, 602, 1000, 934, 605) from the location of the interface element (e.g., 910, 602, 1000, 934, 605) while exceeding a threshold distance or where touch input is associated with capturing a sequence of media items of the first type of media ( For example, the duration of the touch input while in the area to the left of
一部の実施形態では、第2の移動基準を満たす移動は、閾値時間の前に生じる。例えば、移動基準は、デバイスがメディア項目のシーケンスのキャプチャを開始するために、第2の方向への移動が閾値時間内に発生しなければならないことを要求することができる。一部の実施形態では、移動は閾値時間の前に開始する。例えば、移動基準は、デバイスがメディア項目のシーケンスのキャプチャを開始するために、第2の方向への移動が(例えば、閾値時間の後に移動が終了した場合であっても)閾値時間の前に開始されなければならないことを要求することができる。一部の実施形態では、第2の移動基準は、閾値持続時間が経過した後に開始する移動によって満たされ得る。一部の実施形態では、第2の移動基準は、任意の移動(例えば、特定の(例えば、第2の)方向への任意の移動)を含む。一部の実施形態では、第2の移動基準は、(例えば、第2の方向への)閾値量の移動(例えば、最小距離)を含む。一部の実施形態では、第2の移動基準は、タッチ入力が、メディアキャプチャアフォーダンス(例えば、910、602、1000)に対応する第1の領域の外側に移動しているという要件を含む。一部の実施形態では、第2の移動基準は、タッチ入力が、第1のタイプのメディア項目のシーケンスのキャプチャに関連付けられた第2の領域(例えば、場所)内に移動しているという要件を含む。一部の実施形態では、第1の移動基準と第2の移動基準は同じであるが、異なる方向(例えば、同じ距離要件だが、反対方向)である。 In some embodiments, movement meeting the second movement criterion occurs before the threshold time. For example, the movement criteria may require that movement in the second direction must occur within a threshold amount of time for the device to begin capturing the sequence of media items. In some embodiments, movement begins before the threshold time. For example, the movement criteria may be such that movement in the second direction occurs before a threshold time (e.g., even if movement ends after the threshold time) for the device to begin capturing a sequence of media items. You can request that it should be started. In some embodiments, the second movement criterion may be met by movement starting after a threshold duration has elapsed. In some embodiments, the second movement criterion includes any movement (eg, any movement in a particular (eg, second) direction). In some embodiments, the second movement criterion includes a threshold amount of movement (eg, minimum distance) (eg, in the second direction). In some embodiments, the second movement criterion includes a requirement that the touch input is moving outside the first region corresponding to media capture affordances (eg, 910, 602, 1000). In some embodiments, the second movement criterion is a requirement that the touch input is moving within a second region (e.g., location) associated with capturing the sequence of media items of the first type. including. In some embodiments, the first movement criterion and the second movement criterion are the same but in different directions (eg, same distance requirement but opposite directions).
第1のタイプのメディア、特定の持続時間を有する第2のタイプのメディア、キャプチャされ続ける第2のタイプのメディア、及び第1のタイプのメディア項目のシーケンスをキャプチャするかどうかを判定するために、移動基準と閾値時間の1つ以上の組み合わせを使用すると、追加の表示された制御でユーザインタフェース(例えば、GUI)を雑然とさせずに追加の制御オプションが提供される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザを適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 To determine whether to capture a first type of media, a second type of media having a specified duration, a second type of media that continues to be captured, and a sequence of the first type of media items. , the use of one or more combinations of movement criteria and threshold times provides additional control options without cluttering the user interface (eg, GUI) with additional displayed controls. By providing additional control options without cluttering the UI with additional controllers being displayed, the usability of the device is enhanced and the user-device interface (e.g., when operating/interacting with the device making the device more efficient (by helping the user to give the correct input and reducing user error), as well as by enabling the user to use the device more quickly and efficiently Reduced usage and improved battery life.
第1のタイプのメディア、特定の持続時間を有する第2のタイプのメディア、及びキャプチャされ続ける第2のタイプのメディア、及び第1のタイプのメディア項目のシーケンスをキャプチャするかどうかを判定するために、移動基準と閾値時間の1つ以上の組み合わせを使用すると、特定のユーザインタフェースから開始の際に、これらの動作のうち1つ以上を実行するのに必要な入力数が低減される。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 To determine whether to capture a first type of media, a second type of media having a specified duration, and a second type of media that continues to be captured, and a sequence of the first type of media items. Additionally, using one or more combinations of movement criteria and threshold times reduces the number of inputs required to perform one or more of these operations when starting from a particular user interface. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reducing device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved.
一部の実施形態では、タッチ入力(例えば、970)が第2の移動基準を満たし、第1の方向とは異なる第2の方向(例えば、それとは反対に、タッチ感知面の第2の縁部に向かう)への移動(例えば、バーストモードを有効にするのに十分な)を含むとの判定に従って、電子デバイス(例えば、600、900)は、タッチ入力のリフトオフを検出したことに応答して(例えば、図9Pの970のリフトオフに応答して)、第1のタイプのメディアのメディア項目のシーケンスのキャプチャを中止する(例えば、持続時間の終了はリフトオフ時に発生する)。例えば、タッチ入力970のリフトオフに応答して、デバイス900は、バースト画像キャプチャの実行(例えば、高速で連続した静止画像の記録)を停止する(例えば、キャプチャされた画像を記憶する)。
In some embodiments, the touch input (eg, 970) satisfies a second movement criterion and moves in a second direction different from the first direction (eg, opposite to the second edge of the touch sensitive surface). (e.g., sufficient to enable burst mode), the electronic device (e.g., 600, 900) responds to detecting liftoff of the touch input. (eg, in response to liftoff at 970 of FIG. 9P), stop capturing the sequence of media items of the first type of media (eg, the end of duration occurs at liftoff). For example, in response to touch
一部の実施形態では、(例えば、図9N~図9Pに示すように)第1のタイプのメディアのメディア項目のシーケンスのキャプチャを継続している間、電子デバイス(例えば、600、900)は、ディスプレイ(例えば、902)上に、メディア項目のシーケンスのキャプチャの開始以降にキャプチャされた第1のタイプのメディアのメディア項目の数(例えば、図9Nの972、図9O~図9Pの976)を表示する(例えば、シーケンスキャプチャが継続するにつれてメディア項目の数が増加する)。一部の実施形態では、メディア項目の数は、ディスプレイ上の第1のユーザインタフェース要素の場所(例えば、図9Mに示すようなメディアキャプチャアフォーダンス910の場所)に表示される。一部の実施形態では、表示されたメディア項目の数は、タッチ入力の検出以降にキャプチャされたメディア項目の数に基づく。
In some embodiments, while continuing to capture a sequence of media items of the first type of media (eg, as shown in FIGS. 9N-9P), the electronic device (eg, 600, 900) , on the display (eg, 902) the number of media items of the first type media captured since the start of capturing the sequence of media items (eg, 972 in FIG. 9N, 976 in FIGS. 9O-9P). (eg, the number of media items increases as the sequence capture continues). In some embodiments, the number of media items is displayed at the location of the first user interface element on the display (eg, at the location of
一部の実施形態では、メディア項目のシーケンスのキャプチャの開始以降にキャプチャされた第1のタイプのメディアのメディア項目の数をディスプレイ(例えば、902)上に表示することは、電子デバイス(例えば、600、900)がディスプレイ上の初期位置(例えば、図9Nの972の場所)でキャプチャされた第1のタイプのメディアのメディア項目の数を、ディスプレイ上に表示することを含む。タッチ入力(例えば、970)が、ディスプレイ上の初期位置に対応するタッチ感知面上の場所への移動を含む(例えば、タッチ入力970は、図9N~図9Oに示すように移動する)との判定に従って、電子デバイスは、ディスプレイ上に、ディスプレイ上の第1のユーザインタフェース要素の場所(例えば、図9Oでは、976は図9Mに示すメディアキャプチャアフォーダンス910と同じ場所で表示される)での第1のタイプのメディアのメディア項目の数(例えば、図9O~図9Pの976)を表示する。電子デバイスは、ディスプレイ上の初期位置に第1のタイプのメディアのメディア項目の数を表示することを中止する(例えば、972はもはや図9O~図9Pに表示されなくなる)。
In some embodiments, displaying on a display (e.g., 902) the number of media items of the first type of media that have been captured since beginning capture of the sequence of media items is performed by an electronic device (e.g., 600, 900) includes displaying on the display the number of media items of the first type of media that were captured at the initial location on the display (
タッチ入力の初期位置への移動に従って新しい場所でキャプチャされたメディア項目の数を表示することにより、情報がタッチ入力によって覆い隠されるのを防止するよう視覚的フィードバックを改善する。フィードバックを改善すると、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を付与することを支援し、ユーザの間違いを低減することによって)デバイスの操作性が向上し、ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 By displaying the number of media items captured at new locations as the touch input moves to its initial position, visual feedback is improved to prevent information from being obscured by the touch input. Improving feedback improves the usability of the device (e.g., by helping the user to provide appropriate input and reducing user error when operating/interacting with the device), and devices interface more efficiently, which allows users to use the device more quickly and efficiently, further reducing power usage and improving device battery life.
一部の実施形態では、電子デバイス(例えば、600、900)は、第2のユーザインタフェース要素(例えば、アイコン、アフォーダンス、又は距離マーカ)(例えば、メディアキャプチャロックアフォーダンス932、メディアキャプチャロックアフォーダンス1004、ロック距離マーカ1008)をディスプレイ(例えば、902)上に表示し(1116)、第1のユーザインタフェース要素(例えば、910の場所、934の場所、1000の場所、602の場所、605の場所)から第2のユーザインタフェース要素(例えば、932、1004、1008)へのタッチ入力(例えば、940、603)の移動は、移動基準を満たす(例えば、移動基準は、第2のユーザインタフェース要素に向かう(例えば、ある方向への)閾値移動量、又はリフトオフ後にキャプチャされ続ける第2のタイプのメディアのキャプチャに関連付けられた第1の領域(例えば、第2のユーザインタフェース要素の領域)への移動を検出することを含む)。一部の実施形態では、第2のユーザインタフェース要素に対応する場所での(例えば、932又は1004の場所での、マーカ1008の右への領域における)タッチ入力のリフトオフは、第2のタイプのメディアがリフトオフ後に記録され続けるために必要とされる。
In some embodiments, the electronic device (eg, 600, 900) uses a second user interface element (eg, icon, affordance, or distance marker) (eg, media
移動基準を満たすユーザインタフェース要素を表示することにより、動作を実行するのに必要とされる入力移動に関する改善された視覚的フィードバックが提供される。改善されたフィードバックを備えることにより、(例えば、ユーザが適切な入力を与えるのを支援し、デバイスを操作する/デバイスと対話するときにユーザのミスを減らすことによって)デバイスの操作性が向上し、ユーザーデバイス間のインタフェースがより効率的になり、これにより、ユーザによるデバイスのより迅速かつ効率的な使用を可能にすることで、追加的に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 Displaying user interface elements that meet movement criteria provides improved visual feedback regarding the input movement required to perform an action. Providing improved feedback improves the operability of the device (e.g., by helping the user provide appropriate input and reducing user error when operating/interacting with the device). , the interface between user devices becomes more efficient, allowing users to use their devices more quickly and efficiently, which additionally reduces power usage and improves device battery life be done.
一部の実施形態では、タッチ感知面(例えば、902)からのタッチ入力(例えば、940、603)のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続することに従って、電子デバイス(例えば、600、900)は、第2のユーザインタフェース要素(例えば、図9Iの932)を、第2のユーザ要素とは異なる第3のユーザインタフェース要素(例えば、図9Iの944)に変更する。一部の実施形態では、第2のユーザインタフェース要素は、タッチ入力の移動に応答して変わる。一部の実施形態では、第2のユーザインタフェース要素は、(例えば、メディアキャプチャロックアフォーダンスの場所での)タッチ入力のリフトオフに応答して変わる。一部の実施形態では、第2のユーザインタフェース要素は、メディアキャプチャセッションがロックされたメディアキャプチャ状態に移行したことに応答して変わる。 In some embodiments, the electronic device (e.g., 902) continues to capture media of the second type after detecting lift-off of the touch input (e.g., 940, 603) from the touch-sensitive surface (e.g., 902). 600, 900) change a second user interface element (eg, 932 in FIG. 9I) to a third user interface element (eg, 944 in FIG. 9I) that is different from the second user interface element. In some embodiments, the second user interface element changes in response to movement of the touch input. In some embodiments, the second user interface element changes in response to touch input lift-off (eg, at media capture lock affordance locations). In some embodiments, the second user interface element changes in response to the media capture session transitioning to a locked media capture state.
一部の実施形態では、タッチ入力(例えば、940、603)と、第2のユーザインタフェース要素に対応するタッチ感知面上の場所(例えば、ユーザインタフェース要素932の場所)との間の対話に応答して、第2のユーザインタフェース要素(例えば、932)は第3のユーザインタフェース要素(例えば、944)に変わる。例えば、タッチ入力940がメディアキャプチャロックアフォーダンス932の場所にドラッグされたときに、対話を行うことができる。更なる例では、対話は、タッチ入力940がメディアキャプチャロックアフォーダンス932の場所にあるときにリフトオフすると行うことができる。
In some embodiments, in response to interaction between touch input (eg, 940, 603) and a location on the touch-sensitive surface corresponding to the second user interface element (eg, location of user interface element 932) As such, the second user interface element (eg, 932) turns into a third user interface element (eg, 944). For example, interaction can occur when
一部の実施形態では、タッチ入力(例えば、940、603)は第1のタッチ入力であり、第2のタイプのメディア(例えば、ビデオ)のキャプチャを継続している間、電子デバイス(例えば、600、900)は、第3のユーザインタフェース要素(例えば、944)に対応するタッチ感知面上の場所での第2のタッチ入力(例えば、960)を、タッチ感知面(例えば、902)を介して検出する。第2のタッチ入力を検出したことに応答して、電子デバイスは、(例えば、第2のタイプのメディアのキャプチャを継続している間)第1のタイプのメディアをキャプチャする(例えば、静止写真を撮る)。 In some embodiments, the touch input (e.g., 940, 603) is the first touch input and continues to capture the second type of media (e.g., video) while the electronic device (e.g., 600, 900) receives a second touch input (eg, 960) at a location on the touch sensitive surface corresponding to a third user interface element (eg, 944) via the touch sensitive surface (eg, 902). to detect. In response to detecting a second touch input, the electronic device captures media of the first type (e.g., a still photograph) (e.g., while continuing to capture media of the second type). ).
一部の実施形態では、タッチ感知面上のタッチ入力(例えば、940、603)を検出している間(例えば、タッチダウン直後、又はタッチ入力の第1の方向への移動の直後)、電子デバイス(例えば、600、900)は、ディスプレイ上の第1のユーザインタフェース要素の場所(例えば、910の場所、934の場所、1000の場所、602の場所、605の場所)から第1の方向への方向インジケータ(例えば、943、975、1005、604a、604b)をディスプレイ(例えば、902)上に表示する(1118)。
In some embodiments, the electronic The device (eg, 600, 900) moves in a first direction from the location of the first user interface element on the display (eg,
一部の実施形態では、方向インジケータ(例えば、943、975、1005、604a、604b)は、(例えば、移動基準を満たす)方向の線(例えば、実線、点線、破線)、矢印、アニメーション、及び他のグラフ表示のうちの1つ以上を含むことができる。一部の実施形態では、方向インジケータは、移動基準を満たすのに必要な移動量(例えば、ロック距離マーカ1008を含む移動経路インジケータ1005)を示す。一部の実施形態では、方向インジケータは、移動基準を満たすために(例えば、タッチ入力のリフトオフを必要とする場合にも、又は必要としない場合にも)タッチ入力を移動させる必要がある領域又は場所(例えば、ロック距離マーカ1008を含む移動経路インジケータ1005)を示す。
In some embodiments, the directional indicators (eg, 943, 975, 1005, 604a, 604b) are directional lines (eg, solid, dotted, dashed), arrows, animations, and One or more of the other graphical representations may be included. In some embodiments, the directional indicator indicates the amount of travel required to meet the travel criteria (eg,
方向インジケータを表示することにより、動作を実行するのに必要な入力移動に関する改善された視覚的フィードバックが提供される。フィードバックを改善すると、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を付与することを支援し、ユーザの間違いを低減することによって)デバイスの操作性が向上し、ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 Displaying a directional indicator provides improved visual feedback regarding the input movement required to perform an action. Improving feedback improves the usability of the device (e.g., by helping the user to provide appropriate input and reducing user error when operating/interacting with the device), and devices interface more efficiently, which allows users to use the device more quickly and efficiently, further reducing power usage and improving device battery life.
一部の実施形態では、タッチ入力(例えば、940、603)が第1の方向への移動を含むとの判定に従って、方向インジケータ(例えば、943、975、1005、604a、604b)が表示される。例えば、タッチ入力940が(例えば、メディアキャプチャロックアフォーダンス932に向かって)移動を開始するまで、移動経路インジケータ943は表示されない。一部の実施形態では、デバイスは、タッチ入力を検出したことに応答して、又は閾値時間タッチ入力を検出したことに応答して、移動経路インジケータを表示する。
In some embodiments, a directional indicator (eg, 943, 975, 1005, 604a, 604b) is displayed following a determination that the touch input (eg, 940, 603) includes movement in a first direction. . For example,
一部の実施形態では、タッチ感知面(例えば、902)からタッチ入力のリフトオフ(例えば、図9I~図9Jの940のリフトオフ、603のリフトオフ)を検出した後に、第2のタイプのメディア(例えば、ビデオ)のキャプチャ継続することに従って、電子デバイス(例えば、600、900)は、第1のユーザインタフェース要素(例えば、910、602、1000)を第4のユーザインタフェース要素(例えば、図9Jの934、図6D~図6Fの605)に変更する(1120)。一部の実施形態では、第1のユーザインタフェース要素は、(例えば、図9Hに示すように)第2のタイプのメディアのキャプチャを開始したことに従って、第4のユーザインタフェース要素に変わる。一部の実施形態では、第1のユーザインタフェース要素は、(例えば、(例えば、図10A~図10Dに示されるように)第1のユーザインタフェース要素に対応するエリアから外への)タッチ入力の移動に従って第4のユーザインタフェース要素に変わる。一部の実施形態では、電子デバイスは、タッチ入力のリフトオフに応答して、第1のユーザインタフェース要素を第4のユーザインタフェース要素に変わる。 In some embodiments, after detecting lift-off of the touch input from the touch-sensitive surface (eg, 902) (eg, lift-off at 940, lift-off at 603 in FIGS. 9I-9J), a second type of media (eg, , video), the electronic device (eg, 600, 900) replaces the first user interface element (eg, 910, 602, 1000) with the fourth user interface element (eg, 934 in FIG. 9J). , 605 in FIGS. 6D-6F) (1120). In some embodiments, the first user interface element changes to a fourth user interface element upon initiating capture of the second type of media (eg, as shown in FIG. 9H). In some embodiments, the first user interface element is a touch input (eg, out of an area corresponding to the first user interface element (eg, as shown in FIGS. 10A-10D)). It changes to a fourth user interface element as it moves. In some embodiments, the electronic device changes a first user interface element to a fourth user interface element in response to touch input liftoff.
第2のタイプのメディアのキャプチャを継続することに従って、ユーザインタフェース要素を変更することにより、ユーザインタフェース(例えば、GUI)を追加的に表示されたコントロールで雑然とさせずに、関連する代替の制御オプションが提供される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザを適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Related alternative controls without cluttering the user interface (e.g., GUI) with additional displayed controls by modifying the user interface elements as the second type of media continues to be captured. Options are provided. By providing additional control options without cluttering the UI with additional controllers being displayed, the usability of the device is enhanced and the user-device interface (e.g., when operating/interacting with the device making the device more efficient (by helping the user to give the correct input and reducing user error), as well as by enabling the user to use the device more quickly and efficiently Reduced usage and improved battery life.
一部の実施形態では、タッチ入力(例えば、940、603)は第1のタッチ入力であり、タッチ感知面(例えば、902)からのタッチ入力(例えば、940、603)のリフトオフを検出した後に、第2のタイプのメディアのキャプチャを継続している間、電子デバイス(例えば、600、900)は、タッチ感知面を介して、第4のユーザインタフェース要素(例えば、934、605)に対応するタッチ感知面上の場所における第3のタッチ入力(例えば、950、606)を検出する。第3のタッチ入力を検出したことに応答して、電子デバイスは、第2のタイプのメディアのキャプチャを中止する(例えば、ビデオの記録を停止し、記録されたビデオをメディアライブラリに記憶する)。 In some embodiments, the touch input (eg, 940, 603) is the first touch input and after detecting liftoff of the touch input (eg, 940, 603) from the touch sensitive surface (eg, 902) , while continuing to capture media of the second type, the electronic device (eg, 600, 900) responds via the touch-sensitive surface to a fourth user interface element (eg, 934, 605) Detect a third touch input (eg, 950, 606) at a location on the touch sensitive surface. In response to detecting the third touch input, the electronic device ceases capturing the second type of media (eg, stops recording the video and stores the recorded video in the media library). .
一部の実施形態では、第1のタイプのメディアは、静止画像及びビデオ(例えば、固定持続時間、及び/又はタッチ入力の持続時間とは無関係の持続時間を有するビデオクリップ)のうちの1つ以上である。 In some embodiments, the first type of media is one of still images and video (e.g., video clips with a fixed duration and/or a duration independent of the duration of the touch input). That's it.
一部の実施形態では、1つ以上のメディアキャプチャ構成要素(例えば、カメラ、画像センサ)によって第1のタイプのメディアをキャプチャすることは、タッチ感知面上のタッチ入力(例えば、603、920、930、940、970、1002)(例えば、902上のタッチダウン)を検出したことに応答して、又はタッチ感知面からのタッチ入力のリフトオフに応答して行われる。一部の実施形態では、タッチ入力がタッチ感知面上で検出されている間に、第1のタイプのメディアのキャプチャが行われる。 In some embodiments, capturing the first type of media by one or more media capture components (e.g., cameras, image sensors) is performed by touch input on the touch-sensitive surface (e.g., 603, 920, 930, 940, 970, 1002) (eg, a touchdown on 902) or in response to liftoff of touch input from the touch sensitive surface. In some embodiments, the first type of media is captured while touch input is detected on the touch-sensitive surface.
一部の実施形態では、第2のタイプのメディアは、(例えば、タッチ入力の長さに関連する持続時間を有する、又は停止アフォーダンス(例えば、934、605)が選択されるまでの)ビデオである。 In some embodiments, the second type of media is video (e.g., having a duration related to the length of the touch input, or until a stop affordance (e.g., 934, 605) is selected). be.
一部の実施形態では、1つ以上のメディアキャプチャ構成要素(例えば、カメラ、画像センサ)によって第2のタイプのメディアをキャプチャすることは、タッチ入力がタッチ感知面上で閾値時間(例えば、1秒)を超えて検出されたことに応答して、ビデオの記録を開始することを含む。 In some embodiments, capturing the second type of media by one or more media capture components (e.g., cameras, image sensors) is such that touch input is on the touch-sensitive surface for a threshold time (e.g., 1 seconds), including initiating video recording in response to being detected.
一部の実施形態では、タッチ入力(例えば、930)が移動基準を満たす前に(例えば、メディアキャプチャセッションがロックされたメディアキャプチャ状態ではない)、かつ閾値時間(例えば、1秒)がタッチ入力を検出されてから経過した(例えば、デバイスがビデオの記録を開始した)後に、タッチ入力がタッチ感知面からリフトされたとの判定に従って、電子デバイス(例えば、600、900)は、第1のタイプのメディア(例えば、静止画像)をキャプチャし、キャプチャされた第1のタイプのメディアを廃棄する(例えば、第1のタイプのメディアをメディアライブラリに追加する前又はその後に削除する)。例えば、電子デバイスは、タッチ入力を受け取ったことに従って(例えば、タッチ入力930のタッチダウンに応答して)、第1のタイプのメディア項目をキャプチャすることができる。タッチ入力が第2のタイプのメディアをキャプチャするための基準を満たした後、デバイスは、(例えば、タッチ入力ジェスチャの特性が、引き続き、第1のメディア項目のキャプチャが意図されていないことを示すため)キャプチャされた第1のタイプのメディアを廃棄することができる。 In some embodiments, before the touch input (eg, 930) meets the movement criteria (eg, the media capture session is not in a locked media capture state) and a threshold time (eg, 1 second) (e.g., the device starts recording video), the electronic device (e.g., 600, 900) follows a determination that the touch input has been lifted from the touch-sensitive surface after detecting a first type of media (eg, still images) and discard the captured media of the first type (eg, remove the first type of media before or after adding it to the media library). For example, the electronic device can capture the first type of media item in response to receiving touch input (eg, in response to touchdown of touch input 930). After the touch input meets the criteria for capturing the second type of media, the device continues to display (e.g., characteristics of the touch input gesture indicating that capture of the first media item is not intended Because of this), the first type of captured media can be discarded.
ユーザがリフトオフした場合に利用可能になるように、第1のメディアをキャプチャするが自動的にそれを削除すると、ユーザが他のコンテンツ(例えば、ビデオなどの第2のメディア)の記録を開始する際の記憶空間を保全し、それは、第1のメディア(例えば、写真)が必要とされないことを示す。更に、他のメディアがキャプチャされている(例えば、ビデオを記録し始める)ことに基づいて第1のメディアを自動的に廃棄することにより、メディアを廃棄するのに必要なユーザ入力の数が低減される。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を付与するのを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Capture the first media, but automatically delete it, so that it will be available if the user lifts off, and the user starts recording other content (e.g., a second media such as a video) It conserves actual storage space, which indicates that the primary media (eg, photos) is not required. Additionally, automatically discarding the first media based on other media being captured (e.g., beginning to record video) reduces the number of user inputs required to discard media. be done. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reducing device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved.
方法1100(例えば、図11)に関して上記したプロセスの詳細はまた、後述/前述の方法にも同様の方法で適用可能であることに留意されたい。例えば、方法1100は、方法700を参照して上記した様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
Note that the process details described above with respect to method 1100 (eg, FIG. 11) are also applicable in a similar manner to the methods described below/above. For example,
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。これらの実施形態は、本技術の原理、及びその実際の適用を最もよく説明するために、選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。 The foregoing, for purposes of explanation, has been described with reference to specific embodiments. However, the illustrative discussion above is not intended to be exhaustive or to limit the invention to the precise forms disclosed. Many modifications and variations are possible in light of the above teaching. These embodiments were chosen and described in order to best explain the principles of the technology and its practical application. This enables others skilled in the art to best utilize the technology and various embodiments, with various modifications as appropriate for the particular application intended.
添付図面を参照して、本開示及び例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。 Having fully described the present disclosure and examples with reference to the accompanying drawings, it should be noted that various changes and modifications will become apparent to those skilled in the art. Such changes and modifications are intended to be included within the scope of this disclosure and examples as defined by the claims.
上述したように、本技術の一態様は、ジェスチャに基づくメディアキャプチャを実行するための様々なソースから入手可能なデータを収集及び使用することである。本開示は、いくつかの例において、この収集されたデータは、特定の人を一意に特定する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを想到している。そのような個人情報データとしては、人口統計データ、位置ベースのデータ、電話番号、電子メールアドレス、ツイッターID、自宅の住所、ユーザの健康又はフィットネスのレベルに関するデータ若しくは記録(例えば、バイタルサイン測定値、投薬情報、運動情報)、誕生日、あるいは任意の他の識別情報又は個人情報を挙げることができる。 As noted above, one aspect of the present technology is the collection and use of data available from various sources to perform gesture-based media capture. This disclosure indicates that, in some instances, this collected data includes personal information data that uniquely identifies a particular person or that can be used to contact or locate a particular person. I am thinking of getting. Such personal data may include demographic data, location-based data, phone number, email address, Twitter ID, home address, data or records relating to the user's level of health or fitness (e.g., vital sign measurements, , medication information, exercise information), date of birth, or any other identifying or personal information.
本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。更には、ユーザに利益をもたらす、個人情報データに関する他の使用もまた、本開示によって想到される。例えば、健康データ及びフィットネスデータは、ユーザの全般的なウェルネスについての洞察を提供するために使用することができ、あるいは、ウェルネスの目標を追求するための技術を使用している個人への、積極的なフィードバックとして使用することもできる。 This disclosure recognizes that the use of such personal information data in the present technology may be a use to the benefit of the user. Furthermore, other uses for personal information data that benefit users are also contemplated by the present disclosure. For example, health and fitness data can be used to provide insight into a user's overall wellness, or provide positive feedback to individuals using technology to pursue wellness goals. It can also be used as general feedback.
本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はアクセスは、医療保険の相互運用性と説明責任に関する法律(Health Insurance Portability and Accountability Act、HIPAA)などの、連邦法及び/又は州法によって管理することができ、その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国の異なる個人データのタイプに関して、異なるプライバシー慣行が保たれるべきである。 The present disclosure contemplates that entities involved in the collection, analysis, disclosure, transmission, storage, or other use of such personal information data will adhere to robust privacy policies and/or practices. Specifically, such entities implement privacy policies and practices that are generally recognized as meeting or exceeding industry or governmental requirements to keep personal data confidential and strictly maintained. and should be used consistently. Such policies should be readily accessible by users and should be updated as data collection and/or use changes. Personal information from users should be collected for the entity's lawful and legitimate use and should not be shared or sold except for those lawful uses. Moreover, such collection/sharing should be performed after informing and obtaining consent from the user. In addition, such entities protect and secure access to such Personal Data and ensure that others who have access to that Personal Data comply with their privacy policies and procedures. should consider taking all necessary steps to Further, such entities may themselves be evaluated by third parties to certify their adherence to widely accepted privacy policies and practices. In addition, policies and practices should be adapted to the specific types of personal information data collected and/or accessed and comply with applicable laws and standards, including jurisdiction-specific considerations. should be adapted. For example, in the United States, collection or access to certain health data may be governed by federal and/or state laws, such as the Health Insurance Portability and Accountability Act (HIPAA). However, health data in other countries may be subject to other regulations and policies and should be dealt with accordingly. Different privacy practices should therefore be maintained for different types of personal data in each country.
前述のことがらにもかかわらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するように、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、メディアキャプチャアプリケーションの場合において、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成され得る。「オプトイン」及び「オプトアウト」の選択肢を提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを想到する。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。 Notwithstanding the foregoing, the present disclosure also contemplates embodiments in which a user selectively prevents use of or access to personal information data. That is, the present disclosure contemplates that hardware and/or software elements may be provided to prevent or block access to such personal information data. For example, in the case of media capture applications, the technology may be configured to allow users to choose to "opt-in" or "opt-out" of participation in the collection of personal information data during registration for the service or at any time thereafter. . In addition to providing "opt-in" and "opt-out" options, this disclosure contemplates providing notice regarding access or use of personal information. For example, the user may be notified upon download of an app that will access the user's personal data, and then reminded again just before the personal data is accessed by the app.
更には、本開示の意図は、個人情報データを、非意図的若しくは無許可アクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなった時点で削除することによって、危険性を最小限に抑えることができる。更には、適用可能な場合、特定の健康関連アプリケーションにおいて、ユーザのプライバシーを保護するために、データの非特定化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、ユーザ間でデータを集約すること)及び/又は他の方法によって、容易にすることができる。 Furthermore, it is the intent of this disclosure that personal information data should be managed and processed in a manner that minimizes the risk of unintentional or unauthorized access or use. Risks can be minimized by limiting data collection and deleting data when it is no longer needed. Additionally, where applicable, data de-identification can be used to protect user privacy in certain health-related applications. De-identification may include, where appropriate, removing certain identifiers (e.g. date of birth, etc.), controlling the amount or specificity of data stored (e.g. location data rather than address level). city level), controlling how data is stored (eg, aggregating data across users), and/or in other ways.
それゆえ、本開示は、1つ以上の様々な開示された実施形態を実装するための、個人情報データの使用を広範に網羅するものではあるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実装することもまた可能であることを想到している。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部分が欠如することにより、実施不可能となるものではない。例えば、メディアコンテンツは、ユーザに関連付けられたデバイスによりリクエストされたコンテンツ、メディアキャプチャインタフェースアプリケーションが使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいてユーザの意図を推測することにより、キャプチャされ、かつ記憶され得る。 Thus, while this disclosure broadly covers the use of personal information data to implement one or more of the various disclosed embodiments, this disclosure also covers the use of such personal information data. It is contemplated that it is also possible to implement the various embodiments without requiring access to the . That is, various embodiments of the present technology are not rendered inoperable by the lack of all or part of such personal information data. For example, media content may be non-personal data or personal information, such as content requested by a device associated with a user, other non-personal information available to a media capture interface application, or publicly available information. can be captured and stored by inferring the user's intent based on only a minimal amount of
Claims (10)
前記電子デバイスによって、前記タッチ感知ディスプレイ上に提示されたグラフィカルユーザインタフェース上の第1の場所に表示されたメディアキャプチャアフォーダンスを対象とする、前記タッチ感知ディスプレイ上で検出されたタッチを含むタップアンドホールドジェスチャ入力を検出することと、
前記タップアンドホールドジェスチャ入力に応答して、前記電子デバイスによって、前記電子デバイスを用いたメディアキャプチャセッションを、アンロックされたメディアキャプチャセッション状態で開始することと、
前記タップアンドホールドジェスチャ入力が前記第1の場所で維持されている間、前記タッチ感知ディスプレイ上に、前記第1の場所から第2の場所へ延びる経路を表示することであって、前記経路は当該タッチ感知ディスプレイ上の方向を示し、前記経路は前記タップアンドホールドジェスチャ入力が検出される前には表示されない、経路を表示することと、
前記メディアキャプチャセッション中に前記グラフィカルユーザインタフェース上の前記第1の場所からの前記タッチのリフトオフを含む第1のリフトジェスチャを前記電子デバイスが検出したことに応答して、前記電子デバイスによって、前記メディアキャプチャセッションを終了させることと、
前記経路によって示された方向において前記タッチ感知ディスプレイにわたる前記タッチの移動を含むスライドジェスチャ入力を前記電子デバイスが検出したことに応答して、
前記メディアキャプチャセッション中に前記グラフィカルユーザインタフェース上の前記第1の場所から前記第2の場所への前記メディアキャプチャアフォーダンスの移動を表示することと、
前記タッチが前記タッチ感知ディスプレイ上に維持されている間に、前記メディアキャプチャセッションを維持することと、
前記第1の場所におけるタップジェスチャ入力によってアクティブ化されると前記メディアキャプチャセッションを終了させるメディアキャプチャロックアフォーダンスを、前記第1の場所に表示することと、
を含む、メディアをキャプチャする方法。 In an electronic device having a touch sensitive display,
A tap-and-hold including a detected touch on the touch-sensitive display to target a media capture affordance displayed at a first location on a graphical user interface presented on the touch-sensitive display by the electronic device. detecting gesture input;
Initiating, by the electronic device, a media capture session with the electronic device in an unlocked media capture session state in response to the tap-and-hold gesture input;
displaying on the touch-sensitive display a path extending from the first location to a second location while the tap-and-hold gesture input is maintained at the first location, the path comprising: displaying a path indicating a direction on the touch-sensitive display, wherein the path is not displayed before the tap-and-hold gesture input is detected ;
In response to the electronic device detecting a first lift gesture that includes a lift-off of the touch from the first location on the graphical user interface during the media capture session, by the electronic device: terminating the capture session;
in response to the electronic device detecting a slide gesture input comprising movement of the touch across the touch-sensitive display in a direction indicated by the path ;
displaying movement of the media capture affordance from the first location to the second location on the graphical user interface during the media capture session;
maintaining the media capture session while the touch is maintained on the touch-sensitive display;
displaying at the first location a media capture lock affordance that terminates the media capture session when activated by a tap gesture input at the first location;
How to capture media, including
を更に含む、請求項1に記載の方法。 2. The method of claim 1, further comprising displaying a visual indicator on the touch-sensitive display indicating a direction of the sliding gesture input on the touch-sensitive display.
を更に含む、請求項1に記載の方法。 causing a first text message to be displayed on the touch-sensitive display prior to the slide gesture input; and a second text message different from the first text message while the touch is maintained on the touch-sensitive display. 2. The method of claim 1, further comprising: displaying a text message of on the touch-sensitive display.
請求項8に記載のコンピュータプログラムを記憶するメモリと、
前記メモリに記憶された前記コンピュータプログラムを実行可能な1つ以上のプロセッサと、
を備える、電子デバイス。 a touch sensitive display;
a memory for storing the computer program according to claim 8;
one or more processors capable of executing the computer program stored in the memory;
An electronic device comprising:
請求項1から7のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。 a touch sensitive display;
means for carrying out the method according to any one of claims 1 to 7;
An electronic device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022199433A JP2023036715A (en) | 2018-02-09 | 2022-12-14 | Media capture lock affordance for graphical user interface |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862628825P | 2018-02-09 | 2018-02-09 | |
US62/628,825 | 2018-02-09 | ||
US15/995,040 | 2018-05-31 | ||
US15/995,040 US20190253619A1 (en) | 2018-02-09 | 2018-05-31 | Media capture lock affordance for graphical user interface |
US201962802603P | 2019-02-07 | 2019-02-07 | |
US62/802,603 | 2019-02-07 | ||
PCT/US2019/017363 WO2019157387A2 (en) | 2018-02-09 | 2019-02-08 | Media capture lock affordance for graphical user interface |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022199433A Division JP2023036715A (en) | 2018-02-09 | 2022-12-14 | Media capture lock affordance for graphical user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021513161A JP2021513161A (en) | 2021-05-20 |
JP7196183B2 true JP7196183B2 (en) | 2022-12-26 |
Family
ID=67549117
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020542592A Active JP7196183B2 (en) | 2018-02-09 | 2019-02-08 | Media Capture Lock Affordances for Graphical User Interfaces |
JP2022199433A Pending JP2023036715A (en) | 2018-02-09 | 2022-12-14 | Media capture lock affordance for graphical user interface |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022199433A Pending JP2023036715A (en) | 2018-02-09 | 2022-12-14 | Media capture lock affordance for graphical user interface |
Country Status (6)
Country | Link |
---|---|
EP (2) | EP3735632A2 (en) |
JP (2) | JP7196183B2 (en) |
KR (3) | KR102596371B1 (en) |
CN (1) | CN111684403A (en) |
AU (3) | AU2019218241B2 (en) |
WO (1) | WO2019157387A2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022019901A1 (en) * | 2020-07-22 | 2022-01-27 | Hewlett-Packard Development Company, L.P. | Basic input/output system (bios) activation control of media capture devices |
TWI817186B (en) * | 2020-09-29 | 2023-10-01 | 仁寶電腦工業股份有限公司 | Object operation system and object operation method |
CN117761371B (en) * | 2024-02-22 | 2024-07-02 | 深圳市鼎阳科技股份有限公司 | Display device supporting scroll triggering and data processing method of scroll triggering thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140108928A1 (en) | 2012-10-15 | 2014-04-17 | Kirusa, Inc. | Multi-gesture Media Recording System |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3859005A (en) | 1973-08-13 | 1975-01-07 | Albert L Huebner | Erosion reduction in wet turbines |
US4826405A (en) | 1985-10-15 | 1989-05-02 | Aeroquip Corporation | Fan blade fabrication system |
EP1717679B1 (en) | 1998-01-26 | 2016-09-21 | Apple Inc. | Method for integrating manual input |
US7688306B2 (en) | 2000-10-02 | 2010-03-30 | Apple Inc. | Methods and apparatuses for operating a portable device based on an accelerometer |
US7218226B2 (en) | 2004-03-01 | 2007-05-15 | Apple Inc. | Acceleration-based theft detection system for portable electronic devices |
US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
US8645827B2 (en) | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
JP5464083B2 (en) * | 2010-07-07 | 2014-04-09 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
US9313633B2 (en) * | 2011-10-10 | 2016-04-12 | Talko Inc. | Communication system |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
KR101343591B1 (en) * | 2012-09-03 | 2013-12-19 | 엘지전자 주식회사 | Mobile device and control method for the same |
JP6039328B2 (en) * | 2012-09-14 | 2016-12-07 | キヤノン株式会社 | Imaging control apparatus and imaging apparatus control method |
EP2939098B1 (en) | 2012-12-29 | 2018-10-10 | Apple Inc. | Device, method, and graphical user interface for transitioning between touch input to display output relationships |
US9942464B2 (en) * | 2014-05-27 | 2018-04-10 | Thomson Licensing | Methods and systems for media capture and seamless display of sequential images using a touch sensitive device |
US20160241777A1 (en) * | 2015-02-16 | 2016-08-18 | Magisto Ltd. | Method and system for implementing a user interface for capturing videos and photos on cameras with a touch screen |
KR101667736B1 (en) * | 2015-09-25 | 2016-10-20 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
-
2019
- 2019-02-08 KR KR1020227033119A patent/KR102596371B1/en active IP Right Grant
- 2019-02-08 EP EP19707557.5A patent/EP3735632A2/en not_active Withdrawn
- 2019-02-08 KR KR1020237036985A patent/KR102685668B1/en active IP Right Grant
- 2019-02-08 AU AU2019218241A patent/AU2019218241B2/en active Active
- 2019-02-08 WO PCT/US2019/017363 patent/WO2019157387A2/en unknown
- 2019-02-08 EP EP24182717.9A patent/EP4407426A2/en active Pending
- 2019-02-08 CN CN201980012481.9A patent/CN111684403A/en active Pending
- 2019-02-08 KR KR1020207022663A patent/KR102448223B1/en active IP Right Grant
- 2019-02-08 JP JP2020542592A patent/JP7196183B2/en active Active
-
2022
- 2022-06-24 AU AU2022204465A patent/AU2022204465B2/en active Active
- 2022-12-14 JP JP2022199433A patent/JP2023036715A/en active Pending
-
2023
- 2023-09-08 AU AU2023226764A patent/AU2023226764A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140108928A1 (en) | 2012-10-15 | 2014-04-17 | Kirusa, Inc. | Multi-gesture Media Recording System |
Non-Patent Citations (1)
Title |
---|
Telegram4.0: Video Messages + Telescope, Payments and more...,online,2017年05月20日,https:// www.youtube.com/watch?v=y0alJRPH7nQ |
Also Published As
Publication number | Publication date |
---|---|
KR102448223B1 (en) | 2022-09-29 |
AU2019218241B2 (en) | 2022-03-24 |
AU2022204465A1 (en) | 2022-07-14 |
WO2019157387A2 (en) | 2019-08-15 |
EP4407426A2 (en) | 2024-07-31 |
WO2019157387A4 (en) | 2019-11-28 |
AU2023226764A1 (en) | 2023-09-28 |
CN111684403A (en) | 2020-09-18 |
KR20200105702A (en) | 2020-09-08 |
KR20230152827A (en) | 2023-11-03 |
KR20220133326A (en) | 2022-10-04 |
AU2022204465B2 (en) | 2023-06-08 |
WO2019157387A3 (en) | 2019-09-06 |
JP2021513161A (en) | 2021-05-20 |
AU2019218241A1 (en) | 2020-08-27 |
JP2023036715A (en) | 2023-03-14 |
EP3735632A2 (en) | 2020-11-11 |
KR102596371B1 (en) | 2023-11-01 |
KR102685668B1 (en) | 2024-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7158509B2 (en) | Image data for enhanced user interaction | |
US11895391B2 (en) | Capturing and displaying images with multiple focal planes | |
US11755273B2 (en) | User interfaces for audio media control | |
US11977731B2 (en) | Media capture lock affordance for graphical user interface | |
EP3959866B1 (en) | User interfaces for electronic voice communications | |
KR20210002617A (en) | Access to system user interfaces on electronic devices | |
US20210400131A1 (en) | User interfaces for presenting indications of incoming calls | |
AU2022204465B2 (en) | Media capture lock affordance for graphical user interface | |
US11943559B2 (en) | User interfaces for providing live video | |
JP2022188100A (en) | Method and user interface for sharing audio | |
WO2024054498A1 (en) | Interfaces for device interactions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200806 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210921 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7196183 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |