JP2024020232A - コンテンツベースの触知出力 - Google Patents
コンテンツベースの触知出力 Download PDFInfo
- Publication number
- JP2024020232A JP2024020232A JP2023182016A JP2023182016A JP2024020232A JP 2024020232 A JP2024020232 A JP 2024020232A JP 2023182016 A JP2023182016 A JP 2023182016A JP 2023182016 A JP2023182016 A JP 2023182016A JP 2024020232 A JP2024020232 A JP 2024020232A
- Authority
- JP
- Japan
- Prior art keywords
- input
- user interface
- tactile output
- display
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 320
- 230000004044 response Effects 0.000 claims abstract description 207
- 238000003860 storage Methods 0.000 claims abstract description 62
- 230000033001 locomotion Effects 0.000 claims description 159
- 230000015654 memory Effects 0.000 claims description 52
- 230000000007 visual effect Effects 0.000 claims description 50
- 230000004048 modification Effects 0.000 claims description 31
- 238000012986 modification Methods 0.000 claims description 31
- 238000003825 pressing Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 abstract description 33
- 230000000875 corresponding effect Effects 0.000 description 72
- 230000007246 mechanism Effects 0.000 description 41
- 230000008569 process Effects 0.000 description 38
- 230000009471 action Effects 0.000 description 33
- 238000004891 communication Methods 0.000 description 33
- 230000008859 change Effects 0.000 description 23
- 230000002093 peripheral effect Effects 0.000 description 19
- 230000000694 effects Effects 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 16
- 230000035807 sensation Effects 0.000 description 16
- 238000012549 training Methods 0.000 description 16
- 230000007423 decrease Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 15
- 238000001514 detection method Methods 0.000 description 13
- 238000007726 management method Methods 0.000 description 13
- 241000699666 Mus <mouse, genus> Species 0.000 description 11
- 230000001953 sensory effect Effects 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 10
- 230000001149 cognitive effect Effects 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 7
- 238000009499 grossing Methods 0.000 description 7
- 230000036541 health Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000003213 activating effect Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000021317 sensory perception Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 241000473391 Archosargus rhomboidalis Species 0.000 description 2
- 241001422033 Thestylus Species 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013503 de-identification Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000009528 vital sign measurement Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0362—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Abstract
【課題】コンテンツベースの触知出力を管理する方法、電子デバイス及び記憶媒体を提供する。【解決手段】電子デバイスによる方法は、ディスプレイ上に、ユーザインタフェース、メッセージングアプリケーションの連続テキストなどの連続コンテンツ及び/又はボタン、アフォーダンス、行、プラッタ、パラグラフなどの個別のコンテンツを含むユーザインタフェースを表示することと、それを表示している間に、入力要素を介して、第1の入力(例えば入力要素における回転入力)を検出することと、第1の入力を検出したことに応じてユーザインタフェース内をナビゲート(例えばスクロール)し、1つ以上の触知出力生成器を介して、ユーザインタフェース内をナビゲートすることに対応する触知出力を生成することと、を含む。【選択図】図7A
Description
本出願は、2018年9月11日出願の「CONTENT-BASED TACTILE OUTPUTS」と題された米国特許仮出願第62/729,978号、2018年9月27日出願の「CONTENT-BASED TACTILE OUTPUTS」と題された米国特許出願第16/144,950号、2018年9月28日出願の「CONTENT-BASED TACTILE OUTPUTS」と題された米国特許出願第16/147,413号、2018年9月27日出願の「CONTENT-BASED TACTILE OUTPUTS」と題されたデンマーク特許出願第PA201870631号、及び2018年9月27日出願の「CONTENT-BASED TACTILE OUTPUTS」と題されたデンマーク特許出願第PA201870632号に対する優先権を主張するものである。これらの出願のそれぞれの内容は、全体が、参照により本明細書に組み込まれる。
本開示は、概して、コンピュータユーザインタフェースに関し、より具体的には、コンテンツベースの触知出力を管理するための技術に関する。
現在、ユーザ体験を向上させ、ユーザ効率を向上させ、デバイスを利用する際の利便性を向上させるために、ディスプレイ上に表示されナビゲートされているコンテンツのタイプに基づいて、感覚フィードバック(例えば、触知出力及び/又はオーディオ出力)を提供する電子デバイスが必要とされている。
しかしながら、電子デバイスを使用してコンテンツベースの触知出力を管理するための一部の技術は、一般に煩雑かつ非効率である。例えば、一部の既存の技術では、複数回のキー押下又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技法は、必要以上の時間がかかり、ユーザの時間及びデバイスのエネルギーを浪費する。後者の問題は、バッテリ動作式デバイスにおいては特に重大である。
したがって、本技術は、コンテンツベースの触知出力を管理するための、より速く、より効率的な方法及びインタフェースを有する電子デバイスを提供する。そのような方法及びインタフェースは、任意選択的に、コンテンツベースの触知出力を管理するための他の方法を補完する又は置き換える。そのような方法及びインタフェースは、ユーザにかかる認識的負担を低減し、より効率的なヒューマン-マシンインタフェースを生成する。例えば、そのような方法及びインタフェースは、デバイス上に表示されたコンテンツをナビゲートする際のユーザ体験及び利便性を向上させ、したがって、ユーザがデバイス上に表示されたコンテンツをより容易かつ効率的にナビゲートすることを可能にする。バッテリ動作コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、バッテリ充電の間隔を長くする。
いくつかの実施形態によれば、ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスにおいて実行される方法が説明される。方法は、ディスプレイ上に、ユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、入力要素を介して、第1の入力を検出することと、第1の入力を検出したことに応じて、ユーザインタフェース内をナビゲートすることと、1つ以上の触知出力生成器を介する、ユーザインタフェース内をナビゲートすることに対応する触知出力を生成することであって、ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、第1の入力の入力メトリックに基づいて決定される1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを含み、
ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、ことを含む触知出力を生成することと、を含む。
ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、ことを含む触知出力を生成することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に、ユーザインタフェースを表示し、ユーザインタフェースを表示している間に、入力要素を介して、第1の入力を検出することと、第1の入力を検出したことに応じて、ユーザインタフェース内をナビゲートすることと、1つ以上の触知出力生成器を介する、ユーザインタフェース内をナビゲートすることに対応する触知出力を生成することであって、ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、第1の入力の入力メトリックに基づいて決定される1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを含み、
ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、ことを含む触知出力を生成することと、を含む。
ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、ことを含む触知出力を生成することと、を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に、ユーザインタフェースを表示し、ユーザインタフェースを表示している間に、入力要素を介して、第1の入力を検出することと、第1の入力を検出したことに応じて、ユーザインタフェース内をナビゲートすることと、1つ以上の触知出力生成器を介する、ユーザインタフェース内をナビゲートすることに対応する触知出力を生成することであって、ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、第1の入力の入力メトリックに基づいて決定される1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを含み、
ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、ことを含む触知出力を生成することと、を含む。
ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、ことを含む触知出力を生成することと、を含む。
いくつかの実施形態によれば、電子デバイスが記載される。電子デバイスは、ディスプレイと、入力要素と、1つ以上の触知出力生成器と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ディスプレイ上に、ユーザインタフェースを表示し、ユーザインタフェースを表示している間に、入力要素を介して、第1の入力を検出することと、第1の入力を検出したことに応じて、ユーザインタフェース内をナビゲートすることと、1つ以上の触知出力生成器を介する、ユーザインタフェース内をナビゲートすることに対応する触知出力を生成することであって、ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、第1の入力の入力メトリックに基づいて決定される1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを含み、
ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、ことを含む触知出力を生成することと、を含む。
ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、ことを含む触知出力を生成することと、を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、入力要素と、1つ以上の触知出力生成器と、ディスプレイ上に、ユーザインタフェースを表示する手段と、ユーザインタフェースを表示している間に、入力要素を介して、第1の入力を検出する手段と、第1の入力を検出したことに応じて、ユーザインタフェース内をナビゲートし、1つ以上の触知出力生成器を介して、ユーザインタフェース内をナビゲートすることに対応する触知出力を生成する手段であって、ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、第1の入力の入力メトリックに基づいて決定される1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを含み、ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、ナビゲートすることに対応する触知出力は、ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む触知出力を生成する手段とを備える。
いくつかの実施形態によれば、ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスにおいて実行される方法が説明される。方法は、ディスプレイ上に、コンテンツの第1の部分を表示することと、コンテンツの第1の部分を表示している間に、入力要素を介して、第1の入力を検出することと、第1の入力を検出したことに応じて、コンテンツ内をナビゲートして、コンテンツの第2の部分を表示することと、1つ以上の触知出力生成器を介して、1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを生成することと、コンテンツの第2の部分を表示している間に、入力要素を介して、第2の入力を検出することと、第2の入力を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分であるとの判定に従って、コンテンツがコンテンツの終端部分であるという視覚インジケーションを表示することと、1つ以上の触知出力生成器を介して第1のタイプの触知出力シーケンスを生成することを取り止めることと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に、コンテンツの第1の部分を表示し、コンテンツの第1の部分を表示している間に、入力要素を介して、第1の入力を検出することと、第1の入力を検出したことに応じて、コンテンツ内をナビゲートして、コンテンツの第2の部分を表示することと、1つ以上の触知出力生成器を介して、1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを生成することと、コンテンツの第2の部分を表示している間に、入力要素を介して、第2の入力を検出することと、第2の入力を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分であるとの判定に従って、コンテンツがコンテンツの終端部分であるという視覚インジケーションを表示することと、1つ以上の触知出力生成器を介して第1のタイプの触知出力シーケンスを生成することを取り止めることと、を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に、コンテンツの第1の部分を表示し、コンテンツの第1の部分を表示している間に、入力要素を介して、第1の入力を検出することと、第1の入力を検出したことに応じて、コンテンツ内をナビゲートして、コンテンツの第2の部分を表示することと、1つ以上の触知出力生成器を介して、1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを生成することと、コンテンツの第2の部分を表示している間に、入力要素を介して、第2の入力を検出することと、第2の入力を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分であるとの判定に従って、コンテンツがコンテンツの終端部分であるという視覚インジケーションを表示することと、1つ以上の触知出力生成器を介して第1のタイプの触知出力シーケンスを生成することを取り止めることと、を含む。
いくつかの実施形態によれば、電子デバイスが記載される。電子デバイスは、ディスプレイと、入力要素と、1つ以上の触知出力生成器と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ディスプレイ上に、コンテンツの第1の部分を表示し、コンテンツの第1の部分を表示している間に、入力要素を介して、第1の入力を検出することと、第1の入力を検出したことに応じて、コンテンツ内をナビゲートして、コンテンツの第2の部分を表示することと、1つ以上の触知出力生成器を介して、1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを生成することと、コンテンツの第2の部分を表示している間に、入力要素を介して、第2の入力を検出することと、第2の入力を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分であるとの判定に従って、コンテンツがコンテンツの終端部分であるという視覚インジケーションを表示することと、1つ以上の触知出力生成器を介して第1のタイプの触知出力シーケンスを生成することを取り止めることと、を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、入力要素と、1つ以上の触知出力生成器と、ディスプレイ上に、コンテンツの第1の部分を表示する手段と、コンテンツの第1の部分を表示している間に、入力要素を介して、第1の入力を検出する手段と、第1の入力を検出したことに応じて、コンテンツ内をナビゲートして、コンテンツの第2の部分を表示し、1つ以上の触知出力生成器を介して、1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを生成する手段と、コンテンツの第2の部分を表示している間に、入力要素を介して、第2の入力を検出する手段と、第2の入力を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分であるとの判定に従って、コンテンツがコンテンツの終端部分であるという視覚インジケーションを表示し、1つ以上の触知出力生成器を介して、第1のタイプの触知出力シーケンスを生成することを取り止める手段と、を備える。
いくつかの実施形態によれば、タッチ感知ディスプレイと、回転可能入力要素とを有する電子デバイスにおいて実行される方法が説明される。方法は、ディスプレイ上に、ユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、デバイスにおける入力の第1の部分を検出することと、入力の第1の部分を検出したことに応じて、入力の移動に従って、デバイスのディスプレイにわたってユーザインタフェースオブジェクトを移動させることと、入力の第1の部分を検出した後に、デバイスにおける入力の第2の部分を検出することと、入力の第2の部分を検出したことに応じて、入力がタッチ感知ディスプレイ上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値を超えて移動させるとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることと、入力がタッチ感知ディスプレイ上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値以上移動させないとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることを取り止めることと、入力が回転可能入力要素に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値未満である第2の閾値を超えて移動させるとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることと、入力が回転可能入力要素に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第2の閾値以上移動させないとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることを取り止めることと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、タッチ感知ディスプレイと、回転可能入力要素とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に、ユーザインタフェースを表示し、ユーザインタフェースを表示している間に、デバイスにおける入力の第1の部分を検出することと、入力の第1の部分を検出したことに応じて、入力の移動に従って、デバイスのディスプレイにわたってユーザインタフェースオブジェクトを移動させることと、入力の第1の部分を検出した後に、デバイスにおける入力の第2の部分を検出することと、入力の第2の部分を検出したことに応じて、入力がタッチ感知ディスプレイ上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値を超えて移動させるとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることと、入力がタッチ感知ディスプレイ上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値以上移動させないとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることを取り止めることと、入力が回転可能入力要素に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値未満である第2の閾値を超えて移動させるとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることと、入力が回転可能入力要素に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第2の閾値以上移動させないとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることを取り止めることと、を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、タッチ感知ディスプレイと、回転可能入力要素とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に、ユーザインタフェースを表示し、ユーザインタフェースを表示している間に、デバイスにおける入力の第1の部分を検出することと、入力の第1の部分を検出したことに応じて、入力の移動に従って、デバイスのディスプレイにわたってユーザインタフェースオブジェクトを移動させることと、入力の第1の部分を検出した後に、デバイスにおける入力の第2の部分を検出することと、入力の第2の部分を検出したことに応じて、入力がタッチ感知ディスプレイ上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値を超えて移動させるとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることと、入力がタッチ感知ディスプレイ上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値以上移動させないとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることを取り止めることと、入力が回転可能入力要素に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値未満である第2の閾値を超えて移動させるとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることと、入力が回転可能入力要素に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第2の閾値以上移動させないとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることを取り止めることと、を含む。
いくつかの実施形態によれば、電子デバイスが記載される。電子デバイスは、タッチ感知ディスプレイと、回転可能入力要素と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ディスプレイ上に、ユーザインタフェースを表示し、ユーザインタフェースを表示している間に、デバイスにおける入力の第1の部分を検出することと、入力の第1の部分を検出したことに応じて、入力の移動に従って、デバイスのディスプレイにわたってユーザインタフェースオブジェクトを移動させることと、入力の第1の部分を検出した後に、デバイスにおける入力の第2の部分を検出することと、入力の第2の部分を検出したことに応じて、入力がタッチ感知ディスプレイ上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値を超えて移動させるとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることと、入力がタッチ感知ディスプレイ上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値以上移動させないとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることを取り止めることと、入力が回転可能入力要素に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値未満である第2の閾値を超えて移動させるとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることと、入力が回転可能入力要素に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第2の閾値以上移動させないとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることを取り止めることと、を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、回転可能入力要素と、ディスプレイ上に、ユーザインタフェースを表示する手段と、ユーザインタフェースを表示している間に、デバイスにおける入力の第1の部分を検出する手段と、入力の第1の部分を検出したことに応じて、入力の移動に従って、デバイスのディスプレイにわたってユーザインタフェースオブジェクトを移動させる手段と、入力の第1の部分を検出した後に、デバイスにおける入力の第2の部分を検出する手段と、入力の第2の部分を検出したことに応じて、入力がタッチ感知ディスプレイ上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値を超えて移動させるとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させ、入力がタッチ感知ディスプレイ上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値以上移動させないとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることを取り止めることと、入力が回転可能入力要素に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値未満である第2の閾値を超えて移動させるとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることと、入力が回転可能入力要素に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第2の閾値以上移動させないとの判定に従って、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることを取り止めることと、を含む。
いくつかの実施形態によれば、ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスにおいて実行される方法が説明される。方法は、ディスプレイ上に、第1の調整可能なアイテム及び第2の調整可能なアイテムを含むユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、入力要素を介して、回転入力を検出することと、回転入力を検出したことに応じて、第1の調整可能なアイテムが現在選択されているとの判定に従って、回転入力に基づいて、第1の調整可能なアイテムを調整することと、第1の調整可能なアイテムを調整している間に、1つ以上の触知出力生成器を介して、第1の振幅を有する1つ以上の触知出力を含む触知出力の第1のシーケンスを生成することと、第2の調整可能なアイテムが現在選択されているとの判定に従って、回転入力に基づいて、第2の調整可能なアイテムを調整することと、第2の調整可能なアイテムを調整している間に、1つ以上の触知出力生成器を介して、第1の振幅とは異なる第2の振幅を有する1つ以上の触知出力を含む触知出力の第2のシーケンスを生成することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に、第1の調整可能なアイテム及び第2の調整可能なアイテムを含むユーザインタフェースを表示し、ユーザインタフェースを表示している間に、入力要素を介して、回転入力を検出することと、回転入力を検出したことに応じて、第1の調整可能なアイテムが現在選択されているとの判定に従って、回転入力に基づいて、第1の調整可能なアイテムを調整することと、第1の調整可能なアイテムを調整している間に、1つ以上の触知出力生成器を介して、第1の振幅を有する1つ以上の触知出力を含む触知出力の第1のシーケンスを生成することと、第2の調整可能なアイテムが現在選択されているとの判定に従って、回転入力に基づいて、第2の調整可能なアイテムを調整することと、第2の調整可能なアイテムを調整している間に、1つ以上の触知出力生成器を介して、第1の振幅とは異なる第2の振幅を有する1つ以上の触知出力を含む触知出力の第2のシーケンスを生成することと、を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上に、第1の調整可能なアイテム及び第2の調整可能なアイテムを含むユーザインタフェースを表示し、ユーザインタフェースを表示している間に、入力要素を介して、回転入力を検出することと、回転入力を検出したことに応じて、第1の調整可能なアイテムが現在選択されているとの判定に従って、回転入力に基づいて、第1の調整可能なアイテムを調整することと、第1の調整可能なアイテムを調整している間に、1つ以上の触知出力生成器を介して、第1の振幅を有する1つ以上の触知出力を含む触知出力の第1のシーケンスを生成することと、第2の調整可能なアイテムが現在選択されているとの判定に従って、回転入力に基づいて、第2の調整可能なアイテムを調整することと、第2の調整可能なアイテムを調整している間に、1つ以上の触知出力生成器を介して、第1の振幅とは異なる第2の振幅を有する1つ以上の触知出力を含む触知出力の第2のシーケンスを生成することと、を含む。
いくつかの実施形態によれば、電子デバイスが記載される。電子デバイスは、ディスプレイと、入力要素と、1つ以上の触知出力生成器と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ディスプレイ上に、第1の調整可能なアイテム及び第2の調整可能なアイテムを含むユーザインタフェースを表示し、ユーザインタフェースを表示している間に、入力要素を介して、回転入力を検出することと、回転入力を検出したことに応じて、第1の調整可能なアイテムが現在選択されているとの判定に従って、回転入力に基づいて、第1の調整可能なアイテムを調整することと、第1の調整可能なアイテムを調整している間に、1つ以上の触知出力生成器を介して、第1の振幅を有する1つ以上の触知出力を含む触知出力の第1のシーケンスを生成することと、第2の調整可能なアイテムが現在選択されているとの判定に従って、回転入力に基づいて、第2の調整可能なアイテムを調整することと、第2の調整可能なアイテムを調整している間に、1つ以上の触知出力生成器を介して、第1の振幅とは異なる第2の振幅を有する1つ以上の触知出力を含む触知出力の第2のシーケンスを生成することと、を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、入力要素と、1つ以上の触知出力生成器と、ディスプレイ上に、第1の調整可能なアイテム及び第2の調整可能なアイテムを含むユーザインタフェースを表示する手段と、ユーザインタフェースを表示している間に、入力要素を介して、回転入力を検出する手段と、回転入力を検出したことに応じて、第1の調整可能なアイテムが現在選択されているとの判定に従って、回転入力に基づいて、第1の調整可能なアイテムを調整し、第1の調整可能なアイテムを調整している間に、1つ以上の触知出力生成器を介して、第1の振幅を有する1つ以上の触知出力を含む触知出力の第1のシーケンスを生成し、第2の調整可能なアイテムが現在選択されているとの判定に従って、回転入力に基づいて、第2の調整可能なアイテムを調整し、第2の調整可能なアイテムを調整している間に、1つ以上の触知出力生成器を介して、第1の振幅とは異なる第2の振幅を有する1つ以上の触知出力を含む触知出力の第2のシーケンスを生成する、手段と、を備える。
いくつかの実施形態によれば、ディスプレイと、回転可能入力要素と、1つ以上の触知出力生成器とを有する電子デバイスにおいて実行される方法が説明される。方法は、ディスプレイ上に、ユーザインタフェースを表示している間に、回転可能入力要素を介して、回転入力を検出することと、回転入力を検出している間に、1つ以上の触知出力生成器を介して、複数の触知出力を生成することであって、触知出力のタイプが、ユーザインタフェースの修正に関連付けられており、回転入力の速度が第1の速度であるとの判定に従って、回転可能入力要素のそれぞれの回転量に対して第1の数の触知出力を生成し、回転入力の速度が第1の速度とは異なる第2の速度であるとの判定に従って、回転可能入力要素のそれぞれの回転量に対して第2の数の触知出力を生成することを含む触知出力を生成することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、ディスプレイと、回転可能入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上にユーザインタフェースを表示している間に、回転可能入力要素を介して回転入力を検出し、回転入力を検出している間に、1つ以上の触知出力生成器を介して、複数の触知出力を生成するための命令を含む。触知出力のタイプは、ユーザインタフェースの修正に関連付けられており、回転入力の速度が第1の速度であるとの判定に従って、回転可能入力要素のそれぞれの回転量に対して第1の数の触知出力を生成し、回転入力の速度が第1の速度とは異なる第2の速度であるとの判定に従って、回転可能入力要素のそれぞれの回転量に対して第2の数の触知出力を生成する。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、ディスプレイと、回転可能入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイ上にユーザインタフェースを表示している間に、回転可能入力要素を介して回転入力を検出し、回転入力を検出している間に、1つ以上の触知出力生成器を介して、複数の触知出力を生成するための命令を含む。触知出力のタイプは、ユーザインタフェースの修正に関連付けられており、回転入力の速度が第1の速度であるとの判定に従って、回転可能入力要素のそれぞれの回転量に対して第1の数の触知出力を生成し、回転入力の速度が第1の速度とは異なる第2の速度であるとの判定に従って、回転可能入力要素のそれぞれの回転量に対して第2の数の触知出力を生成する。
いくつかの実施形態によれば、電子デバイスが記載される。電子デバイスは、ディスプレイと、回転可能入力要素と、1つ以上の触知出力生成器と、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ディスプレイ上に、ユーザインタフェースを表示している間に、回転可能入力要素を介して、回転入力を検出し、回転入力を検出している間に、1つ以上の触知出力生成器を介して、複数の触知出力を生成するための命令を含む。触知出力のタイプは、ユーザインタフェースの修正に関連付けられており、回転入力の速度が第1の速度であるとの判定に従って、回転可能入力要素のそれぞれの回転量に対して第1の数の触知出力を生成し、回転入力の速度が第1の速度とは異なる第2の速度であるとの判定に従って、回転可能入力要素のそれぞれの回転量に対して第2の数の触知出力を生成する。
いくつかの実施形態によれば、電子デバイスが記載される。電子デバイスは、ディスプレイと、回転可能入力要素と、1つ以上の触知出力生成器と、ディスプレイ上に、ユーザインタフェースを表示している間に、回転可能入力要素を介して、回転入力を検出する手段と、回転入力を検出している間に、1つ以上の触知出力生成器を介して、複数の触知出力であって、触知出力のタイプが、ユーザインタフェースの修正に関連付けられており、回転入力の速度が第1の速度であるとの判定に従って、回転可能入力要素のそれぞれの回転量に対して第1の数の触知出力を生成し、回転入力の速度が第1の速度とは異なる第2の速度であるとの判定に従って、回転可能入力要素のそれぞれの回転量に対して第2の数の触知出力を生成する、複数の触知出力を生成する手段と、を備える。
これらの機能を実行する実行可能命令は、任意選択的に、1つ以上のプロセッサによって実行されるために構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。これらの機能を実行する実行可能命令は、任意選択的に、1つ以上のプロセッサによって実行されるために構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。
したがって、コンテンツベースの触知出力を管理するための、より速く、より効率的な方法及びインタフェースがデバイスに提供され、それによって、そのようなデバイスの有効性、効率、及びユーザ満足度が増す。そのような方法及びインタフェースは、コンテンツベースの触知出力を管理するための他の方法を補完する又は置き換えることができる。
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、むしろ例示的な実施形態の説明として提供されることを認識されたい。
コンテンツベースの触知出力を管理する効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。例えば、ユーザ体験、並びにデバイスを利用する際の利便性及びユーザ効率を向上させるために、ディスプレイ上に表示されナビゲートされているコンテンツのタイプに基づいて、感覚フィードバック(例えば、触知出力及び/又はオーディオ出力)を提供する電子デバイスが必要とされている。そのような技術は、コンテンツベースの触知出力に関連付けられた表示されたコンテンツにアクセスするユーザの認識的負担を軽減し、それによって生産性を向上させることができる。更に、そのような技法は、さもなければ冗長なユーザ入力に浪費されるプロセッサ及びバッテリの電力を低減することができる。
以下に、図1A~図1B、図2、図3、図4A~図4B、及び図5A~図5Hは、イベント通知を管理する技法を行うための例示的なデバイスの説明を提供する。図6A~図6AFは、いくつかの実施形態に係る、コンテンツベースの触知出力に関連付けられた例示的なユーザインタフェースを示す。図7A~図7Dは、いくつかの実施形態に係る、コンテンツベースの触知出力に関連付けられたユーザインタフェースを管理する方法を示すフロー図である。図6A~図6AFのユーザインタフェースは、図7A~図7Dのプロセスを含む、後述するプロセスを例示するために使用される。図8A~図8Tいくつかの実施形態に係る、コンテンツの終わりの触知出力に関連付けられた例示的なユーザインタフェースを示す。図9A~図9Bは、いくつかの実施形態に係る、コンテンツの終わりの触知出力に関連付けられたユーザインタフェースを管理する方法を示すフロー図である。図8A~図8Tのユーザインタフェースは、図9A~図9Bのプロセスを含む、後述するプロセスを例示するために使用される。図10A~図10Kは、いくつかの実施形態に係る、様々に異なるタイプの入力に応じてユーザインタフェースを移動させることに関連付けられた例示的なユーザインタフェースを示す。図11A~図11Cは、いくつかの実施形態に係る、様々に異なるタイプの入力に応じてユーザインタフェースを移動させる方法を示すフロー図である。図10A~図10Kのユーザインタフェースは、図11A~図11Cのプロセスを含む、後述するプロセスを例示するために使用される。図12A~図12Lは、いくつかの実施形態に係る、調整可能なアイテムベースの触知出力に関連付けられた例示的なユーザインタフェースを示す。図13A~図13Bは、いくつかの実施形態に係る、調整可能なアイテムベースの触知出力に関連付けられたユーザインタフェースを管理する方法を示すフロー図である。図12A~図12Lのユーザインタフェースは、図13A~図13Bのプロセスを含む、後述するプロセスを例示するために使用される。図14A~図14Hは、いくつかの実施形態に係る、入力速度ベースの触知出力に関連付けられた例示的なユーザインタフェースを示す。図15A~図15Cは、いくつかの実施形態に係る、入力速度ベースの触知出力に関連付けられたユーザインタフェースを管理する方法を示すフロー図である。図14A~図14Hのユーザインタフェースは、図15A~図15Cのプロセスを含む、後述するプロセスを例示するために使用される。
以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。
本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。
「~の場合(if)」という用語は、任意選択的に、文脈に応じて、「~とき(when)」若しくは「~とき(upon)」、又は「~と判定したことに応じて(in response to determining)」若しくは「~を検出したことに応じて(in response to detecting)」を意味すると解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の状態又はイベント]が検出された場合(if [a stated condition or event] is detected)」という語句は、任意選択的に、文脈に応じて、「~と判定したとき(upon determining)」若しくは「~と判定したことに応じて(in response to determining)」、又は「[記載の状態又はイベント]を検出したとき(upon detecting [the stated condition or event])」若しくは「[記載の状態又はイベント]を検出したことに応じて(in response to detecting [the stated condition or event])」を意味すると解釈される。
電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレイヤー機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップ又はタブレットコンピュータなどの他のポータブル電子デバイスも使用される。また、いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであることも理解されたい。
以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。
デバイスは、通常、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。
本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透明なユーザインタフェースを備える様々なアプリケーションをサポートする。
ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態に係る、タッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。
本明細書及び特許請求において使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代理(プロキシ)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、判定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値が、接触の推定される力を決定するために組み合わされる(例えば、加重平均される)。同様に、スタイラスの感圧性先端部が、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化が、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。一部の実装形態では、接触の力又は圧力の代替測定値が、強度閾値を超えているかどうかを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。いくつかの実装形態では、接触力又は圧力の代理測定値は、力又は圧力の推定値に変換され、力又は圧力の推定値が、強度閾値を超えているかどうかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを表示する実装面積が限られている低減されたサイズのデバイス上で、ユーザが他の方法ではアクセス不可能であり得る追加のデバイス機能にユーザがアクセスすること(例えば、タッチ感知ディスプレイ上で)、及び/又は、ユーザ入力を受信すること(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的コントロールを介して)が可能となる。
本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザによりユーザの触覚を以って検出されることになる、デバイスの従前の位置に対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は手の他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変化に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、任意選択的に、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、解釈される。場合によっては、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がない場合であっても、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、任意選択的に、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザにとって記述された感覚認知を生成するであろうデバイス、又はデバイスの構成要素の物理的変位に対応する。
デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有し、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実装される。
メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。
周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる又は実行して、デバイス100のための様々な機能を実行し、データを処理する。いくつかの実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上に実装される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。
RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネットと、セルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などのイントラネット及び/又は無線ネットワークと、並びに他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線装置などによって近距離通信(near field Communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、モバイル通信用グローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution,Data-Only、EV-DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth、Bluetoothローエネルギー(Bluetooth Low Energy、BTLE)、ワイヤレスフィデリティ(Wireless Fidelity、Wi-Fi)(例えば、IEEE802.11a、IEEE802.11b、IEEE802.11g、IEEE802.11n、及び/若しくはIEEE802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンション用のセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適切な通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、オーディオデータを電気信号に変換し、電気信号をスピーカ111に送信する。スピーカ111は電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、オーディオデータを処理のために周辺機器インタフェース118に送信する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に伝送される。いくつかの実施形態では、オーディオ回路110はまた、ヘッドセットジャック(例えば、図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用であるヘッドホン、又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を備えるヘッドセットなどの、着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、深度カメラコントローラ169、強度センサコントローラ159、触覚フィードバックコントローラ161、及び、他の入力デバイス若しくは制御デバイス用の1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの代替的な実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又はいずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量コントロールのためのアップ/ダウンボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。
全体が参照により本明細書に組み込まれる、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押下は、任意選択的に、タッチスクリーン112のロックを解放し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをロック解除するプロセスを開始する。プッシュボタン(例えば、206)のより長い押下は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能性、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112が、仮想ボタン又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。
タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信、及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚出力を表示する。視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。
タッチスクリーン112は、触覚及び/又は触知接触に基づいてユーザからの入力を受け入れる、タッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は、(任意の関連モジュール及び/又はメモリ102内の命令セットとともに)、タッチスクリーン112上における接触(及び接触の任意の移動又は中断)を検出し、検出された接触をタッチスクリーン112に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。
タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術も使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる動き又は中断を検出する。それには、限定されることなく、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する、他の近接センサアレイ又は他の素子を含む。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるような、投影型相互静電容量感知技術が使用される。
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、任意選択的に、米国特許第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/若しくは第6,677,932号(Westerman)、並びに/又は米国特許公報第2002/0015024(A1)号に記載されているマルチタッチ感知タッチパッドに類似している。これら特許のそれぞれは、全体が参照により本明細書に組み込まれる。しかし、タッチ感知タッチパッドは視覚出力を提供しないのに対して、タッチスクリーン112はデバイス100からの視覚出力を表示する。
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、以下の出願に記載されている。
(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi-Functional Hand-Held Device」。これらの出願は全て、全体が参照により本明細書に組み込まれる。
(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi-Functional Hand-Held Device」。これらの出願は全て、全体が参照により本明細書に組み込まれる。
タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の好適な物体又は付属物を使用して、タッチスクリーン112に接触する。いくつかの実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャを主に使用して動作するように設計されるが、指のタッチスクリーン上の接触面積はより大きいため、スタイラスベースの入力ほど正確でない可能性がある。一部の実施形態では、デバイスは、指による粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソル位置又はコマンドに変換する。
いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを含む。一部の実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面、又はタッチスクリーンによって形成されるタッチ感知面の拡張部である。
デバイス100は、様々な構成要素に電力を供給する電力システム162も含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。
デバイス100は、任意選択的に、1つ以上の光センサ164をまた、含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、任意選択的に、静止画像又は動画をキャプチャする。いくつかの実施形態では、光センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対側のデバイス100の裏面に位置し、したがってタッチスクリーンディスプレイは、静止画像及び/又は動画の取得のためのビューファインダとして使用することが可能である。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ている間に、ユーザの画像が、任意選択的に、テレビ会議のために入手されるように、光センサはデバイスの前面に配置される。いくつかの実施形態では、光センサ164の位置は、ユーザによって(例えば、デバイス筐体内でレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光センサ164が、タッチスクリーンディスプレイとともに、テレビ会議にも静止画像及び/又は動画の取得にも使用される。
デバイス100は、任意選択的に、1つ以上の深度カメラセンサ175もまた含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内の対象物(例えば、顔面)の3次元モデルを作成する。いくつかの実施形態では、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、深度カメラセンサ175は、任意選択的に、撮像モジュール143によってキャプチャされた画像の異なる部分の深度マップを決定するために使用される。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見る間に、任意選択的に、深度情報を有するユーザの画像をテレビ会議のために取得し、また、深度マップデータを有する自撮り画像をキャプチャするために、デバイス100の前面に深度カメラセンサが配置されている。いくつかの実施形態では、深度カメラセンサ175は、デバイスの背面に、あるいはデバイス100の背面及び前面に配置される。いくつかの実施形態では、深度カメラセンサ175の位置は、ユーザによって(例えば、デバイスハウジング内でレンズ及びセンサを回転させることによって)変更することができ、したがって深度カメラセンサ175が、タッチスクリーンディスプレイとともに、テレビ会議にも静止画像及び/又は動画の取得にも使用される。
デバイス100は、任意選択的に、1つ以上の接触強度センサ165をまた含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、任意選択的に、1つ以上のピエゾ抵抗ひずみゲージ、容量性力センサ、電気力センサ、圧電力センサ、光学力センサ、容量性タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(若しくは圧力)を測定するために使用されるセンサ)を含む。接触強度センサ165は、接触強度情報(例えば、圧力情報、又は圧力情報に対するプロキシ)を環境から受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接される。いくつかの実施形態では、少なくとも1つの接触強度センサは、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置される。
また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。あるいは、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、全体が参照により本明細書に組み込まれる、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、同、第11/240,788号、「Proximity Detector In Handheld Device」、同、第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、同、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同、第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」に記載されているように機能する。いくつかの実施形態では、多機能デバイスが、ユーザの耳の近くに置かれた場合(例えば、ユーザが電話をかけている場合)、近接センサは、タッチスクリーン112をオフにして無効化する。
デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギーを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触知フィードバック生成命令を触覚フィードバックモジュール133から受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と並置される、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に移動させることによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサは、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置される。
また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。あるいは、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、どちらも全体が参照により本明細書に組み込まれる、米国特許公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び米国特許公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、縦長表示又は横長表示でタッチスクリーンディスプレイに表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の場所及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。
いくつかの実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、図1A及び図3に示すように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示すアクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占めているかを示す表示状態、デバイスの様々なセンサ及び入力コントロールデバイス116から取得した情報を含むセンサ状態、並びにデバイスの位置、及び/又は姿勢に関する位置情報のうちの1つ以上を含む。
オペレーティングシステム126(例えば、Darwin、RTXC、LINUX、UNIX、OS X、iOS、WINDOWS、又はVxWorksなどの組込み型オペレーティングシステム)は、全般的なシステムタスク(例えば、メモリ管理、記憶装置制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えば、ユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに結合するように適合されている。いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは同様であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。
接触/動きモジュール130は、任意選択的に、タッチスクリーン112及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を(ディスプレイコントローラ156と連携して)検出する。接触/動きモジュール130は、接触が生じたかどうかを判定すること(例えば、指ダウンイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するかどうかを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したかどうかを判定すること(例えば、指アップイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
いくつかの実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたかどうかを判定するために(例えば、ユーザがアイコン上で「クリック」したかどうかを判定するために)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、強度閾値の少なくとも1つのサブセットは、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって決定されるのではなく、デバイス100の物理ハードウェアを変更することなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変更することなく、広範囲の既定閾値のうちのいずれかに設定することができる。加えて、いくつかの実装形態では、デバイスのユーザに、(例えば、個々の強度閾値を調整すること、及び/又は複数の強度閾値をシステムレベルのクリック「強度」パラメータによって一度に調整することによって)強度閾値のセットのうちの1つ以上を調整するソフトウェア設定が提供される。
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指ダウンイベントを検出し、それに続いて指ダウンイベントと同じ位置(又は実質的に同じ位置)(例えば、アイコンの位置)で指アップ(リフトオフ)イベントを検出することを含む。別の例として、タッチ感知面上で指スワイプジェスチャを検出することは、指ダウンイベントを検出し、それに続いて1つ以上の指ドラッグイベントを検出し、その後それに続いて指アップ(リフトオフ)イベントを検出することを含む。
グラフィックモジュール132は、表示されるグラフィックの視覚的な影響(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚的特性)を変化させる構成要素を含む、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリング及び表示する様々な既知のソフトウェア構成要素を含む。本明細書では、「グラフィック」という用語は、それだけに限定されるものではないが、文字、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、動画、アニメーションなどを含む、ユーザに表示することができる任意のオブジェクトを含む。
いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データと共に、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力する画面の画像データを生成する。
触覚フィードバックモジュール133は、触知出力生成器(単数又は複数)167によって使用される命令を生成するための様々なソフトウェア構成要素を含み、触知出力生成器167は、ユーザのデバイス100との対話に応じて、デバイス100上の1つ以上の位置での触知出力を生成する。
テキスト入力モジュール134は、任意選択で、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。
GPSモジュール135は、デバイスの位置を判定し、この情報を様々なアプリケーションで使用するために(例えば、位置に基づくダイヤル発呼で使用するために電話138に、写真/動画のメタデータとしてカメラ143に、並びに、天気ウィジェット、地域の職業別電話帳ウィジェット、及び地図/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションに)提供する。
アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又は動画用のカメラモジュール143、
●画像管理モジュール144、
●動画プレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●任意選択的に、天気ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって入手された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●動画プレーヤモジュール及び音楽プレーヤモジュールを一体化した動画及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は、
●オンラインビデオモジュール155。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又は動画用のカメラモジュール143、
●画像管理モジュール144、
●動画プレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●任意選択的に、天気ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって入手された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●動画プレーヤモジュール及び音楽プレーヤモジュールを一体化した動画及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は、
●オンラインビデオモジュール155。
任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
連絡先モジュール137は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、任意選択的に、アドレス帳又は連絡先リストを(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶して)管理するために使用される。連絡先モジュール137による管理には、
アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、実際の住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始かつ/又は促進すること、などが含まれる。
アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、実際の住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始かつ/又は促進すること、などが含まれる。
電話モジュール138は、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、任意選択的に、電話番号に対応する文字シーケンスの入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、それぞれの電話番号のダイヤル、通話の実行、並びに通話終了時の接続切断及び通話停止のために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
テレビ会議モジュール139は、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連携して、ユーザの指示に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了するための実行可能な命令を含む。
電子メールクライアントモジュール140は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの指示に応じて電子メールを作成、送信、受信、及び管理するための実行可能な命令を含む。画像管理モジュール144と連携して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。
インスタントメッセージングモジュール141は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージに対応する文字シーケンスの入力、以前に入力された文字の修正、(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)それぞれのインスタントメッセージの送信、インスタントメッセージの受信、及び受信したインスタントメッセージの閲覧のための実行可能な命令を含む。いくつかの実施形態では、送信される及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるようなグラフィック、写真、オーディオファイル、動画ファイル、及び/又は他の添付ファイルを含む。本明細書では、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)との両方を指す。
トレーニングサポートモジュール142は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽プレーヤモジュールと連携して、トレーニング(例えば、時間、距離、及び/又はカロリー燃焼の目標を有する)を作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択及び再生し、並びに、トレーニングデータを表示、記憶、及び送信するための実行可能な命令を含む。
カメラモジュール143は、タッチスクリーン112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連携して、静止画像若しくは(動画ストリームを含む)動画のキャプチャ及びメモリ102内への記憶、静止画像若しくは動画の特性の修正、又はメモリ102からの静止画像若しくは動画の削除のための実行可能な命令を含む。
画像管理モジュール144は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連携して、静止画像及び/若しくは動画の配置、修正(例えば、編集)、又はその他の操作、ラベル付け、削除、(例えば、デジタルスライドショー若しくはアルバムにおける)提示、及び記憶のための実行可能な命令を含む。
ブラウザモジュール147は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ウェブページ又はその一部分、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含む、ユーザの指示に従ってインターネットをブラウジングするための実行可能な命令を含む。
カレンダモジュール148は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、ユーザの指示に従って、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダアイテム、to-doリストなど)を作成、表示、修正、及び記憶するための実行可能な命令を含む。
ウィジェットモジュール149は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、任意選択的に、ユーザによってダウンロード及び使用されるミニアプリケーション(例えば、天気ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されたミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
ウィジェットクリエータモジュール150は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。
検索モジュール151は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの指示に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)と一致するメモリ102内の文字、音楽、サウンド、画像、動画、及び/又は他のファイルを検索するための実行可能な命令を含む。
動画及び音楽プレーヤモジュール152は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びに動画を(例えば、タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生するための実行可能な命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple Inc.の商標)などのMP3プレイヤーの機能を含む。
メモモジュール153は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの指示に従ってメモ、to-doリストなどを作成及び管理するための実行可能な命令を含む。
地図モジュール154は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、任意選択的に、ユーザの指示に従って、地図及び地図に関連付けられたデータ(例えば、運転の道順、特定の場所又はその付近の店舗及び他の見どころに関するデータ、並びに他の場所ベースのデータ)を受信、表示、修正、及び記憶するために使用される。
オンラインビデオモジュール155は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、ユーザが特定のオンラインビデオへのアクセス、特定のオンラインビデオのブラウジング、(例えば、ストリーミング及び/又はダウンロードによる)受信、(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上の)再生、特定のオンラインビデオへのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイル形式のオンラインビデオの他の管理を行うことを可能にする命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションについての追加の説明は、その内容の全体が参照により本明細書に組み込まれる、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」を参照されたい。
上記で特定したモジュール及びアプリケーションはそれぞれ、前述した1つ以上の機能及び本出願に記載した方法(例えば、本明細書に記載したコンピュータにより実装される方法及び他の情報処理方法)を実行する実行可能な命令のセットに対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットが、任意選択的に、組み合わされ、又は別の方法で再構成される。例えば、動画プレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、図1Aの動画及び音楽プレーヤモジュール152)にされる。いくつかの実施形態では、メモリ102は、任意選択で、上記で特定されたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
いくつかの実施形態では、デバイス100は、そのデバイスにおける既定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを介して実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。
タッチスクリーン及び/又はタッチパッドを通じてのみ実行される既定の機能のセットは、任意選択的に、ユーザインタフェース間をナビゲートすることを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。一部の他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。
図1Bは、いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)と、それぞれのアプリケーション136-1(例えば、前述のアプリケーション137~151、155、380~390のうちのいずれか)とを含む。
イベントソータ170は、イベント情報を受信し、イベント情報を配信するアプリケーション136-1、及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中であるときにタッチ感知ディスプレイ112に表示される現在のアプリケーションビュー(単数又は複数)を示すアプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定するためにイベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報が配信されるアプリケーションビュー191を判定するためにイベントソータ170によって使用される。
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用すべき再開情報、アプリケーション136-1によって表示されている情報を示す又は表示する準備ができたユーザインタフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを可能にする状態キュー、及びユーザによって行われた前のアクションのリドゥ/アンドゥキューのうちの1つ以上などの追加の情報を含む。
イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、タッチ感知ディスプレイ112でのマルチタッチジェスチャの一部としてのユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を超え、かつ/又は、所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。
いくつかの実施形態では、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。
ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示しているときに、サブイベントが1つ以上のビュー内のどこで起きたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができるコントロール及び他の要素から構成されている。
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウィンドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチに基づくジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。
ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するとき、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを特定する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成するサブイベントシーケンスにおける第1のサブイベント)が発生する最も低いレベルのビューである。ヒットビューがヒットビュー判定モジュール172によって特定されると、ヒットビューは、通常、ヒットビューとして特定されたタッチ又は入力ソースと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連付けられたエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により決定されるイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部182によって取得されるイベント情報をイベントキューに記憶する。
いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136-1がイベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュールであり、又は接触/動きモジュール130などのメモリ102内に記憶されている別のモジュールの一部分である。
いくつかの実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理するための命令を含む、複数のイベント処理部190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット、又は、アプリケーション136-1がメソッド及び他のプロパティを継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、それぞれのイベント処理部190は、データ更新部176、オブジェクト更新部177、GUI更新部178、及び/又はイベントソータ170から受信されたイベントデータ179、のうちの1つ以上を含む。イベント処理部190は、任意選択的に、データ更新部176、オブジェクト更新部177、又はGUI更新部178を利用し又は呼び出して、アプリケーション内部状態192を更新する。あるいは、アプリケーションビュー191のうちの1つ以上が、1つ以上のそれぞれのイベント処理部190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178のうちの1つ以上は、それぞれのアプリケーションビュー191に含まれる。
それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、イベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。
イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。一部の実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。
イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば、既定のサブイベントのシーケンス)の定義を含む。いくつかの実施形態では、イベント(187)内のサブイベントは、例えば、タッチの開始、タッチの終了、タッチの移動、タッチの取り消し、及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に対する表示オブジェクト上のタッチ(又は接触)、タッチ感知ディスプレイ112にわたるタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベント処理部190に関する情報も含む。
いくつかの実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112に3つのユーザインタフェースオブジェクトが表示されているアプリケーションビュー内で、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、ヒットテストを実行して、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定する。表示された各オブジェクトが、それぞれのイベント処理部190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベント処理部190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、サブイベントに関連付けられたイベント処理部及びヒットテストをトリガするオブジェクトを選択する。
いくつかの実施形態では、それぞれのイベント187の定義は、サブイベントのシーケンスがイベント認識部のイベントタイプに対応するかどうかが判定されるまで、イベント情報の伝送を遅らせる遅延アクションも含む。
それぞれのイベント認識部180が一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断した場合、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況で、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチに基づくジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態では、それぞれのイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話することが可能となるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における様々なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。
いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントに関連付けられたイベント処理部190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントに関連付けられたイベント情報をイベント処理部190に配信する。イベント処理部190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信すること(及び、送信を延期すること)とは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントに関連付けられたフラグを投げ、そのフラグに関連付けられたイベント処理部190は、そのフラグを捕らえ、既定のプロセスを実行する。
いくつかの実施形態では、イベント配信命令188は、イベント処理部をアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベント処理部に、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベント処理部は、イベント情報を受信し、所定の処理を実行する。
いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新し、又は動画プレーヤモジュールで使用される動画ファイルを記憶する。いくつかの実施形態では、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新たなユーザインタフェースオブジェクトを作成し、又はユーザインタフェースオブジェクトの位置を更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。
いくつかの実施形態では、イベント処理部(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含む又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、それらの全てがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された眼球運動、バイオメトリック入力、並びに/又はそれらの任意の組み合わせは、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用される。
図2は、いくつかの実施形態に係る、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに以下で説明される他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。一部の実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。いくつかの実施形態では、ジェスチャは、デバイス100と接触した指の、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上向きに及び/若しくは下向きに)、並びに/又は、ローリング(右から左へ、左から右へ、上向きに及び/若しくは下向きに)を、任意選択的に含む。一部の実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択しない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上を払うスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択しない。
デバイス100は、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンをまた含む。前述したように、メニューボタン204は、任意選択的にデバイス100上で実行されるアプリケーションのセット内の任意のアプリケーション136にナビゲートするために、任意選択的に使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112に表示されるGUI内のソフトキーとして実装される。
いくつかの実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフし、デバイスをロックするためのプッシュボタン206、音量調整ボタン(単数又は複数)208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、既定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、既定の時間が経過する前にボタンを解放することによってデバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。代替の実施形態では、デバイス100は、マイクロフォン113を介して、いくつかの機能をアクティブ化又は非アクティブ化するための口頭入力もまた受け入れる。デバイス100は、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167もまた含む。
図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレイヤーデバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、通常、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は、ディスプレイ340を含む入出力(I/O)インタフェース330を含み、ディスプレイ340は、通常、タッチスクリーンディスプレイである。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350並びにタッチパッド355と、デバイス300上で触知出力を生成する(例えば、図1Aを参照して前述した触知出力生成器(単数又は複数)167に類似した)触知出力生成器357と、(例えば、図1Aを参照して前述した、光、加速度、近接、タッチ感知、及び/又は接触強度センサ(単数又は複数)165に類似した)センサ359とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、任意選択で、CPU(単数又は複数)310からリモートに位置する1つ以上の記憶デバイスを含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102内に記憶されているプログラム、モジュール、及びデータ構造に類似したプログラム、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は、任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。
図3の上記で特定した要素はそれぞれ、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で特定したモジュールはそれぞれ、前述した機能を実行する命令セットに対応する。上記で特定したモジュール又はプログラム(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットが、任意選択的に組み合わされ、又は他の方法で再構成される。いくつかの実施形態では、メモリ370は、任意選択で、上記で特定されたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
次に、任意選択的に、例えばポータブル多機能デバイス100に実装されるユーザインタフェースの実施形態に注意を向ける。
図4Aは、いくつかの実施形態に係る、ポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi-Fi信号などの無線通信(単数又は複数)用の信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408
○不在着信又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた、電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされた、iPod(Apple Inc.の商標)モジュール152とも称される動画及び音楽プレーヤモジュール152用のアイコン422、及び
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株価ウィジェット149-2のアイコン434、
○「地図」とラベル付けされた、地図モジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136の設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション又はモジュールのアイコン446。
●セルラー信号及びWi-Fi信号などの無線通信(単数又は複数)用の信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408
○不在着信又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた、電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされた、iPod(Apple Inc.の商標)モジュール152とも称される動画及び音楽プレーヤモジュール152用のアイコン422、及び
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株価ウィジェット149-2のアイコン434、
○「地図」とラベル付けされた、地図モジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136の設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション又はモジュールのアイコン446。
図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、動画及び音楽プレーヤモジュール152のアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる、他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。一部の実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。一部の実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前に基づき他と明確に異なる。
図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対して触知出力を生成する1つ以上の触知出力生成器357を含む。
以下の例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示すように、ディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の1次軸(例えば、図4Bの453)に対応する1次軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの動き)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。
加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられる一方、いくつかの実施形態では、指入力のうちの1つ以上が別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)に置き換えられることを理解されたい。例えば、スワイプジェスチャは、任意選択的に、(例えば、接触の代わりに、)マウスクリックであって、その後に(例えば、接触の移動の代わりに)スワイプの経路に沿ったカーソルの移動を伴うマウスクリックによって置き換えられる。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの位置上に位置する間は、(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)マウスクリックによって置き換えられる。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。
図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~図4B)に関して説明された特徴のうちのいくつか又は全てを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下ではタッチスクリーン504、を有する。あるいは、又はタッチスクリーン504に加えて、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチ(複数)に、その強度に基づいて応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。
タッチ強度を検出し処理する例示的な技法は、例えば、それぞれ全体が参照により本明細書に組み込まれる関連出願である、国際特許第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際特許第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」を参照されたい。
いくつかの実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的であり得る。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、眼鏡類、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計のバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。
図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、図1A、図1B、及び図3に関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。加えて、I/Oセクション514は、Wi-Fi、Bluetooth、近距離通信(NFC)、セルラー、及び/又は他の無線通信技法を使用してアプリケーション及びオペレーティングシステムデータを受信する通信ユニット530と接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば回転可能入力デバイス又は押下可能かつ回転可能入力デバイスである。いくつかの例では、入力機構508は、任意選択的にボタンである。
いくつかの例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はそれらの組合せなどの様々なセンサを含み、それらは全て、I/Oセクション514に動作可能に接続することができる。
パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶するための1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、それらの命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、コンピュータプロセッサに、プロセス700(図7A~図7D)、プロセス900(図9A及び図9B)、プロセス1100(図11A~図11C)、プロセス1300(図13A及び図13B)、及びプロセス1500(図15A~図15C)を含めた、以下に説明する技術を実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、若しくはデバイスによって、又は命令実行システム、装置、若しくはデバイスに関連して、使用されるコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体であり得る。いくつかの実施例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの実施例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それらに限定されるものではないが、磁気、光学、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、及びCD、DVD、又はBlu-ray技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの常駐ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。
本明細書で使用される「アフォーダンス」という用語は、デバイス100、300、及び/又は500(図1A、図3、及び図5A~図5B)のディスプレイスクリーンに任意選択的に表示されるユーザ対話グラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及び文字(例えば、ハイパーリンク)はそれぞれ、任意選択的に、アフォーダンスを構成する。
本明細書で使用される「フォーカスセレクタ」という用語は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の位置マーカを含むいくつかの実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の上に位置する間に、入力(例えば、押下入力)がタッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で検出されたとき、特定のユーザインタフェース要素は、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接対話を可能にするタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含むいくつかの実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の位置で入力(例えば、接触による押下入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。いくつかの実装形態では、(例えば、フォーカスを1つのボタンから別のボタンへ移動させるためにタブキー又は矢印キーを使用することによって)タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域に移動され、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの異なる領域間でのフォーカスの移動に従って移動する。フォーカスセレクタがとる具体的な形態にかかわらず、フォーカスセレクタは、一般に、ユーザが意図する対話を(例えば、ユーザがそれを通じて対話することを意図しているユーザインタフェースの要素をデバイスに示すことによって)ユーザインタフェースに伝えるためにユーザによって制御されるユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)である。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、それぞれのボタン上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、(デバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)それぞれのボタンをアクティブ化することをユーザが意図していることを示すものである。
本明細書及び特許請求の範囲において使用されるとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプルに基づく、又は既定のイベントに対する所定の時間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。既定のイベントは、例えば、接触を検出後、接触のリフトオフ検出前、接触の移動開始を検出する前又は後、接触の終わりの検出前、接触強度の増大検出前又は後、及び/又は、接触強度の減少検出前又は後である。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。一部の実施形態では、特性強度を判定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。一部の実施形態では、特性強度は、ユーザによって動作が実行されたかどうかを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1つ以上の強度閾値のセットは、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この例では、第1の閾値を超えない特性強度を有する接触は第1の動作をもたらし、第1の強度閾値を超えるが第2の強度閾値を超えない特性強度を有する接触は第2の動作をもたらし、第2の閾値を超える特性強度を有する接触は第3の動作をもたらす。いくつかの実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、それぞれの動作を実行するべきか、それともそれぞれの動作を実行するのを見送るべきか)を判定するために使用される。
一部の実施形態では、特性強度を判定する目的のために、ジェスチャの一部分が特定される。例えば、タッチ感知面は、任意選択的に、開始位置から移行して終了位置に到達するスワイプ接触を受容し、その位置で接触の強度が増大する。この例では、終了位置での接触の特性強度は、任意選択的に、連続的なスワイプ接触の一部分のみ(例えば、スワイプ接触のうち終了位置の部分のみ)に基づいており、スワイプ接触全体には基づかない。いくつかの実施形態では、接触の特性強度を判定する前に、任意選択的に、平滑化アルゴリズムがスワイプ接触の強度に適用される。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を判定する目的上、スワイプ接触強度における幅の狭い急上昇又は急低下を除去する。
タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押下の強度閾値、深い押下の強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けられる。一部の実施形態では、軽い押下強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作をデバイスが実行する強度に相当する。一部の実施形態では、深い押下強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作とは異なる動作をデバイスが実行する強度に相当する。いくつかの実施形態では、軽い押下強度閾値を下回る(例えば、かつそれを下回ると接触が検出されなくなる名目的接触検出強度閾値を上回る)特性強度を有する接触が検出されたとき、デバイスは、軽い押下強度閾値又は深い押下強度閾値に関連付けられた動作を実行することなく、フォーカスセレクタをタッチ感知面上の接触の移動に従って移動させる。一般に、特に明記しない限り、これらの強度閾値は、ユーザインタフェースの図の様々なセットの間で一貫している。
軽い押下強度閾値を下回る強度から、軽い押下強度閾値と深い押下強度閾値との間の強度への、接触の特性強度の増大は、「軽い押下」の入力と呼ばれることがある。深い押下強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への、接触の特性強度の増大は、「深い押圧」の入力と呼ばれることがある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への、接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれることがある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への、接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれることがある。いくつかの実施形態では、接触検出強度閾値はゼロである。いくつかの実施形態では、接触検出強度閾値はゼロより大きい。
本明細書に記載するいくつかの実施形態では、1つ以上の動作は、それぞれの押下入力を含むジェスチャを検出したことに応じて、又はそれぞれの押下入力がそれぞれの接触(若しくは複数の接触)によって実行されたことを検出したことに応じて実行され、それぞれの押下入力は、接触(又は複数の接触)強度が押下入力強度閾値を上回って増大したことを検出することに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押下入力強度閾値を上回るそれぞれの接触の強度の増大(例えば、それぞれの押下入力の「ダウンストローク」)を検出したことに応じて実行される。いくつかの実施形態では、押下入力は、押下入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押下入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続く押下入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押下入力の「アップストローク」)を検出したことに応じて実行される。
一部の実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押下入力強度閾値との既定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押下入力強度閾値よりもX強度単位低い、又はヒステリシス強度閾値は、押下入力強度閾値の75%、90%、若しくは何らかの妥当な割合である)。したがって、いくつかの実施形態では、押下入力は、押下入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く、押下入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続くヒステリシス強度閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押下入力の「アップストローク」)を検出したことに応じて実行される。同様に、一部の実施形態では、押下入力は、デバイスが、ヒステリシス強度閾値以下の強度から押下入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、その後のヒステリシス強度以下の強度への接触の強度の減少を検出するときにのみ検出され、それぞれの動作は、押下入力(例えば、状況に応じて、接触の強度の増大又は接触の強度の減少)を検出したことに応じて実行される。
説明を簡単にするため、押下入力強度閾値に関連付けられた押下入力に応じて、又は押下入力を含むジェスチャに応じて実行される動作は、任意選択的に、押下入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押下入力強度閾値を上回る強度への接触の強度の増大、押下入力強度閾値を下回る接触の強度の減少、及び/又は、押下入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少、のいずれかを検出したことに応じてトリガされる。更に、押下入力強度閾値を下回る接触の強度の減少を検出したことに応じて実行されるように動作が記載される例において、動作は、任意選択的に、押下入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。
次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上に実装されるユーザインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。
図6A~図6AFは、いくつかの実施形態に係る、コンテンツベースの触知出力に関連付けられた例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図7A~図7Dにおけるプロセスを含む、以下で説明するプロセスを例示するために使用される。
図6Aは、ディスプレイ602と、入力要素604(例えば、デバイスの筐体に対して回転可能な回転可能入力デバイス、固定ソケットと、シャフトに取り付けられた又は固定された回転可能な構成要素(例えば、クラウン)と、を含む回転可能入力デバイス/機構であって、回転可能な構成要素及びシャフトが、固定ソケット内で一緒に回転する、回転可能入力デバイス/機構、固定構成要素(例えば、固定シャフト)に対して回転する回転可能な構成要素(例えば、クラウン)を含む回転可能入力デバイス/機構、回転の方向が電子デバイスのディスプレイに平行であるように軸上で回転入力に応じて回転する回転可能入力デバイス/機構、デバイス自体が物理的に回転されずに(例えば、タッチ検出機構を介して)回転入力を検出することができる回転可能入力デバイス/機構、回転可能かつ押圧可能な入力デバイス、回転可能なクラウン)と、1つ以上の触知出力生成器(例えば、回転可能入力要素604内に、かつ/又はデバイスの筐体内に組み込まれた)とを有する電子デバイス600(例えば、スマートウォッチ)を示す。いくつかの実施形態では、電子デバイス600はまた、入力ボタン606(例えば、機械的入力ボタン、押圧可能な入力ボタン)も含む。
電子デバイス600は、入力要素604及び/若しくはデバイスの筐体内に囲まれ、かつ/若しくはそれと一体化された、又は別の方法で、直接若しくは間接的に機械的に結合された1つ以上の触知出力生成器を含む。それにより、触知出力生成器によって生成された触知出力が入力要素604において触知出力を生成する。1つ以上の触知出力生成器は、デバイスのディスプレイ602上で表示され、ナビゲート/スクロール/調整されているコンテンツのタイプ(例えば、連続テキストなどの連続コンテンツ、又は、プラッタ、アフォーダンス、ボタンなどの個別のコンテンツ)に基づいて、以下の表1に記載されているように、様々に異なるタイプの触知出力シーケンスを生成する。いくつかの実施形態では、1つ以上の触知出力生成器はまた、様々に異なるタイプの触知出力シーケンスに関連付けられた様々に異なるタイプのオーディオ出力シーケンスを生成する。本明細書に記載される触知出力シーケンス610、620、630、及び1220は、上述の1つ以上の触知出力生成器によって生成される。いくつかの実施形態では、触知出力シーケンス610、620、630、及び1220に関連付けられた本明細書に記載のオーディオ出力シーケンスもまた、上述の1つ以上の触知出力生成器によって生成される。
いくつかの実施形態では、直前に記載したデバイスの1つ以上の触知出力生成器によって生成される特定のタイプの触知出力シーケンスは、特定の触知出力パターンに対応する。例えば、触知出力パターンは、触知出力の振幅、触知出力の移動波形の形状、触知出力の周波数、及び/又は触知出力の持続時間などの触知出力の特性を指定する。様々に異なる触知出力パターンを有する触知出力がデバイスによって生成されると(例えば、触知出力を生成するために可動質量を移動させる1つ以上の触知出力生成器を介して)、触知出力は、ユーザがデバイスを保持又はタッチする際に様々に異なる触覚感覚を引き起こし得る。ユーザの感覚は、触知出力のユーザの知覚に基づいているが、ほとんどのユーザは、デバイスによって生成される触知出力の波形、周波数、及び振幅の変化を識別することが可能である。
より具体的には、図5C~5Eは、上述したもの並びに本明細書で論じるユーザインタフェース及び方法に関して記載したものなどの、様々なシナリオ及び様々な目的に好適な触覚フィードバックを生成するために、個々に又は組合せて、そのままで又は1つ以上の変換(例えば、変調、増幅、トランケートなど)を介して、使用してもよいサンプル触知出力パターンのセットを提供する。触知出力のパレットのこの例は、触知出力パターンのアレイを作成するために、3つの波形及び8つの周波数のセットをどのように使用することができるかを示す。これらの図に示す触知出力パターンに加えて、これらの触知出力パターンのそれぞれは、任意選択的に、例えば図5F~5Hに1.0、0.75、0.5、及び0.25のゲインを有する変形形態によってそれぞれ示すフルタップ(FullTap)80Hz、フルタップ200Hz、ミニタップ(MiniTap)80Hz、ミニタップ200Hz、マイクロタップ(MicroTap)80Hz、及びマイクロタップ200Hzに対して示すように、触知出力パターンに対するゲイン値を変化させることによって、振幅が調整される。図5F~5Hに示すように、触知出力パターンのゲインを変化させることにより、パターンの周波数又は波形の形状を変化させることなく、パターンの振幅が変化する。いくつかの実施形態では、触知出力パターンの周波数を変化させることによっても、振幅がより低くなる。これは、いくつかの触知出力生成器では、可動質量に印加できる力に制限があるためである。したがって、波形を生成するために必要とされる加速が、触知出力生成器の動作力の範囲外の力を必要としないことを確実とするため、より高い周波数での質量の移動は、より低い振幅に抑制される(例えば、230Hz、270Hz、及び300Hzにおけるフルタップのピーク振幅は、80Hz、100Hz、125Hz、及び200Hzにおけるフルタップの振幅より低い)。
図5C~5Hは、特定の波形を有する触知出力パターンを示す。触知出力パターンの波形は、中立位置(例えば、Xzero)に対する物理的変位、対、可動質量がその触知出力パターンで触知出力を生成するまでに経過する時間のパターンを表す。例えば、図5Cに示す第1の組の触知出力パターン(例えば、「フルタップ」の触知出力パターン)はそれぞれ、2つの完全なサイクルを有する振動(例えば、中立位置で開始かつ終了し、中立位置を3回交差する振動)を含む波形を有する。図5Dに示す第2の組の触知出力パターン(例えば、「ミニタップ」の触知出力パターン)はそれぞれ、1つの完全なサイクルを含む振動(例えば、中立位置で開始かつ終了し、中立位置を1回交差する振動)を含む波形を有する。図5Eに示す第3の組の触知出力パターン(例えば、「マイクロタップ」の触知出力パターン)はそれぞれ、完全なサイクルの2分の1を含む振動(例えば、中立位置で開始かつ終了し、中立位置を交差しない振動)を含む波形を有する。触知出力パターンの波形はまた、触知出力の開始時及び終了時の可動質量の漸進的な加速及び減速を表す開始バッファ及び終了バッファを含む。図5C~図5Hに示す例示的な波形は、可動質量の移動の最大限度及び最小限度を表すXmin値及びXmax値を含む。より大きな可動質量を有するより大きな電子デバイスの場合、質量の移動のより大きい、又はより小さい最小限度及び最大限度を有し得る。図5C~5Hに示す例は、1次元における質量の移動を説明しているが、同様の原理は2次元又は3次元における可動質量の移動にも適用されるであろう。
図5C~5Eに示すように、各触知出力パターンはまた、その特性周波数を有する触知出力からユーザが感じる触覚の「ピッチ」に影響を及ぼす対応する特性周波数を有する。連続する触知出力の場合、特性周波数は、触知出力生成器の可動質量によって所与の期間内に完了されるサイクルの数(例えば、1秒当たりのサイクル)を表す。個別の触知出力の場合、(例えば、0.5、1、又は2回のサイクルを有する)個別の出力信号が生成され、特性周波数の値は、その特性周波数を有する触知出力を生成するために可動質量がどれだけ速く動く必要があるかを指定する。図5C~5Hに示すように、(例えば、フルタップ、ミニタップ、又はマイクロタップなどの、それぞれの波形によって画定される)各タイプの触知出力に対して、より高い周波数値は、可動質量のより速い移動(単数又は複数)、及び、したがって一般に、触知出力を完了させるためのより短い時間(例えば、個別の触知出力に対して必要とされるサイクル数(単数又は複数)を完成させる時間と、開始及び終了バッファ時間との和を含む)に対応する。例えば、80Hzの特性周波数を有するフルタップは、100Hzの特性周波数を有するフルタップより、完了させるのに長くかかる(例えば、図5Cの35.4ms対28.3ms)。加えて、所与の周波数に対して、それぞれの周波数においてその波形内により多くのサイクルを有する触知出力は、同じそれぞれの周波数においてその波形内により少ないサイクルを有する触知出力より、完了させるのに長くかかる。例えば、150Hzにおけるフルタップは、150Hzにおけるミニタップより、完了させるのに長くかかり(例えば、19.4msと12.8ms)、150Hzにおけるミニタップは、150Hzにおけるマイクロタップより、完了させるのに長くかかる(例えば、12.8msと9.4ms)。しかし、異なる周波数の触知出力パターンでは、この規則性が当てはまらないことがある(例えば、より多くのサイクルを有するが周波数がより高い触知出力は、より少ないサイクルを有するが周波数がより低い触知出力よりも完了させる時間が短いことがあり、その逆もまた同様である)。例えば、300Hzにおいて、フルタップは、ミニタップと同じだけ長くかかる(例えば、9.9ms)。
図5C~5Eに示すように、触知出力パターンはまた、特性振幅を有し、特性振幅は、触知信号内に含まれるエネルギー量、又はその特性振幅を有する触知出力によってユーザが感じ得る触覚の「強度」に影響を及ぼす。いくつかの実施形態では、触知出力パターンの特性振幅は、触知出力を生成するときの中立位置からの可動質量の最大変位を表す絶対値又は正規化値を指す。いくつかの実施形態では、触知出力パターンの特性振幅は、例えば、固定された又は(例えば、ユーザインタフェースのコンテキスト及び挙動に基づいてカスタマイズされる)様々な状態に従って動的に決定されるゲイン係数(例えば、0~1の値)、並びに/又は事前設定されたメトリック(例えば、入力ベースのメトリック、及び/若しくはユーザインタフェースベースのメトリック)によって、調整可能である。いくつかの実施形態では、入力ベースのメトリック(例えば、強度変化メトリック又は入力速度メトリック)は、触知出力の生成をトリガする入力中の入力の特性(例えば、押下入力における接触の特性強度の変化の速度、又はタッチ感知面にわたる接触の動きの速度)を評価する。いくつかの実施形態では、ユーザインタフェースベースのメトリック(例えば、境界横断速度メトリック)は、触知出力の生成をトリガするユーザインタフェースの変化中のユーザインタフェース要素の特性(例えば、ユーザインタフェース内の隠された又は可視の境界を越える要素の動きの速度)を示す。一部の実施形態では、触知出力パターンの特性振幅は「包絡線」によって変調されてもよく、隣接するサイクルのピークは異なる振幅を有してもよく、上記の波形のうちの1つは、経時的に(例えば、0~1まで)変化する包絡線パラメータ乗算によって更に変調され、触知出力が生成されている間に経時的に触知出力の一部の振幅が徐々に調整される。
図5C~5Eには、例示を目的として、サンプル触知出力パターンにおける特有の周波数、振幅、及び波形が表されているが、類似の目的で、他の周波数、振幅、及び波形を有する触知出力パターンを使用してもよい。例えば、0.5~4回のサイクルを有する波形を使用することができる。また、60Hz~400Hzの範囲の他の周波数も用いることができる。以下の表1は、触知出力/触覚フィードバック挙動及び構成の例、並びに本明細書で例示及び説明されるコンテンツベースの触知出力を管理するためのユーザインタフェースに関するするそれらの使用例を提供する。
図6A~図6AFの例示的なユーザインタフェースに戻ると、図6Aにおいて、電子デバイス600は、ディスプレイ602上に、プラッタ608A及びプラッタ608Bを含む、複数のプラッタ(例えば、ユーザインタフェース内の他のプラッタとは機能及び/又は目的が別個であり、かつユーザインタフェース内の他のプラッタ及び他のユーザインタフェースオブジェクト、アイテム、若しくは要素と視覚的に別個かつ/又は区別可能である、視覚的に別個かつ選択可能なユーザインタフェースオブジェクト、アイテム、又は要素であるユーザインタフェースの既定のユニット)を含むトレーニングアプリケーションのユーザインタフェース608を表示する。プラッタ608A及び608Bを示すユーザインタフェース608を表示している間に、電子デバイス600は、入力要素604を介して(例えば、時計回り方向の)回転入力601を検出する。
図6Bでは、入力要素604における回転入力601を検出したことに応じて、電子デバイス600は、プラッタ608A及び608Bを含むユーザインタフェース608の複数のプラッタを(例えば、時計回り方向である回転入力の方向に従って下方方向に)スクロールする。図6Bでは、回転入力601を検出したことに応じてユーザインタフェース608の複数のプラッタをスクロールしている間に、電子デバイス600は、入力要素604を介して、回転入力601を検出し続ける。
電子デバイス600は、入力要素604上に回転入力601を検出し続けている間に、ユーザインタフェース608のうちの、プラッタ608A及び608Bを含む複数のプラッタをスクロールし続ける。図6Cでは、複数のプラッタがスクロールされるにつれて、プラッタ608Aは、ディスプレイの縁部(例えば、上縁部)外にスライドし、一方、プラッタ608Bは、ディスプレイの焦点領域(例えば、中央領域、中間領域)に移動される。いくつかの実施形態では、プラッタなどのユーザインタフェースアイテム又は要素は、ユーザインタフェースアイテム又は要素の焦点が焦点領域に移動されたときに、焦点領域に「到達」していると見なされる。いくつかの実施形態では、プラッタなどのユーザインタフェースアイテム又は要素は、ユーザインタフェースアイテム/要素の縁部(例えば、上縁部又は底縁部)が焦点領域に移動されたときに、焦点領域に「到達」していると見なされる。いくつかの実施形態では、焦点領域に到達すると、ユーザインタフェースアイテム又は要素は、焦点領域に「スナップ」する。
図6Cでは、プラッタ608Bは、ディスプレイの焦点領域に向かって移動されて「スナップ」する。プラッタ608Bがディスプレイの焦点領域に「スナップ」すると、電子デバイス600は、触知出力シーケンス610(例えば、表1に記載されているような「主要」触知出力)を生成する。以下により詳細に説明するように、生成される触知出力のタイプは、ディスプレイ上で現在移動、ナビゲート、及び/又は操作されているユーザインタフェースアイテム又は要素のタイプに基づく。いくつかの実施形態では、電子デバイス600はまた、1つ以上の触知出力生成器を介して、触知出力シーケンス610に関連付けられたオーディオ出力シーケンス(例えば、第1のタイプのオーディオパターンを有する)も生成する。
電子デバイス600は、入力要素604における回転入力601を検出し続けている間に、ユーザインタフェース608のうちの、プラッタ608Bを含む複数のプラッタをスクロールし続ける。図6Dでは、複数のプラッタがスクロールされるにつれて、プラッタ608Bは、ディスプレイの縁部(例えば、上縁部)外にスライドし始め、一方、プラッタ608Cは、ディスプレイの反対側の縁部(例えば、底縁部)からディスプレイ上に移動される。
電子デバイス600は、入力要素604上に回転入力601を検出し続けている間に、ユーザインタフェース608のうちの、プラッタ608Cを含む複数のプラッタをスクロールし続ける。図6Eでは、複数のプラッタがスクロールされるにつれて、プラッタ608Bは、ディスプレイの縁部(例えば、上縁部)外にスライドし、一方、プラッタ608Cは、ディスプレイの焦点領域(例えば、中央領域、中間領域)に移動される。
図6Eでは、プラッタ608Cは、ディスプレイの焦点領域に向かって移動されて「スナップ」する。プラッタ608Cがディスプレイの焦点領域に「スナップ」すると、電子デバイス600は、再び触知出力シーケンス610(例えば、上記の表1により詳細に記載されているような「主要」触知出力)を生成する。いくつかの実施形態では、電子デバイス600はまた、触知出力シーケンス610に関連付けられたオーディオ出力シーケンス(例えば、第1のタイプのオーディオパターンを有する)も生成する。
図6Fでは、電子デバイス600は、メッセージングアプリケーションに関連付けられたメッセージ(例えば、電子メールアプリケーションの電子メール、テキストメッセージングアプリケーション、チャットメッセージ、又はチャットアプリケーションのテキストメッセージ)を(例えば、デバイスの無線通信無線機を介して)受信する。メッセージを受信したことに応じて、電子デバイス600は、ディスプレイ上に、メッセージが受信されたことを示す通知612を表示する。加えて、電子デバイス600は、新しいメッセージが受信されたことを通知する通知触知出力614を生成する。いくつかの実施形態では、通知触知出力614は、触知出力シーケンス610を生成する1つ以上の触知出力生成器とは異なる1つ以上の触知出力生成器を介して生成される。いくつかの実施形態では、通知触知出力614及び触知出力シーケンス610は、同じ1つ以上の触知出力生成器によって生成される。
図6Gでは、ディスプレイ602上に、受信したメッセージ(例えば、電子メールメッセージ)に対応する通知612を表示した後に、電子デバイス600は、通知612のユーザ選択603を(例えば、ディスプレイ602のタッチ感知面を介して)検出する。
図6Hでは、通知612のユーザ選択603を検出したことに応じて、電子デバイス600は、ディスプレイ602上に、受信したメッセージ及び受信したメッセージのテキスト618(例えば、受信したメッセージの連続テキストコンテンツ)に対応する電子メールアプリケーションのユーザインタフェース616を表示する。図6Hに示すように、受信したメッセージのテキスト618は、ディスプレイ上にその全体を同時に示すことができない連続テキストを含み、したがって、ユーザがメッセージのコンテンツの残りの部分を見るためにスクロールされなければならない。
図6Hでは、電子メールアプリケーションのユーザインタフェース616内に、受信したメッセージのテキスト618を表示している間に、電子デバイス600は、入力要素604を介して(例えば、時計回り方向の)回転入力605を検出する。入力要素604における回転入力605を検出したことに応じて、かつ検出している間に、電子デバイス600は、ディスプレイ上のテキスト618をスクロールする。
ディスプレイ上のテキスト618をスクロールしている間に、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス620(例えば、表1に記載されているような「副次的」触知出力)を生成する。いくつかの実施形態では、電子デバイス600はまた、触知出力シーケンス620に関連付けられたオーディオ出力シーケンス(例えば、第2のタイプのオーディオパターンを有する)も生成する。
図6I~図6Jは、入力要素604における回転入力605を検出し続け、回転入力605を検出したことに応じて、かつ検出している間に、ディスプレイ上の受信したメッセージのテキスト618を(例えば、下方に)スクロールする、電子デバイス600を示す。図6I~図6Jに示すように、回転入力605検出しかつテキスト618をスクロールしている間に、電子デバイス600は、触知出力シーケンス620を生成し続ける。
図6Kでは、入力要素604における回転入力605を検出したことに応じて、かつ検出している間に、受信したメッセージのテキスト618をスクロールし続けた後に、テキスト618を構成する連続テキストの終わりに到達する。図6Kに示すように、電子デバイス600は、テキスト618の下の電子メールアプリケーションのユーザインタフェース616内に、受信したメッセージに関連付けられた機能を実行するためのアフォーダンス622(例えば、返信ボタン)を表示する。いくつかの実施形態では、ディスプレイ上にアフォーダンス622を表示する(例えば、完全に表示する)と、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、図6Eを参照して最初に上述した触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。あるいは、いくつかの実施形態では、電子デバイス600は、アフォーダンス622がディスプレイの縁部(例えば、底縁部)からディスプレイに「スナップ」するときに、触知出力シーケンス610を生成する。あるいは、いくつかの実施形態では、電子デバイス600は、アフォーダンス622がディスプレイの焦点領域(例えば、ディスプレイの中央領域)に移動された(例えば、かつ「スナップ」する)とき、触知出力シーケンス610を生成する。
図6Lでは、電子デバイス600は、もはや回転入力605を検出していないが、ディスプレイ602上に、テキスト618の底部部分及びユーザインタフェース616のアフォーダンス622を依然として表示している。
図6Mでは、テキスト618の底部部分及びユーザインタフェース616のアフォーダンス622を表示している間に、電子デバイス600は、入力要素604を介して(例えば、時計回り方向の)回転入力607を検出する。回転入力607を検出したことに応じて、かつ検出し続けている間に、電子デバイス600は、ユーザインタフェース616を(例えば、回転入力607の方向に従って下方方向に)スクロールする。
図6Nでは、入力要素604における回転入力607に応じてユーザインタフェース616をスクロールしている間に、電子デバイス600は、ユーザインタフェース616内のアフォーダンス622の下に、受信したメッセージに関連付けられた別の機能を実行するための、かつアフォーダンス622と同じタイプのユーザインタフェース要素(例えば、電子メールアプリケーションのアフォーダンス)であるアフォーダンス624(例えば、削除ボタン)を表示する。いくつかの実施形態では、ディスプレイ上にアフォーダンス624を表示する(例えば、完全に表示する)と、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。あるいは、いくつかの実施形態では、電子デバイス600は、アフォーダンス622がディスプレイの縁部(例えば、底縁部)からディスプレイに「スナップ」するときに、触知出力シーケンス610を生成する。あるいは、いくつかの実施形態では、電子デバイス600は、アフォーダンス622がディスプレイの焦点領域(例えば、ディスプレイの中央領域)に移動された(例えば、かつ「スナップ」する)とき、触知出力シーケンス610を生成する。
図6Oでは、入力要素604における回転入力607に応じてユーザインタフェース616をスクロールし続けている間に、電子デバイス600は、ユーザインタフェース616内のアフォーダンス624の下に、受信したメッセージに関連付けられた別の機能を実行するための、かつアフォーダンス622及び624と同じタイプのユーザインタフェース要素(例えば、電子メールアプリケーションのアフォーダンス)であるアフォーダンス626(例えば、却下ボタン)を表示する。更に、アフォーダンス626は、ユーザインタフェース616の終端ユーザインタフェース要素である。
いくつかの実施形態では、図6Oに示すように、ディスプレイ上に、アフォーダンス626を表示する(例えば、完全に表示する)と、電子デバイスは、1つ以上の触知出力生成器を介して、触知出力シーケンス630(例えば、表1に記載されているような「限界」触知出力)を生成する。いくつかの実施形態では、電子デバイス600はまた、触知出力シーケンス630に関連付けられたオーディオ出力シーケンス(例えば、第3のタイプのオーディオパターンを有する)も生成する。
あるいは、アフォーダンス622及びアフォーダンス624と同様に、いくつかの実施形態では、ディスプレイ上にアフォーダンス626を表示する(例えば、完全に表示する)と、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。あるいは、いくつかの実施形態では、電子デバイス600は、アフォーダンス622がディスプレイの縁部(例えば、底縁部)からディスプレイに「スナップ」するときに、触知出力シーケンス610を生成する。あるいは、いくつかの実施形態では、電子デバイス600は、アフォーダンス622がディスプレイの焦点領域(例えば、ディスプレイの中央領域)に移動された(例えば、かつ「スナップ」する)とき、触知出力シーケンス610を生成する。
図6Oでは、電子デバイス600は、ユーザインタフェース616の終端ユーザインタフェース要素(例えば、アフォーダンス626)を完全に表示し、かつ触知出力シーケンス630を生成した後であっても、入力要素604における回転入力607を検出し続ける。入力要素604における継続した回転入力607の結果として、ユーザインタフェース616は、図6Pに示すように、アフォーダンス626を越えて空の領域が示されるように、終端ユーザインタフェース要素(例えば、アフォーダンス626)を越えて更にスクロールされる(例えば、ユーザインタフェース616は、その終端要素を越えて「伸張される」)。
アフォーダンス626を越えてスクロールした後に、電子デバイス600は、もはや回転入力607を検出しない。図6Q~図6Rは、回転入力607をもはや検出しないことに応じて、その終端ユーザインタフェース要素(例えば、アフォーダンス626)を越えて伸張される前に、ユーザインタフェース616が図6Oの初期位置に後退する(例えば、「跳ね返る」)のを示す。便宜上、図6O~図6Rに示すユーザインタフェースの伸張及びその後の跳ね返り効果は、以降、「ゴムバンド」効果と呼ばれる。いくつかの実施形態では、終端ユーザインタフェース要素に到達して触知出力シーケンス630を生成した後に、電子デバイス600は、ユーザインタフェースのその後のゴムバンド移動中に触知出力を生成しない。
図6Sは、電子デバイス600がディスプレイ602上に、電子メールアプリケーションのユーザインタフェース616内に受信したメッセージのテキスト618の中間部分を表示するのを示す。テキスト618を表示している間に、電子デバイス600は、入力要素604における非回転入力609(例えば、押圧入力、プレスアンドホールド入力)を検出する。
図6Tでは、入力要素604における非回転入力609を検出したことに応じて、電子デバイス600は、ディスプレイ602上に、ユーザインタフェース616とは異なるユーザインタフェース628(例えば、時間ユーザインタフェース、ホームユースインタフェース、メインユーザインタフェース)を表示する。更に、電子デバイス600は、入力要素604における非回転入力609に応じて触知出力は生成しない。
図6U~図6AFは、電子デバイス600が入力要素604における回転入力に応じて、太陽時計ユーザインタフェース632内をナビゲートするのを示す。図6Uに示すように、太陽時計ユーザインタフェース632は、太陽の経路634と、太陽インジケータ636(例えば、一日の間の太陽の位置を示す曲線)とを含む。図6Uでは、太陽時計ユーザインタフェース632を表示している間に、電子デバイス600は、入力要素604を介して(例えば、時計回り方向の)回転入力611を検出する。
図6Vでは、入力要素604における回転入力611を検出している間、電子デバイス600は、太陽インジケータ636を太陽の経路634に沿って前方方向に移動させ、(例えば、デバイスの1つ以上の触知出力生成器を介して)触知出力シーケンス620を生成し、かつ、いくつかの実施形態では、触知出力シーケンス620に関連付けられたオーディオ出力シーケンスを生成する。また、図6Vに示すように、太陽の経路634上で太陽インジケータ636を移動させている間に、電子デバイス600は、太陽の経路634上に、一日の間の節目となる時間(例えば、夜明け、正午、黄昏、日没、夕闇)に対応する別個の位置638A~638Eを示す。
図6Wでは、入力要素604における回転入力611を検出し続けている間に、電子デバイス600は、太陽インジケータ636が位置638C(例えば、正午)に移動されるまで、太陽インジケータ636を太陽の経路634に沿って前方方向に移動させ続ける。位置638Cに到達すると、電子デバイス600は、(例えば、デバイスの1つ以上の触知出力生成器を介して)触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。
図6X~図6Yでは、入力要素604における回転入力611を検出し続けている間に、電子デバイス600は、別個の位置638Cと638Dとの間で、太陽インジケータ636を太陽の経路634に沿って前方方向に移動させ続け、太陽インジケータ636を移動させている間に、(例えば、デバイスの1つ以上の触知出力生成器を介して)触知出力シーケンス620を生成し、かつ、いくつかの実施形態では、触知出力シーケンス620に関連付けられたオーディオ出力シーケンスを生成する。
図6Zでは、入力要素604における回転入力611を検出し続けている間に、電子デバイス600は、太陽インジケータ636が位置638D(例えば日没)に移動されるまで、太陽インジケータ636を太陽の経路634に沿って前方方向に移動させ続ける。位置638Dに到達すると、電子デバイス600は、(例えば、デバイスの1つ以上の触知出力生成器を介して)触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。
図6AAでは、位置638Dに達した後に、電子デバイス600は、入力要素604における(例えば、反時計回り方向の)回転入力613を検出する。回転入力613を検出したことに応じて、電子デバイス600は、別個の位置638Cと638Dとの間で、太陽インジケータ636を太陽の経路634に沿って後方方向に移動させ、太陽インジケータ636を移動させている間に、(例えば、デバイスの1つ以上の触知出力生成器を介して)触知出力シーケンス620を生成し、かつ、いくつかの実施形態では、触知出力シーケンス620に関連付けられたオーディオ出力シーケンスを生成する。
図6ABでは、電子デバイス600は、入力要素604における(例えば、時計回り方向の)回転入力615を検出する。回転入力615を検出したことに応じて、電子デバイス600は、太陽インジケータ636が位置638D(例えば日没)に再び移動されるまで、太陽インジケータ636を太陽の経路634に沿って前方方向に後退させる。位置638Dに到達すると、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。
図6ACでは、入力要素604における回転入力615を検出し続けている間に、電子デバイス600は、別個の位置638Dと638Eとの間で、太陽インジケータ636を太陽の経路634に沿って前方方向に移動させ続け、太陽インジケータ636を移動させている間に、1つ以上の触知出力生成器を介して、触知出力シーケンス620を生成し、かつ、いくつかの実施形態では、触知出力シーケンス620に関連付けられたオーディオ出力シーケンスを生成する。
図6ADでは、入力要素604における回転入力615を検出し続けている間に、電子デバイス600は、太陽インジケータ636が位置638E(例えば、夕闇)に移動されるまで、太陽インジケータ636を太陽の経路634に沿って前方方向に移動させ続ける。位置638Eに到達すると、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。
図6AEでは、入力要素604における回転入力615を検出し続けている間に、電子デバイス600は、(例えば、別個の位置638Eを過ぎて)太陽インジケータ636を太陽の経路634に沿って前方方向に移動させ続け、太陽インジケータ636を移動させている間に、1つ以上の触知出力生成器を介して、触知出力シーケンス620を生成し、かつ、いくつかの実施形態では、触知出力シーケンス620に関連付けられたオーディオ出力シーケンスを生成する。
図6AFでは、入力要素604における回転入力615を検出し続けている間に、電子デバイス600は、太陽インジケータ636が太陽の経路634の端部位置(例えば、夜中)に移動されるまで、太陽インジケータ636を太陽の経路634に沿って前方方向に移動させ続ける。太陽の経路634の端部位置に到達すると、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。
図7A~図7Dは、いくつかの実施形態に係る、コンテンツベースの触知出力に関連付けられたユーザインタフェースを管理する方法を示すフロー図である。方法700は、ディスプレイ(例えば、ディスプレイ602)と、入力要素(例えば、604)と、1つ以上の触知出力生成器(例えば、図6A~図6AFを参照して上述した電子デバイスの1つ以上の触知出力生成器)とを有するデバイス(例えば、100、300、500、600)において実行される。方法700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法700は、コンテンツベースの触知出力に関連付けられたユーザインタフェースを管理するための直感的な方法を提供する。方法は、ユーザインタフェースを管理しナビゲートする際のユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合には、コンテンツベースの触知出力を提供することによって、ユーザがより高速かつより効率的にユーザインタフェースをナビゲートすることを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
電子デバイス(例えば、600)は、ディスプレイ(例えば、602)上に、ユーザインタフェース(例えば、608、616、メッセージングアプリケーションの連続テキストなどの連続コンテンツ、及び/又はボタン、アフォーダンス、行、プラッタ、パラグラフなどの個別のコンテンツを含むユーザインタフェース)を表示する(702)。いくつかの実施形態では、プラッタは、ユーザインタフェース内の他のプラッタとは機能及び/又は目的が別個であり、かつユーザインタフェース内の他のプラッタ及び他のユーザインタフェースオブジェクト、アイテム、若しくは要素と視覚的に別個かつ/又は区別可能である、視覚的に別個かつ選択可能なユーザインタフェースオブジェクト、アイテム、又は要素であるユーザインタフェースの既定のユニットである。
ユーザインタフェース(例えば、608、616)を表示している間に、電子デバイス(例えば、600)は、入力要素(例えば、604)を介して、第1の入力(例えば、601、605、入力要素における回転入力、回転入力は時計回り方向又は反時計回り方向である)を検出する(704)。
第1の入力(例えば、601、605)を検出したことに応じて(706)、電子デバイス(例えば、600)は、ユーザインタフェース(例えば、608、616)内をナビゲート(例えば、スクロール)する(708)。第1の入力を検出(706)したことに応じて、電子デバイス(例えば、600)は、1つ以上の触知出力生成器を介して、ユーザインタフェース内をナビゲートすることに対応する触知出力(例えば、610、620、多数の個別で個々の触知出力のシーケンス)を生成する(710)。入力要素における回転入力に応じて、かつコンテンツ内をナビゲートしている間に、触知出力を生成することによって、ユーザが、ユーザインタフェース上のコンテンツがスクロールされていること、及びユーザインタフェース上で表示されスクロールされるコンテンツのタイプを迅速かつ容易に認識することを可能にし、それによってデバイスの操作性及びユーザ効率を向上させる。これにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。回転入力に応じて、触知出力を生成する。
ユーザインタフェース(例えば、616)内をナビゲートすることに対応する触知出力(例えば、610、620、多数の個別で個々の触知出力のシーケンス)は、ユーザインタフェース(例えば、616)の現在表示されている部分(例えば、ユーザインタフェースの現在選択されている(例えば、かつ表示されている)部分、又は現在表示されているユーザインタフェース内の現在選択されているユーザインタフェース要素、現在選択されているユーザインタフェース要素の上部部分又は中間部分)が、第1のタイプのコンテンツ(例えば、618、連続テキストなどの連続コンテンツ)を含むとの判定に従って(712)、ナビゲートすることに対応する触知出力が、第1の入力の入力メトリック(例えば、速度及び/又は大きさ)に基づいて決定される1つ以上の触知出力を含む第1のタイプの触知出力シーケンス(例えば、620、テクスチャ触知出力シーケンス)を含む(714)(例えば、ユーザインタフェース内のコンテンツの既定のユニットの移動に関わらず)ことを含む。いくつかの実施形態では、第1のタイプの触知出力シーケンスは、例えば、表示されたコンテンツに対応するアプリケーションによって決定される可変触知出力間隔を含む。ユーザインタフェース内でナビゲートされているコンテンツのタイプに応じて異なるタイプの触知出力シーケンスを生成することにより、ユーザが、コンテンツをナビゲート/スクロールしている間に、ナビゲートされているコンテンツの性質、機能、及び/又は特徴を迅速かつ容易に認識することを可能にする。デバイスの追加の制御を提供し、動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のタイプの触知出力シーケンス(例えば、固定された期間内に生成された620)内に生成された触知出力の数(例えば、出力の速度)は、第1の入力の速度(例えば、回転速度)に対応(例えば、比例)し、第1の入力は、入力要素における回転入力である。いくつかの実施形態では、図14A~図14Hを参照して以下でより詳細に説明するように、入力要素における回転入力の速度(例えば、回転速度)が増加するにつれて、触知出力のシーケンス内の触知出力の数が増加し、したがって、触知出力は、より高い発生率で生成され、入力要素における回転入力の速度(例えば、回転速度)が減少するにつれて、触知出力のシーケンス内の触知出力の数が減少する(例えば、したがって、触知出力は、より低い発生率で生成される)。触知出力の数が回転入力の速度に対応する触知出力シーケンスを生成することにより、デバイスにおけるユーザの入力の性質/特性に関する感覚フィードバックを提供し、それによって、ユーザが(例えば、回転入力の速度を増加又は減少させることによって)適切に応答することを容易にできる。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
ユーザインタフェース(例えば、608)内をナビゲートすることに対応する触知出力(例えば、多数の個別で個々の触知出力のシーケンス)は、ユーザインタフェースの現在表示されている部分(例えば、ユーザインタフェースの現在選択されている(例えば、かつ表示されている)部分、又は現在表示されているユーザインタフェース内の現在選択されているユーザインタフェース要素、現在選択されているユーザインタフェース要素の上部部分又は中間部分)が、第1のタイプのコンテンツとは異なる第2のタイプのコンテンツ(例えば、ボタン、アフォーダンス、行、プラッタ、パラグラフなどの個別のコンテンツ)を含むとの判定に従って(716)、ナビゲートすることに対応する触知出力が、ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンス(例えば、610、コンテンツドリブン(content-driven)触知出力シーケンス)を含む(718)ことを含む。いくつかの実施形態では、電子デバイス(例えば、600)は、ナビゲートされているコンテンツが第2のタイプのものである場合、第2のタイプの触知出力シーケンスに対応する触知出力を生成しない。いくつかの実施形態では、コンテンツの既定のユニットは、コンテンツ内の視覚的に区別されたコンテンツ要素(例えば、ボタン、アフォーダンス、行、プラッタ、パラグラフ)に対応する。
いくつかの実施形態では、ユーザインタフェースは、第2のタイプのコンテンツであるコンテンツを含まない。いくつかの実施形態では、ユーザインタフェースは、個別のコンテンツアイテム(例えば、ボタン、アフォーダンス、行、プラッタ、パラグラフ)を含むことなく、連続的な通知テキストを含む通知ユーザインタフェース(例えば、612)である。
いくつかの実施形態では、ユーザインタフェース(例えば、608)は、第1のタイプのコンテンツであるコンテンツを含まない。いくつかの実施形態では、ユーザインタフェースは、テキストのブロック又は画像などの連続コンテンツを含むことなく、個別のコンテンツアイテム(例えば、ボタン、アフォーダンス、行、プラッタ、パラグラフ)を含む。
いくつかの実施形態では、特定のタイプの触知出力は、特定の触知出力パターンに対応する。例えば、図5C~図5H及び表1を参照して説明したように、触知出力パターンは、触知出力の振幅、触知出力の移動波形の形状、触知出力の周波数、及び/又は触知出力の持続時間などの触知出力の特性を指定する。様々に異なる触知出力パターンを有する触知出力がデバイスによって生成されると(例えば、触知出力を生成するために可動質量を移動させる1つ以上の触知出力生成器を介して)、触知出力は、ユーザがデバイスを保持又はタッチする際に様々に異なる触覚感覚を引き起こし得る。ユーザの感覚は、触知出力のユーザの知覚に基づいているが、ほとんどのユーザは、デバイスによって生成される触知出力の波形、周波数、及び振幅の変化を識別することが可能である。
いくつかの実施形態では、第1のタイプの触知出力シーケンス(例えば、620、テクスチャ触知出力シーケンス)は、第2のタイプの触知出力シーケンス(例えば、610、コンテンツドリブン触知出力シーケンス)とは異なる(例えば、それと区別可能である)。いくつかの実施形態では、第1のタイプの触知出力シーケンスは、第1のタイプの触知出力シーケンスの1つ以上の触知出力の数、振幅、及び/又はパターンが、第2のタイプの触知出力の1つ以上の触知出力の数、振幅、及び/又はパターンとは異なる点で、第2のタイプの触知出力シーケンス(例えば、610)とは異なる。すなわち、電子デバイス(例えば、600)のユーザの観点から、ユーザが第1のタイプの触知出力シーケンスから感じる知覚感覚と、第2のタイプの触知出力シーケンスから感じる知覚感覚は、区別可能である。
いくつかの実施形態では、第2のタイプの触知出力シーケンス(例えば、610、コンテンツドリブン触知出力シーケンス)は、ユーザインタフェース(例えば、608)内のコンテンツの既定のユニット(例えば、ディスプレイ(例えば、602)上に表示され始めている、ディスプレイ上に完全に表示されている、スナップ動作により動いている、ディスプレイから離れ始めている、ディスプレイの外に完全にスクロールされている、又はディスプレイの中心などのディスプレイ上のなんらかの既定の位置へスクロールされている、既定のユニット)(例えば、アフォーダンス、プラッタ)の移動に基づいて決定(例えば、同期、位置合わせ、適合)される。第1のタイプの触知出力シーケンス(例えば、620、テクスチャ触知出力シーケンス)は、ユーザインタフェース内のコンテンツの移動とは独立して(例えば、それに同期されることなく)決定される。
いくつかの実施形態では、1つ以上の触知出力生成器を介して、ユーザインタフェース(例えば、616)内をナビゲートすることに対応する触知出力を生成すること(710)は、ユーザインタフェースが第1のタイプのコンテンツ(例えば、連続テキストなどの連続コンテンツ)の終端部分(例えば、開始部分又は終わりの部分、上部部分又は底部部分、縁部部分、境界部分)を表示しているとの判定(736)に従って、ナビゲートすることに対応する触知出力が、コンテンツが終端部分にあることを示す、第1のタイプの触知出力シーケンス(例えば、620)とは異なる第3のタイプの触知出力シーケンス(例えば、630)を含むことを含む。コンテンツが終端部分にあることを示すために異なるタイプの触知出力を提供することにより、(例えば、コンテンツを更にナビゲート/スクロールすることを試みる必要なく)ユーザがコンテンツの終わりに到達したことをユーザが迅速かつ容易に認識することを可能にすることによって、感覚フィードバックを改善する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、1つ以上の触知出力生成器を介して、ユーザインタフェース内をナビゲートすることに対応する触知出力を生成すること(710)は、ユーザインタフェースが第1のタイプのコンテンツの終端部分を表示していないとの判定に従って(738)、ナビゲートすることに対応する触知出力部分が、(例えば、ナビゲートすることに対応する触知出力部分が、コンテンツのタイプ及びユーザインタフェース内をナビゲートすることの量に応じて、第1のタイプの触知出力シーケンス又は第2のタイプの触知出力シーケンスを任意選択的に含むが)第3のタイプの触知出力シーケンスを含まないことを含む。
いくつかの実施形態では、ユーザインタフェースが第2のタイプのコンテンツ(例えば、608A、608B、ボタン、アフォーダンス、行、プラッタ、パラグラフなどの個別のコンテンツ)を含むとの判定に従って(716)、かつコンテンツの既定のユニットが第1のタイプ(例えば、比較的大きい個別のユーザインタフェースオブジェクト)であるとの判定に従って(728)、触知出力は、第1の振幅を有する。いくつかの実施形態では、ユーザインタフェースが第2のタイプのコンテンツ(例えば、ボタン、アフォーダンス、行、プラッタ、パラグラフなどの個別のコンテンツ)を含むとの判定に従って(716)、かつコンテンツの既定のユニットが第1のタイプとは異なる第2のタイプ(例えば、比較的小さい個別のユーザインタフェースオブジェクト)であるとの判定に従って(730)、触知出力は、第1の振幅より小さい第2の振幅(例えば、低減された振幅)を有する。いくつかの実施形態では、コンテンツの既定のユニットの第2のタイプに対応する触知出力は、コンテンツの既定のユニットの第1のタイプに対応する触知出力の振幅低減バージョンである。様々に異なるタイプの触知出力は、図5C~図5H及び表1を参照してより詳細に上述している。
いくつかの実施形態では、ユーザインタフェース(例えば、608、616、632)内をナビゲートしている間に、ユーザインタフェースの現在表示されている部分が、第2のタイプのコンテンツ(例えば、ボタン、アフォーダンス、行、プラッタ、パラグラフなどの個別のコンテンツ)を含むとの判定に従って、触知出力(例えば、第2のタイプの触知出力シーケンスを含む)を生成すること(732)は、ディスプレイ(例えば、602)上で位置合わせされるコンテンツの第1の既定のユニット(例えば、608A、608B、622、624)の移動(例えば、スナップする移動)(例えば、ディスプレイの焦点領域、中央領域、又は主視認領域などのディスプレイの領域にスナップする、第1の既定のユニット)の移動(例えば、スナップする移動)に応じて触知出力を生成することを含む。コンテンツのうちの第1の既定のユニットの、ディスプレイ上での位置合わせ位置への移動に応じて触知出力を生成することによって、現在、コンテンツの既定のユニットが現在選択されているコンテンツであることをユーザが迅速かつ容易に認識することを可能として、感覚フィードバックを改善し、したがって、ユーザは、コンテンツの既定のユニットに関連付けられた特徴/機能の使用を続行することができる。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、ユーザインタフェース(例えば、608、616、632)内をナビゲートしている間に、ユーザインタフェースの現在表示されている部分が、第2のタイプのコンテンツ(例えば、ボタン、アフォーダンス、行、プラッタ、パラグラフなどの個別のコンテンツ)を含むとの判定に従って、触知出力(例えば、第2のタイプの触知出力シーケンスを含む)を生成すること(734)は、ディスプレイ(例えば、602)上の位置合わせ位置からのコンテンツの第1の既定のユニット(例えば、608A、608B、622、624)の移動(例えば、スナップする移動)(例えば、第1の既定のユニットがディスプレイの焦点領域、中央領域、又は主視認領域などのディスプレイの領域外にスナップする)に応じて触知出力を生成することを含む。
いくつかの実施形態では、電子デバイス(例えば、600)は、ユーザインタフェース(例えば、608、616、632、スクロール可能なユーザインタフェース、修正可能なユーザインタフェース、ナビゲート可能なユーザインタフェース)とは異なる第2のユーザインタフェース(例えば、612、スクロール可能でないユーザインタフェース、修正可能でないユーザインタフェース、ナビゲート可能でないユーザインタフェース、通知)を、(例えば、第1の入力を検出した後に)ディスプレイ上に表示する(746)。いくつかの実施形態では、第2のユーザインタフェースを表示している間に、電子デバイスは、入力要素を介して、第2の入力(例えば、入力要素における時計回り方向又は反時計回り方向の回転入力である回転入力)を検出する(748)。いくつかの実施形態では、第2の入力を検出(750)したことに応じて、電子デバイスは、第2の入力が第2のユーザインタフェースをナビゲートすることを生じさせないとの判定に従って(例えば、第2のユーザインタフェースがスクロール可能でないため)、触知出力を1つ以上の触知出力生成器を介して生成することを取り止める(752)。したがって、いくつかの実施形態では、入力要素における入力(例えば、回転入力)が表示されたユーザインタフェースの変更及び/又は修正を生じさせる場合、電子デバイスは、入力に応じて触知出力を生成せず、それによって、ユーザがデバイス上で入力を行っている間に、入力によって、表示されたユーザインタフェースの変更及び/又は修正が生じたことを迅速かつ容易に認識することを可能にする。ひいては、これにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第2の入力を検出(750)したことに応じて、電子デバイスは、第2の入力が第2のユーザインタフェースをナビゲートすることを生じさせるとの判定に従って(例えば、第2のユーザインタフェースがスクロール可能なため)、1つ以上の触知出力生成器を介して、触知出力を生成する(754)。いくつかの実施形態では、第2のユーザインタフェースをナビゲートすることが連続コンテンツ(例えば、連続テキスト)をナビゲートすることを含む(例えば、それのみを含む)場合、生成された触知出力は、第1のタイプの触知出力/触知出力シーケンス(例えば、テクスチャ触知出力シーケンス)である。いくつかの実施形態では、第2の確実なインタフェースをナビゲートすることが個別のコンテンツ(例えば、ボタン、アフォーダンス、行、プラッタ、パラグラフ)をナビゲートすることを含む(例えば、それのみを含む)場合、生成された触知出力は、第1のタイプの触知出力/触知出力シーケンスとは異なる第2のタイプの触知出力/触知出力シーケンス(例えば、コンテンツドリブン触知出力シーケンス)である。
いくつかの実施形態では、第2のユーザインタフェース(例えば、612)は、通知(例えば、着信電子通信の通知、アラート)に対応し、通知は、ユーザインタフェースの表示(例えば、608)を置き換える。
いくつかの実施形態では、ユーザインタフェース(例えば、608、616)を表示している間に、電子デバイス(例えば、600)は、入力要素(例えば、604)とは異なる第2の入力要素(例えば、電子デバイスのディスプレイのタッチ感知面)を介して、第2の入力(例えば、ディスプレイ(例えば、602)上のタッチに基づくナビゲートするジェスチャ又はスクロールするジェスチャ)を検出(720)する。いくつかの実施形態では、第2の入力を検出(722)したことに応じて、電子デバイスは、ユーザインタフェース内をナビゲート(724)する(例えば、ユーザインタフェース内をスクロールする)。いくつかの実施形態では、第2の入力を検出(722)したことに応じて、電子デバイスは、1つ以上の触知出力生成器を介して、ユーザインタフェース内をナビゲートすることに対応する触知出力を生成することを取り止める(726)。
いくつかの実施形態では、第1の入力(例えば、601、605)を検出したことに応じて(706)、電子デバイス(例えば、600)は、(例えば、1つ以上の触知出力生成器、及び/又は電子デバイスの、若しくは電子デバイスに接続された1つ以上のスピーカを介して)ユーザインタフェース(例えば、608、616、632)内をナビゲートすることに対応する触知出力に関連付けられたオーディオ出力を生成(740)する。いくつかの実施形態では、ユーザインタフェース(例えば、616)の現在表示されている部分が第1のタイプのコンテンツ(例えば、連続コンテンツ)を含むとの判定に従って、オーディオ出力は、触知出力シーケンス610に関連付けられた(例えば、それに基づく)オーディオ出力シーケンスを含む(742)。いくつかの実施形態では、ユーザインタフェース(例えば、608)の現在表示されている部分が第2のタイプのコンテンツ(例えば、個別のコンテンツ)を含むとの判定に従って(744)、オーディオ出力は、第2のタイプの触知出力シーケンスに関連付けられた(例えば、それに基づく)第2のタイプのオーディオ出力シーケンスを含む。触知出力に関連付けられたオーディオ出力を提供することにより、コンテンツがスクロールされていること、及びユーザインタフェース内でスクロールされているコンテンツのタイプをユーザが認識する別の手段を提供することによって、フィードバックを改善する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、入力要素(例えば、604)を介して入力を検出していない間に、通知をトリガするイベント(例えば、612、アラートのアクティブ化、テキスト又は電子メールメッセージなどの電子通信を受信すること)が検出されたとの判定(7526)に従って、電子デバイス(例えば、600)は、通知に対応する触知出力(例えば、614)を生成し、任意選択的に、ディスプレイ上に、通知を表示する。いくつかの実施形態では、第1の入力要素を介して入力を検出している間に、通知をトリガするイベント(例えば、アラートのアクティブ化、テキスト又は電子メールメッセージなどの電子通信を受信すること)が検出されたとの判定に従って、電子デバイスは、通知に対応する触知出力を生成することを取り止め、任意選択的に、ディスプレイ上に、通知を表示することを取り止める。いくつかの実施形態では、通知に対応する触知出力は、抑制される。いくつかの実施形態では、通知に対応する触知出力は、第1の入力要素を介した入力が検出されるのを停止するまで遅延される。いくつかの実施形態では、電子デバイスは、第1の入力がもはや検出されていないことを検出すると、通知を表示する。
いくつかの実施形態では、第1の入力(例えば、601、605)を検出している間に、通知をトリガするイベント(例えば、612、アラートのアクティブ化、テキスト又は電子メールメッセージなどの電子通信を受信すること)が検出されたとの判定に従って、電子デバイス(例えば、600)は、所定の基準(例えば、所定の時間)が満たされるまで、通知に対応する触知出力(例えば、614)(例えば、アラート触知出力)を生成すること(756)を取り止め、任意選択的に、ディスプレイ上に、所定の時間にわたって通知を表示する。いくつかの実施形態では、所定の基準が満たされたとの(例えば、所定の時間が経過したとの)判定に応じて、電子デバイスは、通知に対応する触知出力を生成し(758)、任意選択的に、ディスプレイ上に、通知を表示する。いくつかの実施形態では、電子デバイスは、第1の入力が依然として検出されている場合であっても、所定の時間が経過した後に通知を表示する。したがって、いくつかの実施形態では、通知に対応する触知出力(例えば、アラート触知出力)は、第1の入力を介してユーザインタフェース内をナビゲートすることに対応する触知出力とは干渉しない。
方法700に関して上述したプロセス(例えば、図7A~図7D)の詳細はまた、以下で説明する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法900は、方法700を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法900に記載されているように、コンテンツのスクロール中及びコンテンツの終了時に、異なるタイプの触知出力シーケンスが生成される。別の例では、方法1100は、方法700を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法1100に記載されているように、触知出力シーケンスは、ディスプレイ上のタッチ入力とは対照的に、入力要素における回転入力を介して調整するときに生成される。別の例では、方法1300は、方法700を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法1300に記載されているように、入力要素における回転入力を介して時間設定を調整している間に、1つ以上の異なるタイプの触知出力シーケンスが提供される。別の例では、方法1500は、方法700を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法1500に記載されているように、生成された触知出力シーケンス内の個別の触知出力の大きさ/振幅及び/又は数は、入力要素における回転入力の回転速度の変化に応じて変化する。簡潔にするために、これらの詳細は、以下で繰り返さない。
図8A~図8Tは、いくつかの実施形態に係る、コンテンツの終わりの触知出力に関連付けられた例示的なユーザインタフェースを示す。これらの図中のユーザインタフェースは、図9A、図9Bでのプロセスを含めた、以下で説明されるプロセスを例示するために使用される。
図8Aは、図6A~図6AFを参照して上述したような電子デバイス600を示す。図8Aでは、電子デバイス600は、ディスプレイ602上に、メッセージングアプリケーション(例えば、電子メールアプリケーション、テキストメッセージアプリケーション、チャットアプリケーション)のユーザインタフェース802内に(例えば、受信したメッセージの連続テキストを含む)受信したメッセージのテキスト804を表示する。テキスト804は、ユーザインタフェース802のユーザインタフェースアイテム806内に示されており、ユーザインタフェースアイテム806は、ユーザインタフェース802の終端ユーザインタフェース要素(例えば、第1のユーザインタフェース要素)であり、テキスト804の開始がディスプレイ上に示された状態で、その初期位置に表示されている。
図8Aでは、ユーザインタフェース802内のその初期位置にユーザインタフェースアイテム806を表示している間に、電子デバイス600は、入力要素604を介して、(例えば、時計回り方向の)回転入力801を検出する。回転入力801を検出したことに応じて、電子デバイス600は、テキスト804を下方にスクロールして、図8Aではディスプレイ上で見えなかったテキスト804の部分を表示する。図8Bに示すように、(例えば、連続テキストを含む)テキスト804をスクロールしている間に、電子デバイス600は、触知出力シーケンス620(例えば、表1に記載されているような「副次的」触知出力シーケンス)を生成する。いくつかの実施形態では、電子デバイス600はまた、1つ以上の触知出力生成器を介して、触知出力シーケンス620に関連付けられた(例えば、第2のタイプのオーディオパターンを有する)オーディオ出力シーケンスを生成する。
図8Bでは、テキスト804を下方にスクロールした後に、電子デバイス600は、入力要素604を介して、(例えば、反時計回り方向の)回転入力803を検出する。回転入力803を検出したことに応じて、電子デバイス600は、ディスプレイ上のテキスト804の初期位置に向かって上方に、テキスト804をスクロールして戻す。図8Cに示すように、(例えば、連続テキストを含む)テキスト804をスクロールしている間に、電子デバイス600は、触知出力シーケンス620を生成し、かつ、いくつかの実施形態では、触知出力シーケンス620に関連付けられたオーディオ出力シーケンスを生成する。
図8Cでは、電子デバイス600は、入力要素604における回転入力803を検出し続ける。回転入力803を検出し続けたことに応じて、電子デバイス600は、ユーザインタフェースアイテム806がディスプレイにおける初期位置に戻り、かつユーザインタフェース802の上端部がディスプレイの上縁部において到達されるまで、テキスト804を上方にスクロールし続ける。
図8Dでは、ディスプレイにおいてユーザインタフェース802がその上端部に到達すると、電子デバイスは、触知出力シーケンス630(例えば、表1に記載されているような「限界」触知出力シーケンス)を生成する。いくつかの実施形態では、電子デバイス600はまた、1つ以上の触知出力生成器を介して、触知出力シーケンス630に関連付けられた(例えば、第3のタイプのオーディオパターンを有する)オーディオ出力シーケンスを生成する。
図8Dでは、電子デバイス600は、ディスプレイにおいてユーザインタフェース802が上端部に到達した後であっても、入力要素604における回転入力803を検出し続ける。
図8E~図8Fは、最初に図6P~図6Rを参照して上述したような「ゴムバンド」効果によって、テキスト804を含むユーザインタフェースアイテム806が図8Aにおける初期位置を越えてスクロールされているのを示す。図8E~図8Fでは、電子デバイス600は、入力要素604における回転入力803を検出し続ける。入力要素604における継続した回転入力803の結果として、ユーザインタフェース802は、ユーザインタフェースアイテム806を越えた空の領域(例えば、空白である、又はユーザインタフェースアイテムとは異なる色若しくはテクスチャを有する領域)が示されるように、終端ユーザインタフェースアイテム(例えば、ユーザインタフェースアイテム806)を越えて更にスクロールされ、回転入力803がもはや検出されなくなると、ユーザインタフェースアイテム806は、図8Gに示すように、ゴムバンド効果で図8Aのその初期位置に「跳ね返る」。図8E~図8Fに示すゴムバンド効果の間、電子デバイス600は、触知出力を(例えば、オーディオ出力も)生成しない。更に、電子デバイス600は、図8Gに示すように、ユーザインタフェースアイテム806のその初期位置への「跳ね返り」の後に、触知出力シーケンス630シーケンスを生成しない。
図8H~図8Kは、テキスト804が(例えば、ディスプレイ602のタッチ感知面上の)タッチスクロール入力を介してスクロールされているのを示す。図8Hでは、ユーザインタフェースアイテム806をその初期位置に表示している間に、電子デバイス600は、(例えば、ディスプレイ602のタッチ感知面を介して)テキスト804上に(例えば、上方方向の)タッチスクロールジェスチャ805を検出する。
図8Iでは、タッチスクロールジェスチャ805を検出したことに応じて、電子デバイス600は、図8Hでは見えていなかったテキスト804の部分が図8Iで見えるように、テキスト804を(例えば、下方方向に)スクロールする。図8Jでは、タッチスクロールジェスチャ805を検出したことに応じてテキスト804をスクロールした後に、電子デバイス600は、(例えば、上方方向の)別のタッチスクロールジェスチャ807を(例えば、ディスプレイ602のタッチ感知面を介して)検出する。図8G~図8Jに示すように、電子デバイス600は、(例えば、入力要素604における回転入力とは対照的に)タッチスクロール入力に応じてテキスト804をスクロールするときに、触知出力(例えば、触知出力シーケンス620)を生成しない。
図8Kでは、タッチスクロールジェスチャ807を検出したことに応じて、電子デバイス600は、テキスト804の下端部が表示され、ユーザインタフェースアイテム806の下のアフォーダンス808(例えば、返信ボタン)がディスプレイ内に示されるように、(例えば、下方方向に)テキスト804を更にスクロールする。図8Kに示すように、電子デバイス600は、(例えば、入力要素604における回転入力とは対照的に)タッチスクロール入力に応じてアフォーダンス808を表示するときに、触知出力(例えば、触知出力シーケンス610)を生成しない。
いくつかの実施形態では、アフォーダンス808は、ユーザインタフェース802の終端ユーザインタフェースアイテム(例えば、最後の最底部のユーザインタフェースアイテム)である。いくつかの実施形態では、アフォーダンス808がユーザインタフェース802の終端ユーザインタフェースアイテムである場合であっても、電子デバイス600は、ディスプレイがユーザインタフェース802の端部に到達したときに、触知出力(例えば、触知出力シーケンス630)を生成しない。
図8L~図8Pはトレーニングアプリケーション(例えば、図6A~図6Eを参照して最初に上述したトレーニングアプリケーション)の複数のプラッタが、入力要素604における回転入力809によってスクロールされているのを示す。上述のように、プラッタは、(例えば、連続ユーザインタフェース要素/アイテムであるテキスト804の連続テキストとは対照的に)個別のユーザインタフェース要素/アイテムである。
図8Lでは、トレーニングアプリケーションのユーザインタフェース810をディスプレイ602上に表示している間に、ユーザインタフェース810は、プラッタ812を含む複数のプラッタを含み、電子デバイス600は、入力要素604を介して、回転入力809を検出する。
電子デバイス600は、入力要素604における回転入力809を検出したことに応じて、かつ検出し続けている間に、ユーザインタフェース810の複数のプラッタをスクロールする。図8Mでは、プラッタ812は、漸進的にディスプレイの上縁部外に移動され、(例えば、プラッタ812の下に配置された)プラッタ814が漸進的にディスプレイ上に移動する。プラッタ814は、ユーザインタフェース810の終端ユーザインタフェースアイテム(例えば、最後の最底部のプラッタ)である。
図8Nでは、プラッタ814は、入力要素604における回転入力809の結果として、ディスプレイ上に完全に移動される。図8Nに示すように、プラッタ814がディスプレイの底部上に完全に移動されたことに応じて、電子デバイス600は、触知出力シーケンス630を生成し、かつ、いくつかの実施形態では、触知出力シーケンス630に関連付けられたオーディオ出力シーケンスを生成する。
図8O~図8Pでは、電子デバイス600は、入力要素604における回転入力809を検出し続ける。入力要素604上における継続した回転入力809の結果として、ユーザインタフェース810は、終端ユーザインタフェースアイテム(例えば、プラッタ814)を越えて更にスクロールされ、そのため、ユーザインタフェースアイテム814を越えた空の領域(例えば、ゴムバンド効果の「伸張」部分)が示される。
図8Qでは、電子デバイス600は、入力要素604における回転入力809をもはや検出しない。入力要素604における回転入力809をもはや検出しないと、プラッタ814は、(例えば、ゴムバンド効果のうちの「跳ね返り」部分として)図8Nにおけるその初期位置に「跳ね返る」。図8O~図8Qに示すゴムバンド効果の間、電子デバイス600は、触知出力を(例えば、オーディオ出力も)生成しない。更に、電子デバイス600は、図8Qに示す、プラッタ814のその初期位置への「跳ね返り」の後には、触知出力シーケンス630を生成しない。スクロール入力中、コンテンツ生成触知出力の終わりに到達する前、スクロール入力時にコンテンツの終わりが到達した後の触知出力がないことによって、コンテンツの終わりに到達したというインジケーションをユーザに提供する。
図8R~図8Tは、入力要素604における回転入力809とは対照的に、(例えば、ディスプレイ602のタッチ感知面上の)タッチスクロールジェスチャ811に応じる、プラッタ814のゴムバンド効果を示す。ゴムバンド効果に先立って、入力要素604における回転入力(例えば、回転入力809)に応じてスクロールすることとは対照的に、電子デバイス600は、タッチスクロールジェスチャに応じて、ユーザインタフェース810の端部に最初に到達する(例えば、図8Nに示すように、プラッタ814がディスプレイの底部上に完全に移動される)ときに、触知出力を生成しない(例えば、触知出力シーケンス630を生成しない)。更に、図8R~図8Tに示すゴムバンド効果の間、電子デバイス600は、触知出力を(例えば、オーディオ出力も)生成しない。
図9A~図9Bは、いくつかの実施形態に係る、コンテンツの終わりの触知出力に関連付けられたユーザインタフェースを管理する方法を示すフロー図である。方法900は、ディスプレイと、入力要素(例えば、デバイスの筐体に対して回転可能な回転可能入力デバイス、固定ソケットと、シャフトに取り付けられた又は固定された回転可能な構成要素(例えば、クラウン)と、を含む回転可能入力デバイス/機構であって、回転可能な構成要素及びシャフトが、固定ソケット内で一緒に回転する、回転可能入力デバイス/機構、固定構成要素(例えば、固定シャフト)に対して回転する回転可能な構成要素(例えば、クラウン)を含む回転可能入力デバイス/機構、回転の方向が電子デバイスのディスプレイに平行であるように軸上で回転入力に応じて回転する回転可能入力デバイス/機構、デバイス自体が物理的に回転されずに(例えば、タッチ検出機構を介して)回転入力を検出することができる回転可能入力デバイス/機構、回転可能かつ押圧可能な入力デバイス、回転可能なクラウン)と、(例えば、入力要素内に配置され、かつ/又は電子デバイスの主筐体内に配置された)1つ以上の触知出力生成器と、を有するデバイス(例えば、100、300、500、600)において実行される。方法900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法900は、コンテンツベースの触知出力に関連付けられたユーザインタフェースを管理するための直感的な方法を提供する。方法は、ユーザインタフェースを管理しナビゲートする際のユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合には、コンテンツベースの触知出力を提供することによって、ユーザがより高速かつより効率的にユーザインタフェースをナビゲートすることを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
電子デバイス(例えば、600)は、ディスプレイ(例えば、602)上に、コンテンツ(例えば、メッセージングアプリケーション(例えば、電子メールアプリケーション又はチャットアプリケーション)の連続テキストなどの連続コンテンツ、ボタン、アフォーダンス、行、プラッタ、パラグラフなどの個別のコンテンツ)の第1の部分(例えば、非終端部分)を表示する(902)。
コンテンツ(例えば、804)の第1の部分を表示している間に、電子デバイス(例えば、600)は、入力要素(例えば、604)を介して、第1の入力(例えば、801、803、入力要素における回転入力、時計回り方向又は反時計回り方向などの特定の方向の回転入力)を検出する(904)。入力要素(例えば、回転可能入力要素)を介して回転入力を検出することにより、ユーザが表示されたコンテンツ内を迅速、容易、かつ直感的にナビゲート/スクロールすることを可能にすることによって、デバイスの使いやすさ及びユーザ効率を向上させる。ひいては、これにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
第1の入力(例えば、801、803)を検出したこと(906)に応じて、電子デバイス(例えば、600)は、コンテンツの第2の部分(例えば、以前に表示されていなかったコンテンツの異なる部分)を表示するために、コンテンツ(例えば、804)内をナビゲートする(例えば、コンテンツ内をスクロールする)(908)。第1の入力(例えば、801、803)を検出したことに応じて(906)、電子デバイスは、1つ以上の触知出力生成器を介して、1つ以上の触知出力(例えば、入力の入力メトリックに基づくテクスチャ触知出力シーケンス)を含む第1のタイプの触知出力シーケンス(例えば、620)を生成する(910)。
コンテンツの第2の部分を表示している間に、電子デバイス(例えば、600)は、入力要素(例えば、604)を介して、第2の入力(例えば、入力要素における回転入力、時計回り方向又は反時計回り方向などの特定の方向の回転入力)を検出する(912)。
第2の入力を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分(例えば、開始部分又は終わりの部分、境界部分、縁部部分)であるとの判定に従って(914)、電子デバイス(例えば、600)は、コンテンツ(例えば、804)がコンテンツの終端部分であるという視覚インジケーション(例えば、コンテンツの、シフトするアニメーション、(例えば、跳ね返りアニメーションに先立つ)跳ねるアニメーション、ゴムバンド効果アニメーション)を表示する(916)。いくつかの実施形態では、コンテンツの終端部分は、コンテンツの開始部分(例えば、上部部分、上縁部部分)、又はコンテンツの終わりの部分(例えば、底部部分、底縁部部分)である。コンテンツがコンテンツの終端部分であるという視覚インジケーションを表示することにより、ユーザインタフェースが依然として移動し得る間に、コンテンツの終わりに到達したことをユーザが迅速かつ容易に認識することを可能にする直感的な視覚効果を提供することによって、視覚的フィードバックを改善する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、コンテンツがコンテンツの終端部分であるという視覚インジケーション(例えば、ゴムバンド効果)を表示することは、コンテンツの終端に到達した後に入力が検出され続けるにつれて、視覚コンテンツの終端を越える領域(例えば、背景)を表示すること、サイズ、不透明度、若しくは輝度を増大若しくは減少させるグラフィカル要素を表示すること、又はディスプレイ(例えば、602)上でそれぞれの方向にコンテンツを移動させ続けるが、入力が継続するにつれて入力の移動の単位がコンテンツをそれぞれの方向に移動させる量を減少させることなどの、入力(例えば、803)が継続するにつれて変化する視覚効果を表示することを含む。視覚コンテンツの終端を越える領域(例えば、背景)を表示することなどの、入力が継続するにつれて変化する視覚効果を表示することにより、ユーザインタフェースが依然として移動され得る間に、コンテンツの終わりに到達したことをユーザが迅速かつ容易に認識することを可能にする直感的な視覚効果を提供することによって、視覚的フィードバックを改善する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、コンテンツがコンテンツの終端部分であるという視覚インジケーションを表示することは、ディスプレイ上でコンテンツの第2の部分をシフトさせること(例えば、コンテンツの一部分をディスプレイ(例えば、602)上の特定の方向に特定の距離移動させること、コンテンツの一部分をディスプレイ上のその初期位置を離れて跳ねさせること)を含む。いくつかの実施形態では、コンテンツの第2の部分をシフトさせた後に、コンテンツは、その後、ディスプレイ上のその初期位置に再び戻される。コンテンツのシフト及び次いでコンテンツのその後の跳ね返りを表示することにより、ユーザインタフェースが依然として移動され得る間にコンテンツの終わりに到達したことをユーザが迅速かつ容易に認識することを可能にする直感的な視覚効果を提供することによって、視覚的フィードバックを改善する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、ディスプレイ(例えば、602)上でコンテンツの第2の部分をシフトさせることは、コンテンツの第2の部分をディスプレイの縁部の少なくとも部分的に外に移動させることを含む。いくつかの実施形態では、コンテンツの第2の部分をディスプレイの縁部の少なくとも部分的に外に移動/シフトさせた後に、コンテンツの第2の部分は、その後、ディスプレイ上に後退/シフトされ、コンテンツは、その初期位置に戻される。
いくつかの実施形態では、コンテンツがコンテンツの終端部分であるという視覚インジケーションの視覚特性(例えば、シフトするインジケーションの移動速度、繰り返し視覚効果の色、輝度、周波数)は、第2の入力の入力メトリック(例えば、速度及び/又は大きさ)に基づく。
第2の入力を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分(例えば、開始部分又は終わりの部分、境界部分、縁部部分)であるとの判定に従って(914)、電子デバイス(例えば、600)は、1つ以上の触知出力生成器を介して、第1のタイプの触知出力シーケンス(例えば、620)を生成することを取り止める、又は任意選択的に、すべての触知出力を生成することを取り止める(918)。いくつかの実施形態では、特定のタイプの触知出力は、特定の触知出力パターンに対応する。例えば、図5C~図5H及び表1を参照してより詳細に上述したように、触知出力パターンは、触知出力の振幅、触知出力の移動波形の形状、触知出力の周波数、及び/又は触知出力の持続時間などの触知出力の特性を指定する。様々に異なる触知出力パターンを有する触知出力がデバイスによって生成されると(例えば、触知出力を生成するために可動質量を移動させる1つ以上の触知出力生成器を介して)、触知出力は、ユーザがデバイスを保持又はタッチする際に様々に異なる触覚感覚を引き起こし得る。ユーザの感覚は、触知出力のユーザの知覚に基づいているが、ほとんどのユーザは、デバイスによって生成される触知出力の波形、周波数、及び振幅の変化を識別することが可能である。
いくつかの実施形態では、第2の入力(例えば、803、入力要素上(例えば、604)の回転入力、時計回り方向又は反時計回り方向などの特定の方向の回転入力)を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分(例えば、開始部分又は終わりの部分、境界部分、縁部部分)であるとの判定に従って(914)、電子デバイス(例えば、600)は、1つ以上の触知出力生成器を介して、第3のタイプの触知出力シーケンス(例えば、第1のタイプの触知出力シーケンスとは異なる、低減した振幅のバージョンの第1のタイプの触知出力シーケンス)を生成する(934)。コンテンツの終わりに最初に到達すると触知出力シーケンスを生成することにより、ユーザが、入力要素における回転入力を提供している間に、コンテンツの終わりに到達したことを迅速かつ容易に認識できるようにすることによって、感覚フィードバック及びユーザ効率を向上させる。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第2の入力(例えば、803)を検出した後に、かつコンテンツの第2の部分を表示している間に、電子デバイス(例えば、600)は、入力要素を介して、第3の入力(例えば、入力要素における回転入力)を検出し(936)、第2の入力(例えば、回転入力)は、第1の方向(例えば、時計回り方向又は反時計回り方向)であり、第3の入力は、第2の入力の方向とは反対の方向である。いくつかの実施形態では、第3の入力を検出したことに応じて、電子デバイスは、1つ以上の触知出力生成器を介して、第3のタイプの触知出力シーケンスを生成することを取り止める(938)(例えば、630、かつ代わりに、1つ以上の触知出力生成器を介して、第1のタイプの触知出力シーケンスを生成する)。コンテンツの終わりに2回到達すると(例えば、ゴムバンド効果からの跳ね返りの後に)触知出力を生成することを取り止めることにより、不必要なフィードバックを生成することを取り止めることによって、デバイスの操作性及びユーザ利便性が改善され、ユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第3のタイプの触知出力シーケンス(例えば、630)は、(例えば、同じタイプ/パターンの触知出力を有する)第1のタイプの触知出力シーケンスに対応し、第1のタイプの触知出力シーケンスは、第1のタイプのオーディオ出力シーケンスに関連付けられ、第3のタイプの触知出力シーケンスは、第1のタイプのオーディオ出力シーケンスとは異なる(例えば、タイプ及び/又はパターンが異なる)第2のタイプのオーディオ出力シーケンスに関連付けられる。いくつかの実施形態では、触知出力と同様に、特定のタイプのオーディオ出力は、特定のタイプのオーディオ出力パターンに対応する。例えば、オーディオ出力パターンは、オーディオ出力の大きさ/振幅/音量、オーディオ出力のサウンド波形の形状、オーディオ出力の周波数、及び/又はオーディオ出力の持続時間などのオーディオ出力の特性を指定する。様々に異なるオーディオ出力パターンを有するオーディオ出力が(例えば、オーディオ出力を生成するために可動質量を移動させる1つ以上の触知出力生成器を介して、1つ以上のスピーカを介して)デバイスによって生成されると、オーディオ出力は、デバイスを保持若しくはタッチしている又はデバイスに近接しているユーザに様々に異なるオーディオに関連した感覚を引き起こすことができる。
いくつかの実施形態では、第2の入力(例えば、803)を検出した後に、かつコンテンツの第2の部分を表示している間に、電子デバイス(例えば、600)は、入力要素(例えば、604)を介して、第3の入力(例えば、入力要素の第3の回転)を検出する(926)。第3の入力は、第2の入力の反対の方向である。いくつかの実施形態では、第3の入力を検出したことに応じて(928)、電子デバイスは、コンテンツの第1の部分を表示するために、コンテンツ内をナビゲートして戻る(930)(例えば、第1の入力によって生じたナビゲートとは反対方向にナビゲートする)。いくつかの実施形態では、第3の入力を検出したことに応じて(928)、電子デバイスは、1つ以上の触知出力生成器を介して、第1のタイプの触知出力シーケンス(例えば、入力の入力メトリックに基づくテクスチャ触知出力シーケンス)を生成する(932)。
いくつかの実施形態では、コンテンツの第2の部分を表示している間に、電子デバイス(例えば、600)は、ディスプレイ上で(例えば、602、ディスプレイのタッチ感知面を介して)、第4の入力(例えば、ディスプレイのタッチ感知面上の、かつ入力要素においてではないタッチに基づくスクロール入力)を検出する(940)。いくつかの実施形態では、スクロール入力を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分(例えば、開始部分又は終わりの部分、境界部分、縁部部分)であるとの判定に従って(942)、電子デバイスは、コンテンツがコンテンツの終端部分であるという視覚インジケーションを表示する(944)。いくつかの実施形態では、スクロール入力を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分(例えば、開始部分又は終わりの部分、境界部分、縁部部分)であるとの判定に従って(942)、電子デバイスは、1つ以上の触知出力生成器を介して、第1のタイプの触知出力シーケンスを生成することを取り止め、かつ任意選択的に、コンテンツ内をナビゲートすることに関連付けられたすべての触知出力/触知出力シーケンスを取り止める(946)。
いくつかの実施形態では、第2の入力(例えば、803)を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分(例えば、開始部分又は終わりの部分、境界部分、縁部部分)ではないとの判定に従って(920)、電子デバイス(例えば、600)は、ディスプレイ(例えば、602)上に、コンテンツの第3の部分を表示する(922)(例えば、コンテンツの第2の部分に隣接した/連続したコンテンツの一部分を表示するために、コンテンツ内をナビゲートする)。いくつかの実施形態では、第2の入力を検出したことに応じて、かつコンテンツの第2の部分がコンテンツの終端部分(例えば、開始部分又は終わりの部分、境界部分、縁部部分)ではないとの判定に従って(920)、電子デバイスは、1つ以上の触知出力生成器を介して、第1のタイプの触知出力シーケンス(例えば、入力の入力メトリックに基づくテクスチャ触知出力シーケンス)を生成する(924)。コンテンツ内をナビゲート/スクロールすること、及びコンテンツの終わりに到達することに対して異なるタイプの触知出力を生成することによって、表示されたコンテンツがスクロールされているか、かつ更にスクロールすることができるかをユーザが迅速かつ容易に認識可能とすることで、フィードバックを改善する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
方法900に関して上述したプロセス(例えば、図9A~図9B)の詳細はまた、上記及び以下で説明する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法900を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法700に記載されるような1つ以上の触知出力シーケンスは、入力要素における回転入力に応じてコンテンツをスクロールしている間に、及びコンテンツの終わりに到達すると提供される。別の例では、方法1100は、方法900を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法900のように、触知出力は、入力要素における回転入力に応じて生成されるが、ディスプレイ上のタッチ入力に応じては、生成されない。別の例では、方法1300は、方法900を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法900に記載されるような、コンテンツをスクロールしてコンテンツの終わりに到達するときと同様のタイプの触知出力シーケンスを、方法1300に記載されるような時間設定ユーザインタフェースにおいて生成することができる。別の例では、方法1500は、方法900を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法1500に記載されるような、触知出力の大きさ/振幅、及び/又は発生率を、コンテンツをスクロールし、コンテンツの終わりに到達するときの回転入力の速度の変化に基づいて、変化させることができる。簡潔にするために、これらの詳細は、以下で繰り返さない。
図10A~図10Kは、いくつかの実施形態に係る、様々に異なるタイプの入力に応じてユーザインタフェースを移動させることに関連付けられた例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図11A~図11Cにおける処理を含む、以下で説明される処理を例示するために使用される。
図10A~図10Eは、トレーニングアプリケーション(例えば、図6A~図6Eを参照して最初に上述したトレーニングアプリケーション)のユーザインタフェース1002が、入力要素604における回転入力1001によってディスプレイ602上でスクロールされているのを示し、ユーザインタフェース1002は、プラッタ1004を含む複数のプラッタを含む。
図10Aでは、プラッタ1004は、図10Aにおいて「N0」を示すN数によって示されるように、ディスプレイ602の焦点(例えば、中心点、焦点領域、中心領域)に現在位置合わせされている(例えば、「スナップされている」)。プラッタ1004がディスプレイの焦点に位置合わせされている間に、電子デバイス600は、入力要素604を介して(例えば、時計回り方向の)回転入力1001を検出する。
図10Bでは、入力要素604における回転入力1001を検出したことに応じて、かつ回転入力1001が入力要素604において維持されている(例えば、しかし入力要素604が更に回転されてはいない)間、電子デバイス600は、図10BのN1のN数によって示されるように、プラッタ1004を第1の直線距離だけディスプレイの焦点を越えて上方に移動させる。
図10Cでは、回転入力1001は、入力要素604においてもはや維持されていない。回転入力1001が入力要素604においてもはや維持されていないことを検出すると、プラッタ1004は、再びディスプレイの焦点に戻り位置合わせされるように後退する(例えば、「スナップ」して戻る)。
ディスプレイの焦点に後退した(例えば、「スナップして」戻った)後、電子デバイス600は、入力要素604を介して、回転入力1003を検出する。図10Dでは、入力要素604における回転入力1003を検出したことに応じて、かつ回転入力1003が入力要素604において維持されている(例えば、しかし入力要素604が更に回転されてはいない)間に、電子デバイス600は、図10DのN2のN数によって示されるように、プラッタ1004を第1の直線距離より大きい第2の直線距離だけディスプレイの焦点を越えて上方に移動させる。更に、プラッタ1006(例えば、プラッタ1004の下に配置されている)もまた、ディスプレイ上の第2の直線距離だけ上方に移動される。
図10Eでは、回転入力1003は、入力要素604においてもはや維持されていない。回転入力1003が入力要素604においてもはや維持されていないことを検出すると、プラッタ1004は、ディスプレイの上縁部の外に(例えば、部分的に)スライドし、プラッタ1006は、ここで、N0のN数によって示されるように、ディスプレイの焦点に位置合わせされる(例えば、「スナップ」する)。更に、電子デバイス600は、プラッタ1006がディスプレイの焦点に位置合わせされる(例えば、「スナップ」する)と、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成する。いくつかの実施形態では、触知出力シーケンス610を生成することに加えて、電子デバイス600はまた、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを(例えば、触知出力シーケンス610を生成する1つ以上の触知出力生成器を介して)生成する。
図10F~図10Kは、(例えば、ディスプレイ602のタッチ感知面を介して検出された)タッチスクロールジェスチャによってディスプレイ602上でスクロールされているトレーニングアプリケーションのユーザインタフェース1002を示す。
図10Fでは、プラッタ1004は、「N0」のN数によって示されるように、ディスプレイ602の焦点(例えば、中心点、焦点領域、中心領域)に現在位置合わせされている(例えば、「スナップされている」)。プラッタ1004がディスプレイの焦点に位置合わせされている間に、電子デバイス600は、(例えば、上方方向の)タッチスクロールジェスチャ1005を(例えば、ディスプレイ602のタッチ感知面を介して)検出する。
図10Gでは、タッチスクロールジェスチャ1005を検出したことに応じて、かつタッチジェスチャ1005がディスプレイ602上で維持されている(例えば、しかし更に移動されてはいない)間、電子デバイス600は、図10GのN2のN数によって示されるように、プラッタ1004を第2の直線距離、かつプラッタ1004が図10Dで移動されたのと同じ直線距離だけディスプレイの焦点を越えて上方に移動させる。更に、プラッタ1006もまた、ディスプレイ上の第2の直線距離だけ上方に移動される。
図10Hでは、タッチスクロールジェスチャ1005は、もはやディスプレイ602上で維持されていない。タッチスクロールジェスチャ1005がもはや維持されていないことを検出すると、プラッタ1004は、再びディスプレイの焦点に位置合わせされるように後退する(例えば、「スナップして」戻る)。
図10Iでは、ディスプレイの焦点に後退した(例えば、「スナップして」戻った)後に、電子デバイス600は、(例えば、上方方向の)タッチスクロールジェスチャ1007を(例えば、ディスプレイ602のタッチ感知面を介して)検出する。
図10Jでは、ディスプレイ602上でタッチスクロールジェスチャ1007を検出したことに応じて、かつタッチスクロールジェスチャ1007がディスプレイ602上で維持されている(例えば、タッチスクロールジェスチャは、更に移動されずに、依然としてディスプレイ上で検出されている)間に、電子デバイス600は、図10JのN3のN数によって示されるように、プラッタ1004を第2の直線距離よりも大きい第3の直線距離だけディスプレイの焦点を越えて上方に移動させる。更に、プラッタ1006もまた、ディスプレイ上の第3の直線距離だけ上方に移動される。
図10Kでは、タッチスクロールジェスチャ1007は、もはやディスプレイ602上で維持されていない。タッチスクロールジェスチャ1007がもはや維持されていないことを検出すると、プラッタ1004は、ディスプレイの上縁部の外に(例えば、部分的に)スライドし、プラッタ1006は、ここで、N0のN数によって示されるように、ディスプレイの焦点に位置合わせされる(例えば、「スナップ」する)。更に、電子デバイスは、プラッタ1006がディスプレイの焦点に位置合わせされる(例えば、「スナップ」する)と、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成する。いくつかの実施形態では、触知出力シーケンス610を生成することに加えて、電子デバイス600はまた、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを(例えば、触知出力シーケンス610を生成する1つ以上の触知出力生成器を介して)生成する。
したがって、図10A~図10Eに示すように、入力要素604における回転入力を介して第2の直線距離だけ移動された第1のタイプのユーザインタフェースアイテム/要素(例えば、プラッタなどの個別のユーザインタフェースアイテム/要素)は、次のユーザインタフェースアイテム/要素をディスプレイの焦点に位置合わせ(例えば、「スナップ」)させるが、一方、図10F~図10Kに示すように、ディスプレイ602上のタッチ入力を介して第2の直線距離だけ移動された第1のタイプのユーザインタフェースアイテム/要素は、次のユーザインタフェースアイテム/要素をディスプレイの焦点に位置合わせさせない。代わりに、(例えば、入力要素604における回転入力とは対照的に)ディスプレイ602上のタッチ入力が検出される場合、次のユーザインタフェースアイテム/要素をディスプレイの焦点領域に位置合わせ(例えば、「スナップ」)させるために、ユーザインタフェースアイテム/要素を第2の直線距離よりも大きい少なくとも第3の直線距離だけ移動させる必要がある。
図11A~図11Cは、いくつかの実施形態に係る、様々に異なるタイプの入力に応じてユーザインタフェースを移動させる方法を示すフロー図である。方法1100は、タッチ感知ディスプレイと、回転可能入力要素(例えば、デバイスの筐体に対して回転可能な回転可能入力デバイス、固定ソケットと、シャフトに取り付けられた又は固定された回転可能な構成要素(例えば、クラウン)と、を含む回転可能入力デバイス/機構であって、回転可能な構成要素及びシャフトが、固定ソケット内で一緒に回転する、回転可能入力デバイス/機構、固定構成要素(例えば、固定シャフト)に対して回転する回転可能な構成要素(例えば、クラウン)を含む回転可能入力デバイス/機構、回転の方向が電子デバイスのディスプレイに平行であるように軸上で回転入力に応じて回転する回転可能入力デバイス/機構、デバイス自体が物理的に回転されずに(例えば、タッチ検出機構を介して)回転入力を検出することができる回転可能入力デバイス/機構、回転可能かつ押圧可能な入力デバイス、回転可能なクラウン)と、を有するデバイス(例えば、100、300、500、600)において実行される。方法1100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法1100は、コンテンツベースの触知出力に関連付けられたユーザインタフェースを管理するための直感的な方法を提供する。方法は、ユーザインタフェースを管理しナビゲートする際のユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合には、コンテンツベースの触知出力を提供することによって、ユーザがより高速かつより効率的にユーザインタフェースをナビゲートすることを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
電子デバイス(例えば、600)は、ディスプレイ(例えば、602)上に、ユーザインタフェース(例えば、1002、メッセージングアプリケーションの連続テキストなどの連続コンテンツ、及び/又はボタン、アフォーダンス、行、プラッタ、パラグラフなどの個別のコンテンツを含むユーザインタフェース)を表示する(1102)。
ユーザインタフェース(例えば、1002)を表示している間に、電子デバイス(例えば、600)は、デバイスにおける入力の第1の部分(例えば、1001、1005、回転可能入力要素における回転入力又はタッチ感知ディスプレイ上のタッチジェスチャ)を検出する(1104)。入力要素(例えば、回転可能入力要素)を介して回転入力を検出することにより、ユーザが表示されたコンテンツ内を迅速、容易、かつ直感的にナビゲート/スクロールすることを可能にすることによって、デバイスの使いやすさ及びユーザ効率を向上させる。ひいては、これにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
入力の第1の部分(例えば、1001、1005)を検出したことに応じて、電子デバイス(例えば、600)は、入力の移動に従ってデバイスのディスプレイにわたってユーザインタフェースオブジェクト(例えば、1004、ユーザインタフェースのコンテンツのユニット)を移動させる(1106)。入力の移動に従ってディスプレイにわたってユーザインタフェースオブジェクトを移動させることにより、回転入力がユーザインタフェースオブジェクトの移動を制御しているという視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
入力の第1の部分を検出した後に、電子デバイス(例えば、600)は、デバイスにおける入力の第2の部分(例えば、1003、1007)(例えば、入力の終わり、又は閾値を超えるユーザインタフェースオブジェクト(例えば、1004)の移動であって、入力の第2の部分は、同じ入力の第1の部分の継続である)を検出する(1108)。
入力の第2の部分(例えば、1003、1007、入力の終わり、又は閾値を超えるユーザインタフェースオブジェクト(例えば、1004)の移動)を検出したことに応じて(1110)、入力(例えば、1007)がタッチ感知ディスプレイ(例えば、602)上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値を超えて移動させる(例えば、入力の終わりが検出される前に)との判定に従って、電子デバイス(例えば、600)は、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの(例えば、既定の)位置に(例えば、スナップさせることによって)移動させる(1112)。いくつかの実施形態では、ディスプレイ上のそれぞれの位置へのユーザインタフェースオブジェクトの移動は、入力の終わり(例えば、接触のリフトオフ)を検出すると生じる。いくつかの実施形態では、ディスプレイ上のそれぞれの位置へのユーザインタフェースオブジェクトの移動は、入力が終了したか否かにかかわらず、第1の閾値を超えるユーザインタフェースオブジェクトの移動を検出すると生じる。いくつかの実施形態では、ディスプレイ上のそれぞれの(例えば、既定の)位置にユーザインタフェースオブジェクトを移動させることは、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に「スナップ」することを含み、ユーザインタフェースオブジェクトを「スナップ」することは、オブジェクトをディスプレイ上の次の位置合わせ点(例えば、それぞれの位置)に移動して位置合わせすることを含む。
入力の第2の部分(例えば、1003、1007、入力の終わり、又は閾値を超えるユーザインタフェースオブジェクト(例えば、1004)の移動)を検出したことに応じて(1110)、入力(例えば、1007)がタッチ感知ディスプレイ(例えば、602)上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値以上移動させない(例えば、入力の終わりが検出される前に)との判定に従って、電子デバイス(例えば、600)は、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの(例えば、既定の)位置に移動させることを取り止める(1114)。入力に応じてユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させることを取り止めることにより、入力がユーザインタフェースオブジェクトをそれぞれの位置に移動させるには不十分であるという視覚的フィードバックを提供する。更に、それは、ユーザがユーザインタフェースオブジェクトをディスプレイ上のユーザの意図に反するそれぞれの位置に誤って移動させることを防止するのに役立つ。改善された視覚的フィードバック及び追加の制御オプションを提供し、動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
入力の第2の部分(例えば、1003、1007、入力の終わり、又は閾値を超えるユーザインタフェースオブジェクト(例えば、1004)の移動)を検出したことに応じて(1110)、入力(例えば、1003)が回転可能入力要素(例えば、604)に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値未満である第2の閾値を超えて移動させる(例えば、入力の終わりが検出される前に)との判定に従って、電子デバイス(例えば、600)は、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの(例えば、既定の)位置に(例えば、スナップさせることによって)移動させる(1116)(例えば、オブジェクトは、第2の閾値を超えて移動するかぎり、第1の閾値以上移動しない場合であっても、ディスプレイ上のそれぞれの位置にスナップする)。いくつかの実施形態では、ディスプレイ上のそれぞれの位置へのユーザインタフェースオブジェクトの移動は、入力の終わり(例えば、回転可能入力要素におけるタッチの終わり、又は少なくとも閾値時間にわたって回転可能入力要素の回転を検出することが停止すること)を検出すると生じる。いくつかの実施形態では、ディスプレイ上のそれぞれの位置へのユーザインタフェースオブジェクトの移動は、入力が終了したか否かにかかわらず、第1の閾値を超えるユーザインタフェースオブジェクトの移動を検出すると生じる。
入力の第2の部分(例えば、1003、1007、入力の終わり、又は閾値を超えるユーザインタフェースオブジェクト(例えば、1004)の移動)を検出したことに応じて(1110)、入力(例えば、1003)が回転可能入力要素(例えば、604)に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第2の閾値以上移動させない(例えば、入力の終わりが検出される前に)との判定に従って、電子デバイス(例えば、600)は、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの(例えば、既定の)位置に移動させることを取り止める(1118)。いくつかの実施形態では、入力の第2の部分は、タッチ感知ディスプレイからの接触のリフトオフ、又は閾値時間を超えて、回転可能入力要素におけるタッチを検出することが停止すること、若しくは回転可能入力要素の回転を検出することが停止すること、又はユーザインタフェースオブジェクトをディスプレイにわたって第2の閾値を超えて移動させる回転可能入力要素の回転を検出すること、のうちの1つ以上を含む。
いくつかの実施形態では、入力の第2の部分(例えば、1003、1007、入力の終わり、又は閾値を超えるユーザインタフェースオブジェクト(例えば、1004)の移動)を検出したことに応じて(1110)、入力(例えば、1007)がタッチ感知ディスプレイ(例えば、602)上の接触の移動を含み、かつ移動がユーザインタフェースオブジェクトをディスプレイにわたって第1の閾値以上移動させないとの判定に従って、電子デバイス(例えば、600)は、ユーザインタフェースオブジェクトを反対方向に(例えば、スナップさせることによって)後退させる(1132)(例えば、ユーザインタフェースオブジェクトを入力が開始する前のユーザインタフェースオブジェクトの以前の位置にスナップして戻す)。
いくつかの実施形態では、入力の第2の部分(例えば、1003、1007、入力の終わり、又は閾値を超えるユーザインタフェースオブジェクト(例えば、1004)の移動)を検出したことに応じて(1110)、入力(例えば、1003)が回転可能入力要素(例えば、604)に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクトをディスプレイにわたって第2の閾値以上移動させないとの判定に従って、電子デバイス(例えば、600)は、ユーザインタフェースオブジェクトを反対方向に(例えば、スナップさせることによって)後退させる(1134)(例えば、ユーザインタフェースオブジェクトを入力が開始する前のユーザインタフェースオブジェクトの以前の位置にスナップして戻す)。ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させるために、1つのタイプの入力(例えば、タッチ入力)に対して、異なるタイプの入力(例えば、入力要素における回転入力)を上回るより高い閾値を設定することは、1つのタイプの入力(例えば、タッチ入力)が異なるタイプの入力(例えば、回転入力)よりも偶発的入力の傾向があるとき、ユーザが、ユーザインタフェースオブジェクトをディスプレイ上のユーザの意図に反するそれぞれの位置に誤って移動させることを防止するのに役立つ。追加の制御オプションを提供し、動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、電子デバイス(例えば、600)は、(例えば、単一の)触知出力生成器を含む(例えば、触知出力生成器は、回転可能入力要素(例えば、604)及び電子デバイスの筐体内に配置され、それに接続されている(例えば、かつそれに触知出力を生成するように構成されている)。
いくつかの実施形態では、電子デバイス(例えば、600)は、回転可能入力要素(例えば、604)に対する局所的触知出力を生成する1つ以上の触知出力生成器と、回転可能入力要素に特に向けられていない(例えば、かつ代わりに、電子デバイスの主筐体内に配置され、それに接続された(例えば、かつそれに触知出力を生成するように構成されている)、又は電子デバイスの異なる構成要素に局所化された触知出力を生成する)電子デバイスのための触知出力を生成する1つ以上の別個の触知出力生成器とを含む。いくつかの実施形態において、回転可能入力要素内又はその近くに配置され、かつ(例えば、回転可能入力要素のシャフトを移動させることによって)回転可能入力要素を筐体に対して移動させる触知出力を生成するように構成される触知出力生成器。
いくつかの実施形態では、1つ以上の触知出力生成器は、(例えば、触知出力を生成することに加えて)オーディオ出力を生成するように構成されている(例えば、オーディオ出力は、1つ以上の触知出力生成器によって生成される触知出力に対応し、かつ/又はそれに関連付けており、触知出力と協調して、組み合わせられたオーディオ/触知出力を生成するように生成される)。
いくつかの実施形態では、入力の第2の部分(例えば、入力の終わり、又は閾値を超えるユーザインタフェースオブジェクトの移動)を検出したことに応じて(1110)、入力(例えば、1003)が回転可能入力要素(例えば、604)に対する回転入力を含み、かつ回転入力がユーザインタフェースオブジェクト(例えば、1004)をディスプレイ上のそれぞれの(例えば、既定の)位置に移動させる(例えば、スナップする)ための基準を満たすとの判定に従って、電子デバイス(例えば、600)は、(例えば、1つ以上の触知出力生成器を介して)ユーザインタフェースオブジェクトの移動に対応する触知出力(例えば、触知出力のシーケンス)を生成することと併せて、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させる(1136)。いくつかの実施形態では、表示されたコンテンツが第1のタイプのコンテンツ(例えば、連続テキストなどの連続コンテンツ)である場合、触知出力は、入力の入力メトリック(例えば、速度及び/又は大きさ)に基づいて決定される1つ以上の触知出力を含む第1のタイプの触知出力シーケンス(例えば、テクスチャ触知出力シーケンス)を含む。いくつかの実施形態では、表示されたコンテンツが第2のタイプのコンテンツ(例えば、ボタン、アフォーダンス、行、プラッタ、パラグラフなどの個別のコンテンツ)である場合、触知出力は、ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて判定された1つ以上の触知出力を含む第2のタイプの触知出力シーケンス(例えば、コンテンツドリブン触知出力シーケンス)を含む。いくつかの実施形態では、入力の第2の部分を検出したことに応じて(1110)、入力がユーザインタフェースオブジェクトをディスプレイ上のそれぞれの(例えば、既定の)位置に移動させる(例えば、スナップする)ための基準を満たすタッチ感知ディスプレイ上の接触の移動を含むとの判定に従って、電子デバイスは、触知出力を(例えば、1つ以上の触知出力生成器を介して)生成することなく、ユーザインタフェースオブジェクトをディスプレイ上のそれぞれの位置に移動させる(1138)。1つのタイプの入力(例えば、入力要素における回転入力)に対して触知出力を生成し、別のタイプの入力(例えば、タッチ入力)に対して生成しないことにより、感覚フィードバックが提供された場合にユーザ体験及び利便性に対してより大きな利益を有するタイプの入力に対して(例えば、それに対してのみ)感覚フィードバックを提供することによって、デバイスがバッテリ電力を節約し、したがってバッテリ寿命を改善することを可能にする。
いくつかの実施形態では、触知出力の振幅は、ユーザインタフェースオブジェクト(例えば、1004)のサイズに基づく(例えば、対応する)。いくつかの実施形態では、1つ以上の触知出力の振幅は、ユーザインタフェースオブジェクトが比較的大きいオブジェクトである場合により大きく、ユーザインタフェースオブジェクトが比較的小さいオブジェクトである場合により小さい。
いくつかの実施形態では、ディスプレイ(例えば、602)上のそれぞれの(例えば、既定の)位置へのユーザインタフェースオブジェクト(例えば、1004)の移動(例えば、スナップすること)に対応する触知出力(例えば、触知出力のシーケンス)は、第1の所定の周波数範囲(例えば、180~200Hz)を有する触知出力シーケンスを含み、ディスプレイ上に(例えば、アラートの、着信電子通信の)通知を表示することに関連付けられた触知出力シーケンスに対応する、第2の所定の周波数範囲(例えば、約100Hz)とは異なる。したがって、電子デバイス(例えば、600)のユーザの観点から、第1の所定の周波数(例えば、180~200Hz)を有する触知出力シーケンスから経験される知覚感覚と、第2の所定の周波数(例えば、約100Hz)を有する触知出力シーケンスから経験される知覚感覚は、区別可能である。
いくつかの実施形態では、ユーザインタフェース(例えば、1002)を表示している間に、電子デバイス(例えば、600)は、回転可能入力要素(例えば、604)に対する第2の入力(例えば、押圧入力、プレスアンドホールド入力、下向き押圧力により印加された入力、非回転入力、非回転タッチ入力、タップ入力)を検出する(1120)。いくつかの実施形態では、回転可能入力要素に対する第2の入力を検出したことに応じて、電子デバイスは、1つ以上の触知出力生成器を介して、回転可能入力要素の回転に対応する触知出力を生成することを取り止める(例えば、抑制する)(1122)(例えば、第2の入力が回転可能入力要素の押圧及び回転可能入力要素に対する回転入力の両方を含む場合であっても)。したがって、いくつかの実施形態では、回転可能入力要素における特定のタイプの入力(例えば、ユーザインタフェースの修正を生じさせる回転可能入力)は、電子デバイスに(例えば、触知出力生成器を介して)触知出力を生成させ、一方、回転可能入力要素における特定のタイプの入力(例えば、押圧入力、プレスアンドホールド入力、又はタッチ入力)は、電子デバイスに(例えば、触知出力生成器を介して)触知出力を生成させない。
いくつかの実施形態では、ユーザインタフェース(例えば、1002)を表示している間に、電子デバイス(例えば、600)は、回転可能入力要素(例えば、604)に対する第3の入力を検出する(1124)。いくつかの実施形態では、回転可能入力要素に対する第3の入力を検出したことに応じて(1126)、第3の入力が回転可能入力要素の押圧なしに回転可能入力要素の回転を含むとの判定に従って、電子デバイスは、1つ以上の入力デバイスを介して、回転可能入力要素の回転に対応する触知出力を生成する(1128)。いくつかの実施形態では、回転可能入力要素に対する第3の入力を検出したことに応じて(1134)、第3の入力が回転可能入力要素の回転及び回転可能入力要素の押圧を含むとの判定に従って、電子デバイスは、1つ以上の触知出力生成器を介して、回転可能入力要素の回転に対応する触知出力を生成することを取り止める(1130)。
方法1100に関して上述した処理(例えば、図11A~図11C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1100を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法700に記載されるような触知出力シーケンスは、ユーザインタフェースオブジェクトが焦点に位置合わせされると生成される。別の例では、方法900は、方法1100を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法900に記載されるようなゴムバンド効果は、入力要素における回転入力を介してユーザインタフェースの端部に到達するときに提供されてもよい。別の例では、方法1300は、方法1100を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法1300に記載されるような位置合わせ時に生成される触知出力シーケンスはまた、ユーザインタフェースオブジェクトの焦点への位置合わせ時に生成されてもよい。別の例では、方法1500は、方法1100を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法1500に記載されるような動的触知出力は、入力要素における回転入力を介してユーザインタフェースオブジェクトをスクロールするときに提供することができる。簡潔にするために、これらの詳細は、以下で繰り返さない。
図12A~図12Lは、いくつかの実施形態に係る、調整可能なアイテムベースの触知出力に関連付けられた例示的なユーザインタフェースfを示す。それらの図におけるユーザインタフェースは、図13A~図13Bにおける処理を含む、以下で説明される処理を例示するために使用される。
図12Aは、電子デバイス600がディスプレイ602上に、(例えば、現在時刻を設定するための、タイマーを設定するための、アラームを設定するための)時間設定ユーザインタフェース1202を表示するのを示す。時間設定ユーザインタフェース1202は、時設定1204及び分設定1206を含む。時間設定インタフェース1202は、調整されることになる現在選択されている単位(例えば、時間又は分)を示す現在単位インジケータ1208もまた含む。図12Aでは、現在選択されている単位は、インジケータ1208によって(例えば、時設定1204を強調表示することによって)示されるように、時間である。時間設定ユーザインタフェース1202は、現在選択されている単位の新しい設定(例えば、新しい時設定又は新しい分設定)を選択するために使用される複数の選択可能オプション1210もまた含む。図12Aでは、現在選択されている単位は、時であり、したがって選択可能オプション1210は、選択可能な時単位を(例えば、目盛としてかつ/又は1~12の数値として)示し、各選択可能な単位は、位置合わせ点に対応する。時間設定ユーザインタフェース1202は、選択可能オプション1210に沿って移動して現在選択されている新しい単位値を示し、選択可能オプション1210に沿って移動している間に、位置合わせ点のそれぞれに位置合わせされる(例えば、「スナップ」する)、現在選択インジケータ1212(例えば、円形オブジェクト又は矩形オブジェクト)をまた含む。図12Aでは、現在選択インジケータ1212は、時2に対応する選択可能オプション1210上の位置にある。
図12Aでは、現在選択されている単位として時が設定された時間設定ユーザインタフェース1202を表示している間に、電子デバイス600は、入力要素604を介して(例えば、時計回り方向の)回転入力1201を検出する。
図12Bでは、入力要素604における回転入力1201を検出したことに応じて、電子デバイス600は、選択可能オプション1210内の以前の位置合わせ点(例えば、時の値2)から選択可能オプション1210内の次の位置合わせ点(例えば、時の値3)に向かって、時計回り方向に現在選択インジケータ1212を移動/ナビゲートする。いくつかの実施形態では、現在選択インジケータ1212が選択可能オプション1210内の位置合わせ点間を移動している間、電子デバイス600は、触知出力を(例えば、オーディオ出力も)生成しない。
図12Cでは、電子デバイス600が入力要素604における回転入力1201を検出し続けるにつれて、現在選択インジケータ1212は、選択可能オプション1210内の次の位置合わせ点(例えば、時の値3)に移動され、位置合わせされる(例えば、「スナップ」する)。次の位置合わせ点に位置合わせされる(例えば、「スナップ」する)と、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。電子デバイス600はまた、時設定1204を更新して、現在選択されている時の値(例えば、3)を反映させる。
図12Dでは、入力要素604における回転入力1201を検出し続けたことに応じて、現在選択インジケータ1212は、選択可能オプション1210内の次の位置合わせ点(例えば、時の値4)に移動され、位置合わせされる(例えば、「スナップ」する)。次の位置合わせ点に位置合わせされる(例えば、「スナップ」する)と、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。電子デバイス600はまた、時設定1204を更新して、現在選択されている時の値(例えば、4)を反映する。
図12Dでは、時設定1204が新しい時の値(例えば、4)に設定された後に、電子デバイス600は、入力要素604を介して(例えば、反時計回り方向の)回転入力1203を検出する。
図12Eでは、入力要素604における回転入力1203を検出したことに応じて、電子デバイス600は、選択可能オプション1210内の以前の位置合わせ点(例えば、時の値4)から選択可能オプション1210内の以前の位置合わせ点(例えば、時の値3)に向かって反時計回り方向に現在選択インジケータ1212を移動/ナビゲートする。以前の位置合わせ点に位置合わせされる(例えば、「スナップ」する)と、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。電子デバイス600はまた、時設定1204を更新して、現在選択されている時の値(例えば、3)を反映させる。
図12Fでは、現在選択されている単位として時が設定された時間ユーザインタフェース1202を表示している間に、電子デバイス600は、(例えば、ディスプレイ602のタッチ感知面を介して)分設定1206上の入力1205(例えば、タップジェスチャ)を検出する。
図12Gでは、分設定1206上の入力1205を検出したことに応じて、電子デバイス600は、現在単位インジケータ1208を時設定1204から分設定1206に移動させる。更に、電子デバイス600は、選択可能オプション1210を更新して、選択可能な分単位を(例えば、目盛として及び/又は0~59の数値として)示し、各選択可能な単位は、位置合わせ点に対応する。更に、現在選択インジケータ1212は、現在設定されている分の値(例えば、15)を示す。
図12Gでは、現在選択されている単位として分が設定された時間ユーザインタフェース1202を表示している間に、電子デバイス600は、入力要素604を介して(例えば、反時計回り方向の)回転入力1207を検出する。
図12Hでは、入力要素604における回転入力1207を検出したことに応じて、電子デバイス600は、選択可能オプション1210内の以前の位置合わせ点(例えば、分の値15)から選択可能オプション1210内の以前の位置合わせ点(例えば、分の値14)に向かって反時計回り方向に現在選択インジケータ1212を移動/ナビゲートする。いくつかの実施形態では、以前の位置合わせ点に位置合わせすると(例えば、「スナップ」する)と、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス1220(例えば、表1に記載されているような「準主要(major-reduced)」触知出力シーケンス/触知出力シーケンス610の修正バージョン)を生成し、かつ、いくつかの実施形態では、触知出力シーケンス1220に関連付けられたオーディオ出力シーケンスを生成する。あるいは、いくつかの実施形態では、電子デバイス600は、第1のタイプの触知出力シーケンス及び触知出力シーケンス610に関連付けられたオーディオ出力シーケンスを生成する。電子デバイス600はまた、分設定1206を更新して、現在選択されている分の値(例えば、14)を反映する。
図12Iでは、電子デバイス600が入力要素604における回転入力1207を検出し続けるにつれて、現在選択インジケータ1212は、選択可能オプション1210内の以前の位置合わせ点(例えば、分の値13)に移動され、位置合わせされる(例えば、「スナップ」する)。以前の位置合わせ点に位置合わせされる(例えば、「スナップ」する)と、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス1220を生成し、かつ、いくつかの実施形態では、触知出力シーケンス1220に関連付けられたオーディオ出力シーケンスを生成する。電子デバイス600はまた、分設定1206を更新して、現在選択されている時の値(例えば、13)を反映する。
図12Jでは、入力要素604における回転入力1207を検出したことに応じて、電子デバイス600は、現在選択インジケータ1212を選択可能オプション1210内の以前の位置合わせ点(例えば、分の値12)に移動して位置合わせする(例えば、「スナップ」する)。以前の位置合わせ点に位置合わせされる(例えば、「スナップ」する)と、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス1220を生成し、かつ、いくつかの実施形態では、触知出力シーケンス1220に関連付けられたオーディオ出力シーケンスを生成する。電子デバイス600はまた、分設定1206を更新して、現在選択されている時の値(例えば、12)を反映する。
その後、電子デバイス600は、入力要素604を介して、(例えば、時計回り方向の)回転入力1209を更に検出する。図12Kでは、入力要素604における回転入力1209を検出したことに応じて、電子デバイス600は、現在選択インジケータ1212を選択可能オプション1210内の次の位置合わせ点(例えば、分の値13)に移動して位置合わせする(例えば、「スナップ」する)。以前の位置合わせ点に位置合わせされる(例えば、「スナップ」する)と、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス1220を生成し、かつ、いくつかの実施形態では、触知出力シーケンス1220に関連付けられたオーディオ出力シーケンスを生成する。電子デバイス600はまた、分設定1206を更新して、現在選択されている時の値(例えば、13)を反映する。
図12Lでは、新しい時設定(例えば、3)及び新しい分設定(例えば、13)がされた時間ユーザインタフェース1202を表示している間、電子デバイス600は、新しい時間設定を確認するための設定アフォーダンス1214上の入力1211を(例えば、ディスプレイ602のタッチ感知面を介して)検出する。設定アフォーダンス1214上の入力1211を検出したことに応じて、電子デバイス600は、時間(例えば、現在時刻、タイマー、アラーム)を新たに選択された時間に設定する。
図13A~図13Bは、いくつかの実施形態に係る、調整可能なアイテムベースの触知出力に関連付けられたユーザインタフェースを管理する方法を示すフロー図である。方法1300は、ディスプレイと、入力要素(例えば、デバイスの筐体に対して回転可能な回転可能入力デバイス、固定ソケットと、シャフトに取り付けられた又は固定された回転可能な構成要素(例えば、クラウン)と、を含む回転可能入力デバイス/機構であって、回転可能な構成要素及びシャフトが、固定ソケット内で一緒に回転する、回転可能入力デバイス/機構、固定構成要素(例えば、固定シャフト)に対して回転する回転可能な構成要素(例えば、クラウン)を含む回転可能入力デバイス/機構、回転の方向が電子デバイスのディスプレイに平行であるように軸上で回転入力に応じて回転する回転可能入力デバイス/機構、デバイス自体が物理的に回転されずに(例えば、タッチ検出機構を介して)回転入力を検出することができる回転可能入力デバイス/機構、回転可能かつ押圧可能な入力デバイス、回転可能なクラウン)と、(例えば、入力要素内に配置され、かつ/又は電子デバイスの主筐体内に配置された)1つ以上の触知出力生成器と、を有するデバイス(例えば、100、300、500、600)において実行される。方法1300のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法1300は、コンテンツベースの触知出力に関連付けられたユーザインタフェースを管理するための直感的な方法を提供する。方法は、ユーザインタフェースを管理しナビゲートする際のユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合には、コンテンツベースの触知出力を提供することによって、ユーザがより高速かつより効率的にユーザインタフェースをナビゲートすることを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
電子デバイス(例えば、600)は、ディスプレイ(例えば、602)上に、第1の調整可能なアイテム(例えば、1204、時などの第1の時間アイテム)と、第2の調整可能なアイテム(例えば、1206、分などの第2の時間アイテム)とを含むユーザインタフェース(例えば、1202、デバイスの時間設定を変更することに相関する時間ユーザインタフェース)を表示する(1302)。いくつかの実施形態では、ユーザインタフェースは、時間ユーザインタフェースであり、時間ユーザインタフェースは、現在時刻の表示を含み、現在の時は、第1の調整可能なアイテムにおいて表示され、現在の分は、第2の調整可能なアイテムにおいて表示される。いくつかの実施形態では、時間ユーザインタフェースは、第1の調整可能な時間アイテム又は第2の調整可能な時間アイテムを調整するために使用される複数の選択可能な設定オプション(例えば、1210)を含む。いくつかの実施形態では、複数の選択可能な設定オプションが(例えば、ホイールなどの円形の形状で)、時間ユーザインタフェースの中心に表示された現在時刻設定を取り囲んでいる。第1及び第2の調整可能なアイテムを選択可能な設定オプションと共に表示することにより、調整が行われている間、ユーザは調整可能なアイテムに対して行われている調整を迅速かつ容易に見ることができる。追加の制御オプションを提供し、動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1の調整可能なアイテムは、ユーザインタフェース設定(例えば、時間)の第1の部分(例えば、時間の時)に対応し、第2の調整可能なアイテムは、ユーザインタフェース設定の第2の部分(例えば、時間の分)に対応する。
いくつかの実施形態では、ユーザインタフェースは、時間設定ユーザインタフェース(例えば、「時間の車輪」ユーザインタフェース)に対応し、第1の調整可能なアイテムは、(例えば、電子デバイスのアラームの)電子デバイスの時設定に対応し、第2の調整可能なアイテムは、(例えば、電子デバイスのアラームの)電子デバイスの分設定に対応する。
ユーザインタフェース(例えば、1202)を表示している間、電子デバイス(例えば、600)は、入力要素(例えば、604)を介して、回転入力(例えば、時計回り方向又は反時計回り方向の1201、1203、1205、1207、1209)を検出する(1304)。
回転入力(例えば、1201、1203、1205、1207、1209)を検出したことに応じて(1306)、第1の調整可能なアイテム(例えば、1204)が現在選択されているとの判定に従って(1308)、電子デバイス(例えば、600)は、回転入力に基づいて、第1の調整可能なアイテムを調整(例えば、現在の時設定を変更)する(1310)。第1の調整可能なアイテムを調整している間、電子デバイスは、1つ以上の触知出力生成器を介して、(例えば、第1の振幅とは異なる第2の振幅を有する触知出力を生成することなく)第1の振幅を有する1つ以上の触知出力を含む触知出力の第1のシーケンス(例えば、610)を生成する(1312)。回転入力を検出したことに応じて触知出力の第1のシーケンスを生成することにより、調整が行われている間、調整可能なアイテムに調整が行なわれていることをユーザが認識することを可能にすることによって、感覚フィードバックを改善し、ユーザ体験を向上させる。追加の制御オプションを提供し、動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
回転入力を検出したことに応じて(1306)、第2の調整可能なアイテム(例えば、1206)が現在選択されているとの判定に従って(1318)、電子デバイス(例えば、600)は、(例えば、第1の調整可能なアイテムを調整することなく)第2の調整可能なアイテムを、回転入力(例えば、1201、1203、1205、1207、1209)に基づいて調整する(1320)(例えば、現在の分設定を変更する)。第2の調整可能なアイテムを調整している間に、電子デバイスは、1つ以上の触知出力生成器を介して、(例えば、第1の振幅を有する触知出力を生成することなく)第1の振幅とは異なる第2の振幅を有する1つ以上の触知出力を含む触知出力の第2のシーケンス(例えば、1220)を生成する(1322)。いくつかの実施形態では、第2の振幅は、第1の振幅よりも小さく、したがって第2のタイプの触知出力は、第1のタイプの触知出力よりも小振幅の触知出力である。第2の調整可能なアイテムを調整している間に触知出力の第2のシーケンスを生成し、第1の調整可能なアイテムを調整している間に触知出力の第1のシーケンスを生成することにより、ユーザが第1又は第2の調整可能なアイテムを調整しているかを、ユーザはディスプレイを詳細に見ることなく迅速かつ容易に認識できるようにすることによって、フィードバックを改善する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、回転入力(例えば、1201、1203、1205、1207、1209、入力の大きさ(例えば、回転入力の回転量)を有する入力)に基づいて、第1の調整可能なアイテム(例えば、1204)を調整することは、第1の数の値(例えば、時間に対して1~12の値)によって第1の調整可能なアイテムを調整することを含む。いくつかの実施形態では、回転入力に基づいて、第2の調整可能なアイテム(例えば、1206)を調整することは、(例えば、分に対する1~60の値であり)は、第1の数の値とは異なる、第2の数の値によって第2の調整可能なアイテムを調整することを含む。いくつかの実施形態では、同じ大きさの入力(例えば、回転量)によって調整する第1の調整可能なアイテムの値は、同じ大きさの入力によって調整する第2の調整可能なアイテムよりも大きい。
いくつかの実施形態では、1つ以上の触知出力生成器を介して、第1の振幅を有する1つ以上の触知出力を含む触知出力の第1のシーケンス(例えば、610)を生成することは、回転入力(例えば、1201、1203、1205、1207、1209)の方向(例えば、時計回り方向、反時計回り方向)に関係なく、触知出力の第1のシーケンスを生成することを含む。いくつかの実施形態では、1つ以上の触知出力生成器を介して、第2の振幅を有する1つ以上の触知出力を含む触知出力の第2のシーケンス(例えば、1220)を生成することは、回転入力の方向(例えば、時計回り方向、反時計回り方向)に関係なく、触知出力の第2のシーケンスを生成することを含む。
いくつかの実施形態では、第1の調整可能なアイテム(例えば、1204)を調整している間、電子デバイス(例えば、600)は、ユーザインタフェース(例えば、1202)上で、インジケータ(例えば、1212)を複数の所定の位置合わせ点(例えば、1210)を通って移動させる(1314)。インジケータは、所定の位置合わせ点である複数の位置合わせ点のうちの位置合わせ点にスナップし(例えば、位置合わせされ、適合され、停止し)、触知出力の第1のシーケンスのうちの1つ以上の触知出力は、複数の位置合わせ点のうちの位置合わせ点であるインジケータにスナップすることと連携する。いくつかの実施形態では、インジケータが位置合わせ点にスナップすることは、特定の閾値を使用して、位置合わせ点に到達するために必要な回転可能入力要素の回転量を決定することと、閾値に到達していない場合、以前の位置合わせ点にスナップすることと、閾値に到達している場合、次の位置合わせ点にスナップすることと、を含む。複数の所定の位置合わせ点を通ってインジケータを移動させることにより、ユーザが直感的な方法で第1又は第2の調整可能なアイテムに対して行われている調整を迅速かつ容易に見ることを可能にすることによって、視覚的フィードバックを改善する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1の調整可能なアイテム(例えば、1204)を調整している間に、電子デバイス(例えば、600)は、ディスプレイ(例えば、602)上に、複数の所定の位置合わせ点(例えば、1210)を表示し(1316)、複数の所定の位置合わせ点は、第1の数の位置合わせ点を含む。いくつかの実施形態では、第2の調整可能なアイテム(例えば、1206)を調整している間、電子デバイスは、ディスプレイ上に、第1の数とは異なる第2の数の位置合わせ点を含む、第2の複数の所定の位置合わせ点(例えば、1210)を表示する(1324)。いくつかの実施形態では、第1の調整可能なアイテムは、時間の時設定に対応し、複数の所定の位置合わせ点のそれぞれは、特定の時設定に対応する。したがって、いくつかの実施形態では、第1の数は、12であり、各位置合わせ点は、特定の時設定に対応する。いくつかの実施形態では、第2の調整可能なアイテムは、時間の分設定に対応し、複数の所定の位置合わせ点のそれぞれは、特定の分設定に対応する。したがって、いくつかの実施形態では、第2の数は、60であり、各位置合わせ点は、特定の分設定に対応する。
いくつかの実施形態では、回転入力(例えば、1201、1203、1205、1207、1209)を検出したことに応じて(1326)、回転入力が第1の回転速度であるとの判定に従って、電子デバイス(例えば、600)は、インジケータ(例えば、1212)を、第1の回転速度に関連付けられた第1の速度で、表示された複数の値(例えば、1210)を通って移動させる(1328)。いくつかの実施形態では、回転入力を検出したことに応じて(1326)、回転入力が第1の回転速度とは異なる第2の回転速度であるとの判定に従って、電子デバイスは、インジケータを、第2の回転速度に関連付けられた、第1の速度とは異なる第2の速度で、表示された複数の値を通って移動させる(1330)。いくつかの実施形態では、回転入力の第2の回転速度が第1の回転速度よりも速い場合、表示された複数の値を通って移動するインジケータの第2の速度は、インジケータの第1の速度よりも速く、回転入力の第2の回転速度が第2の回転速度より遅い場合、表示された複数の値を通って移動するインジケータの第2の速度は、インジケータの第1の速度よりも遅い。
いくつかの実施形態では、ユーザインタフェース(例えば、1202)を表示している間に、かつ第1の調整可能なアイテム(例えば、1204)が現在選択されている調整可能なアイテムである間に、電子デバイス(例えば、600)は、(例えば、ディスプレイのタッチ感知面などの電子デバイスの1つ以上の入力デバイスを介して)第1の入力(例えば、1205、ディスプレイ上のタップジェスチャ)を検出する(1332)。いくつかの実施形態では、第1の入力を検出したことに応じて、電子デバイスは、(例えば、第1の調整可能なアイテムの代わりに)第2の調整可能なアイテム(例えば、1206)を現在選択されている調整可能なアイテムとして設定する(1334)。
方法1300に関して上述したプロセス(例えば、図13A~図13B)の詳細はまた、上記及び以下で説明する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、方法1300を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法700に記載される様々に異なるタイプの触知出力シーケンスのうちの1つ以上は、時間設定ユーザインタフェースをナビゲートしている間に提供することができる。別の例では、方法900は、方法1300を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法900では、コンテンツをスクロールしている間に、及びコンテンツの終わりに到達したときに様々に異なるタイプの触知出力シーケンスを生成することができ、一方、方法1300では、第1の調整可能なアイテム及び第2の調整可能なアイテムを調整しているときに、様々に異なるタイプの触知出力シーケンスを生成することができる。別の例では、方法1100は、方法1300を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、ユーザインタフェースが入力要素における回転入力を介してナビゲートされる場合に、ユーザインタフェースオブジェクト、アイテム、又は要素が位置合わせ位置に(例えば、「スナップ」して)位置合わせされると、方法1100のように触知出力が生成される。別の例では、方法1500は、方法1300を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法1500に記載されるように、触知出力の大きさ/振幅、及び/又は発生率は、時間を調整している間に、回転入力の速度の変化に応じて、動的であってもよい。簡潔にするために、これらの詳細は、以下で繰り返さない。
図14A~図14Hは、いくつかの実施形態に係る、入力速度ベースの触知出力に関連付けられた例示的なユーザインタフェースを示す。これらの図にあるユーザインタフェースは、図15A~図15Cにおける処理を含む後述する処理を示すために使用される。
図14Aは、電子デバイス600がディスプレイ602上に、メッセージングアプリケーション(例えば、図6H~図6Sを参照して最初に上述した電子メールアプリケーション)のユーザインタフェース1402を表示するを示す。図14Aでは、電子デバイス600は、ユーザインタフェース1402内に、連続的なタイプのユーザインタフェースアイテム/要素に対応するテキスト1404(例えば、連続テキストを含む)を表示する。
図14Aでは、電子デバイス600は、ユーザインタフェース1402をテキスト1404と共に表示している間に、入力要素604を介して、(例えば、時計回り方向の)回転入力1401を検出する。回転入力1401は、第1の回転速度を有し、入力要素604のそれぞれの回転量を含む。入力要素604において第1の回転速度を有する回転入力1401を検出したことに応じて、電子デバイス600は、テキスト1404のスクロールを開始する。更に、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス620を生成し、触知出力シーケンス620は、回転入力1401の入力要素604のそれぞれの回転量の間に第1の大きさ(例えば、振幅)及び/又は第1の数の触知出力(例えば、個別で個々の触知出力)を有する。図5C~図5Hを参照してより詳細に上述したように、いくつかの実施形態では、個別で個々の触知出力は、1つの触知出力信号(例えば、触知出力波形の0.5、1、又は2サイクル)であり、触知出力シーケンスは、(例えば、所定の時間にわたって)シーケンスで生成される複数の(例えば、同じ)個別で個々の触知出力である。
いくつかの実施形態では、図14Aの触知出力シーケンス620を生成することに加えて、電子デバイス600はまた、(例えば、触知出力を生成するために使用される1つ以上の触知出力生成器を介して)触知出力シーケンス620に関連付けられたオーディオ出力シーケンスを生成する。オーディオ出力シーケンスは、入力要素604による回転入力1401のそれぞれの回転量の間に、第1の大きさ(例えば、振幅)及び/又は、第1の数のオーディオ出力(例えば、個別で個々のオーディオ出力)を有する。いくつかの実施形態では、個別で個々の触知出力と同様に、個別で個々のオーディオ出力は、1つのオーディオ出力信号(例えば、オーディオ出力波形の0.5、1、又は2サイクル)であり、オーディオ出力シーケンスは、(例えば、所定の時間にわたって)シーケンスで生成される複数の(例えば、同じ)個別で個々のオーディオ出力である。
図14Bでは、回転入力1401を検出した後に、電子デバイス600は、入力要素604を介して、入力要素604のそれぞれの回転量を含む(例えば、時計回り方向の)回転入力1403を検出し、回転入力1403は、第1の回転速度よりも速い第2の回転速度を有する。第2の回転速度を有する入力要素604における回転入力1403を検出したことに応じて、電子デバイス600は、(例えば、図14Aの速度よりも速い速度で)テキスト1404をスクロールする。更に、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス620を生成する。触知出力シーケンス620は、入力要素604による回転入力1403のそれぞれの回転量の間に、同じ第1の大きさ及び/又は同じ第1の数の触知出力(例えば、個別で個々の触知出力)を有する。
いくつかの実施形態では、図14Bの触知出力シーケンス620を生成することに加えて、電子デバイス600はまた、(例えば、触知出力を生成するために使用される1つ以上の触知出力生成器を介して)触知出力シーケンス620に関連付けられたオーディオ出力シーケンスを生成する。オーディオ出力シーケンスは、入力要素604による回転入力1403のそれぞれの回転量の間に、同じ第1の大きさ及び/又は同じ第1の数のオーディオ出力(例えば、個別で個々のオーディオ出力)を有する。
図14Cでは、回転入力1403を検出した後に、電子デバイス600は、入力要素604を介して、入力要素604のそれぞれの回転量を含む(例えば、時計回り方向の)回転入力1405を検出し、回転入力1403は、第2の回転速度よりも更に速い第3の回転速度を有する。第3の回転速度を有する入力要素604における回転入力1405を検出したことに応じて、電子デバイス600は、(例えば、図14Bの速度よりも速い速度で)テキスト1404をスクロールする。更に、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス620を生成する。触知出力シーケンス620は、入力要素604による回転入力1405のそれぞれの回転量の間に、第2の大きさ及び/又は第2の数の触知出力(例えば、個別で個々の触知出力)を有し、第2の大きさは、第1の大きさより小さく、第2の数の触知出力は、第1の数の触知出力より少ない。
いくつかの実施形態では、図14Cの触知出力シーケンス620を生成することに加えて、電子デバイス600はまた、(例えば、触知出力を生成するために使用される1つ以上の触知出力生成器を介して)触知出力シーケンス620に関連付けられたオーディオ出力シーケンスを生成する。オーディオ出力シーケンスは、入力要素604による回転入力1405のそれぞれの回転量の間に、第2の大きさ及び/又は第2の数のオーディオ出力(例えば、個別で個々のオーディオ出力)を有し、第2の大きさは、第1の大きさより小さく、第2の数のオーディオ出力は、第1の数のオーディオ出力よりも少ない。
図14Dでは、回転入力1405を検出した後に、電子デバイス600は、入力要素604を介して、入力要素604のそれぞれの回転量を含む(例えば、時計回り方向の)回転入力1407を検出し、回転入力1407は、第3の回転速度よりも更に速い第4の回転速度を有する。第4の回転速度を有する入力要素604における回転入力1407を検出したことに応じて、電子デバイス600は、(例えば、図14Cの速度よりも速い速度で)テキスト1404をスクロールする。更に、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス620を生成し、触知出力シーケンス620は、回転入力1407の入力要素604のそれぞれの回転量の間に第3の大きさ及び/又は第3の数の触知出力(例えば、個別で個々の触知出力)を有し、第3の大きさは、第2の大きさより小さく、第3の数の触知出力は、第2の数の触知出力より少ない。
いくつかの実施形態では、図14Dの触知出力シーケンス620を生成することに加えて、電子デバイス600はまた、(例えば、触知出力を生成するために使用される1つ以上の触知出力生成器を介して)触知出力シーケンス620に関連付けられたオーディオ出力シーケンスを生成し、オーディオ出力シーケンスは、回転入力1407の入力要素604のそれぞれの回転量の間に第3の大きさ及び/又は第3の数のオーディオ出力(例えば、個別で個々のオーディオ出力)を有し、第3の大きさは、第2の大きさより小さく、第3の数のオーディオ出力は、第2の数のオーディオ出力よりも少ない。
図14Eでは、回転入力1407を検出した後に、電子デバイス600は、入力要素604を介して、入力要素604のそれぞれの回転量を含む(例えば、時計回り方向の)回転入力1409を検出し、回転入力1409は、第4の回転速度よりも更に速い第5の回転速度を有する。第5の回転速度を有する入力要素604における回転入力1409を検出したことに応じて、電子デバイス600は、(例えば、図14Dの速度よりも速い速度で)テキスト1404をスクロールする。更に、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス620を生成し、触知出力シーケンス620は、回転入力1409の入力要素604のそれぞれの回転量の間に同じ第3の大きさ及び/又は同じ第3の数の触知出力(例えば、個別で個々の触知出力)を有する。
いくつかの実施形態では、図14Dの触知出力シーケンス620を生成することに加えて、電子デバイス600はまた、(例えば、触知出力を生成するために使用される1つ以上の触知出力生成器を介して)触知出力シーケンス620に関連付けられたオーディオ出力シーケンスを生成し、オーディオ出力シーケンスは、回転入力1409の入力要素604のそれぞれの回転量の間に同じ第3の大きさ及び/又は同じ第3の数のオーディオ出力(例えば、個別で個々のオーディオ出力)を有する。
図14Fでは、入力要素604における回転入力1409を検出し続けている間に、電子デバイス600は、個別のタイプのユーザインタフェースアイテム/要素に対応するアフォーダンス1406(例えば、返信ボタン)を表示する(例えば、テキスト1404に隣接して/テキスト1404の下に)。アフォーダンス1406を表示する(例えば、完全に表示する)と、又は代りに、アフォーダンス1406がディスプレイの中心点若しくは中央領域などのディスプレイの焦点若しくは焦点領域に位置合わせされると、電子デバイス600は、1つ以上の触知出力生成器を介して、触知出力シーケンス610を生成し、かつ、いくつかの実施形態では、触知出力シーケンス610に対応するオーディオ出力シーケンスを生成する。
図14Gは、x、y平面上のグラフ1410を示し、x軸1414は、入力要素604の回転速度に対応し、y軸1412は、触知出力シーケンス(例えば、触知出力シーケンス610、触知出力シーケンス620)内の個別の触知出力の大きさ(例えば、振幅、強度)に対応する。グラフ1410は、入力要素604の回転速度と生成された触知出力の結果として生じる大きさとの間の関係を示す曲線1416を含む。
いくつかの実施形態では、グラフ1410によって示されるように、入力要素604上における検出された回転入力の回転速度が速度1418未満であるとき、生成された触知出力の大きさ(例えば、振幅)は、一定のままである。入力要素604上における検出された回転入力の回転速度が速度1418と速度1420との間にあるとき、生成された触知出力の大きさは、(例えば、直線的に)減少する。入力要素604上における検出された回転入力の回転速度が速度1420よりも大きいとき、生成された触知出力の大きさは、再び一定のままである。
いくつかの実施形態では、検出された回転入力から入力要素604のそれぞれの回転に対して生成される個別の触知出力の数は、回転入力の回転速度と同様の(例えば、だが逆の)関係を共有する。すなわち、入力要素604のそれぞれの回転量に対する検出された回転入力の回転速度が第1の速度(例えば、速度1418)未満であるとき、入力要素604のそれぞれの回転に対する個別の触知出力の数は、一定のままである。入力要素604のそれぞれの回転量に対する検出された回転入力の回転速度が第1の速度(例えば、速度1418)と第2の速度(例えば、速度1420)との間で増加するにつれて、生成された触知出力の数は、(例えば、直線的に)より多くなる。入力要素604のそれぞれの回転量に対する検出された回転入力の回転速度が第2の速度(例えば、速度1418)より大きいとき、生成された触知出力の個別の触知出力の数は、一定のままである。
図14Hは、x、y平面上のグラフ1422を示し、x軸1426は、入力要素604の回転速度に対応し、y軸1424は、触知出力シーケンス(例えば、触知出力シーケンス610、触知出力シーケンス620)内の個別の触知出力又は関連付けられたオーディオ出力シーケンス(例えば、第1の触知出力シーケンス610に関連付けられた第1のオーディオ出力シーケンス、第2の触知出力シーケンス620に関連付けられた第2のオーディオ出力シーケンス)内の個別のオーディオ出力の大きさ(例えば、振幅、強度)に対応する。
グラフ1422は、入力要素604の回転速度と生成された触知出力の結果として生じる大きさとの間の関係を示す(例えば、曲線1416と同様の)曲線1428を含む。グラフ1422はまた、入力要素604の回転速度と生成されたオーディオ出力の結果として生じる大きさとの間の関係を示す曲線1430を含む。
いくつかの実施形態では、グラフ1430によって示されるように、入力要素604上における検出された回転入力の回転速度が速度1430未満であるとき、生成されたオーディオ出力の大きさ(例えば、振幅)は、一定のままである。入力要素604上における検出された回転入力の回転速度が速度1430と速度1432との間にあるとき、生成されたオーディオ出力の大きさは、(例えば、直線的に)減少する。入力要素604上における検出された回転入力の回転速度が速度1432よりも大きいとき、生成されたオーディオ出力の大きさは、再び一定のままである。
図14Hに示すように、いくつかの実施形態では、オーディオ曲線1430によって示されるように、オーディオ出力の大きさに変化をもたらす速度(例えば、速度1430及び1432)は、触知出力曲線1428によって示されるように、触知出力の大きさに変化をもたらす速度(例えば、速度1418及び1420)と同じではない。速度1430は、速度1418より小さい、等しい、又はより大きくてもよく、同様に、速度1432は、速度1420より小さい、等しい、又はより大きくてもよい。
いくつかの実施形態では、検出された回転入力から入力要素604のそれぞれの回転に対して生成される個別のオーディオ出力の数は、回転入力の回転速度と同様の(例えば、だが逆の)関係を共有する。すなわち、入力要素604のそれぞれの回転量に対する検出された回転入力の回転速度が第1の速度(例えば、速度1430)未満であるとき、入力要素604のそれぞれの回転量に対する個別のオーディオ出力の数は、一定のままである。入力要素604のそれぞれの回転量に対する検出された回転入力の回転速度が第1の速度(例えば、速度1430)と第2の速度(例えば、速度1432)との間で増加するにつれて、生成されたオーディオ出力の数は、(例えば、直線的に)より多くなる。入力要素604のそれぞれの回転量に対する検出された回転入力の回転速度が第2の速度(例えば、速度1432)より大きいとき、入力要素604の個別のオーディオ出力のそれぞれの回転量の数は、一定のままである。
オーディオ出力の大きさと同様に、いくつかの実施形態では、回転入力604の個別のオーディオ出力のそれぞれの割当量の数に変化をもたらす速度(例えば、速度1430及び1432)は、回転入力604のそれぞれの割当量に対する個別の触知出力の数に変化をもたらす速度(例えば、速度1418及び1420)と同じではない。速度1430は、速度1418より小さい、等しい、又はより大きくてもよく、同様に、速度1432は、速度1420より小さい、等しい、又はより大きくてもよい。
図15A~図15Cは、いくつかの実施形態に係る、入力速度ベースの触知出力に関連付けられたユーザインタフェースを管理する方法を示すフロー図である。方法1500は、ディスプレイと、回転可能入力要素(例えば、デバイスの筐体に対して回転可能な回転可能入力デバイス、固定構成要素(例えば、固定シャフト)に対して回転する回転可能な構成要素(例えば、クラウン)を含む回転可能入力デバイス/機構、回転の方向が電子デバイスのディスプレイに平行であるように軸上で回転入力に応じて回転する回転可能入力デバイス/機構、デバイス自体が物理的に回転されることなく(例えば、タッチ検出機構を介して)回転入力を検出することができる回転可能入力デバイス/機構、回転可能かつ押圧可能な入力デバイス、回転可能なクラウン)と、1つ以上の触知出力生成器(例えば、入力要素内に配置され、かつ/又は電子デバイスの主筐体内に配置された)と、を有するデバイス(例えば、100、300、500、600)において実行される。方法1500のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法1500は、コンテンツベースの触知出力に関連付けられたユーザインタフェースを管理するための直感的な方法を提供する。方法は、ユーザインタフェースを管理しナビゲートする際のユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合には、コンテンツベースの触知出力を提供することによって、ユーザがより高速かつより効率的にユーザインタフェースをナビゲートすることを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
ディスプレイ(例えば、602)上に、ユーザインタフェース(例えば、1402)を表示している間に、電子デバイス(例えば、600)は、回転可能入力要素(例えば、604)を介して、回転入力(例えば、1401、1403、1405、1407、1409、1秒又は2秒などの一定期間にわたって継続する回転可能入力要素における連続回転入力)を検出する(1502)。
回転入力(例えば、1401、1403、1405、1407、1409)を検出している間に、電子デバイス(例えば、600)は、1つ以上の触知出力生成器を介して、複数の触知出力(例えば、620、触知出力のシーケンス(例えば、個別で個々の触知出力))を生成し(1506)、触知出力のタイプ(例えば、主要タイプの触知出力、副次的タイプの触知出力、低減されたメジャータイプの触知出力)は、ユーザインタフェース(例えば、1402)の修正に関連付けられ、回転入力(例えば、1401)の速度(例えば、回転速度)が第1の速度(例えば、第1の回転速度)であるとの判定に従って(1508)、電子デバイスは、回転可能入力要素(例えば、604)のそれぞれの回転量に対して第1の数の触知出力を生成し(1510)、回転入力(例えば、1405)の速度(例えば、回転速度)が第1の速度とは異なる(例えば、より速い又はより遅い)第2の速度(例えば、第2の回転速度)であるとの判定に従って(1514)、電子デバイスは、回転可能入力要素のそれぞれの回転量に対して(例えば、第1の数の触知出力とは異なる)第2の数の触知出力を生成する(1516)。回転入力に応じて複数の触知出力を生成することであって、触知出力の1つ以上の特性(例えば、大きさ/振幅、発生率)が回転入力の回転速度に基づいて異なる、生成することにより、ユーザがユーザインタフェースをナビゲート/スクロールしている速度をユーザが迅速かつ容易に知覚し、かつそれに応じて調整することを可能にすることによって、感覚フィードバックを改善する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第2の速度(例えば、1420)は、第1の速度(例えば、1418)よりも大きく(例えば、回転可能入力要素(例えば、604)は、第1の速度に対してよりも第2の速度に対してより速い速度/率で回転される)、第2の数の触知出力は、回転可能入力要素のそれぞれの回転量に対して第1の数の触知出力よりも少ない。いくつかの実施形態では、第2の速度が第1の速度より遅い(例えば、回転可能入力要素は、第1の速度に対してよりも第2の速度に対してより遅い速度/率で回転される)場合、第2の数の触知出力は、回転可能入力要素の同じそれぞれの回転量に対して第1の数の触知出力よりも多い。
いくつかの実施形態では、第2の速度(例えば、1420)は、第1の速度(例えば、1418)よりも大きく(例えば、回転可能入力要素(例えば、604)は、第1の速度に対してよりも第2の速度に対してより速い速度/率で回転される)、第2の数の触知出力の振幅は、第1の数の触知出力の振幅よりも小さい。いくつかの実施形態では、第2の速度が第1の速度より遅い(例えば、回転可能入力要素は、第1の速度に対してよりも第2の速度に対してより遅い速度/率で回転される)場合、第2の数の触知出力の振幅は、第1の数の触知出力の振幅よりも大きい。
いくつかの実施形態では、ユーザインタフェース(例えば、1402)の修正が第1のタイプの修正(例えば、通知又は連続テキストなどの連続コンテンツをナビゲート/スクロールすること)であることに従って、生成された複数の触知出力(例えば、620)は、第1のタイプ(例えば、シーケンス内の第1の数の触知出力及び/又は第1の振幅を有する複数の触知出力)である(1536)。いくつかの実施形態では、ユーザインタフェースの修正が第2のタイプの修正(例えば、ボタン、アフォーダンス、プラッタ、パラグラフなどの個別のコンテンツをナビゲート/スクロールすること)であることに従って、生成された複数の触知出力は、第1のタイプとは異なる第2のタイプ(例えば、シーケンス内の第2の数の触知出力及び/又は第2の振幅を有する複数の触知出力)である(1538)。ユーザインタフェースの特定のタイプの修正に対して特定のタイプの触知出力を生成することにより、特に修正が偶発的かつユーザの意図に反していた場合に、ユーザインタフェースに行われた修正のタイプをユーザが迅速かつ容易に認識することを可能にすることによって、感覚フィードバックを改善する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を高めてユーザ-デバイスインタフェースをより効率化し、それにより、(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、生成される触知出力のタイプは、図6A~図6AFを参照して上述したように、回転入力(例えば、1401、1403、1405、1407、1409)が検出されている間に修正されているユーザインタフェース内に表示されたコンテンツに基づく(例えば、少なくとも部分的に基づく)。いくつかの実施形態では、生成される触知出力のタイプは、回転入力の方向(例えば、時計回り又は反時計回り)に基づく(例えば、少なくとも部分的に基づく)。
いくつかの実施形態では、複数の触知出力(例えば、620)のうちの触知出力の数は、電子デバイス(例えば、600)のサイズ特性(例えば、デバイスのディスプレイのサイズ)に少なくとも部分的に基づく。例えば、電子デバイスのディスプレイ(例えば、602)は、第1のサイズであり、複数の触知出力に含まれる触知出力の数は、電子デバイスのディスプレイが第2のサイズである場合よりも少なく、第2のサイズは、第1のサイズよりも大きい。
いくつかの実施形態では、複数の触知出力(例えば、620)の振幅は、電子デバイス(例えば、600)のサイズ特性(例えば、デバイスのディスプレイのサイズ)に少なくとも部分的に基づく。例えば、電子デバイスのディスプレイ(例えば、602)が第1のサイズである場合、振幅は、電子デバイスのディスプレイが第1のサイズよりも大きい第2のサイズである場合よりも相対的に小さい。デバイスのサイズに基づく複数の触知出力の触知出力の数及び/又は触知出力の振幅に(例えば、少なくとも部分的に)基づくことにより、触知出力の数をデバイスのサイズにより機能的に適切であるようにカスタマイズすることによって、デバイスの操作性を改善し、これにより、ひいては(例えば、ユーザが適切な入力を提供するのを支援し、ユーザがデバイスを操作する/デバイスと対話するときの誤りを削減することによって)ユーザ-デバイスインタフェースを更に効率化し、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、回転入力(例えば、1401、1403、1405、1407、1409)を検出している間に(1504)、回転入力の速度(例えば、回転速度)が第1の速度より速く、かつ第2の速度より遅い第3の速度(例えば、第3の回転速度)である(例えば、第3の速度は、第1の速度に対応する回転速度と第3の速度に対応する回転速度との間の回転速度に対応する)との判定に従って(1524)、電子デバイス(例えば、600)は、回転可能入力要素(例えば、604)のそれぞれの回転量に対して第1の数の触知出力(例えば、620)を生成する(1526)。したがって、いくつかの実施形態では、回転入力の第1の速度及び回転入力の第3の速度(例えば、第3の速度は、第1の速度よりも速いが第2の速度よりも遅く、したがって、第1の速度と第2の速度との間の速度である)での回転可能入力要素のそれぞれの回転量に対して生成される触知出力の数は、同じであるが、第2の速度での回転可能入力要素のそれぞれの回転量に対して生成される触知出力の数は、第1及び第3の速度で生成される触知出力の数とは異なる。
いくつかの実施形態では、回転入力を検出している間に(1504)、回転入力(例えば、1401、1403、1405、1407、1409)の速度(例えば、回転速度)が第1の速度(例えば、第1の回転速度)であるとの判定に従って(1508)、複数の触知出力は、第1の振幅を有する(1512)。いくつかの実施形態では、回転入力を検出している間に(1504)、回転入力の速度(例えば、回転速度)が第1の速度より速く、かつ第2の速度より遅い第3の速度(例えば、第3の回転速度)である(例えば、第3の速度は、第1の速度に対応する回転速度と第3の速度に対応する回転速度との間の回転速度に対応する)との判定に従って(1524)、複数の触知出力は、第1の振幅を有する(1528)。したがって、いくつかの実施形態では、第3の速度が第1の速度より大きくても、回転入力が第1の速度及び第3の速度で検出されている間に、複数の触知出力(例えば、620)は、同じ振幅を有する。いくつかの実施形態では、回転入力の速度(例えば、回転速度)が、第1の速度及び第3の速度とは異なる(例えば、より速い、又はより遅い)第2の速度(例えば、第2の回転速度)であるとの判定に従って(1514)、複数の触知出力は、第1の振幅とは異なる(例えば、より大きい、より小さい)第2の振幅を有する(1518)。いくつかの実施形態では、第2の速度は、回転入力が複数の触知出力の振幅を変化させる(例えば、より大きくさせる又はより小さくさせる)回転入力の閾値速度である。
いくつかの実施形態では、回転入力を検出している間に(1504)、回転入力(例えば、1401、1403、1405、1407、1409)の速度(例えば、回転速度)が第2の速度(例えば、第1の回転速度)であるとの判定に従って(1514)、回転可能入力要素のそれぞれの回転量に対する触知出力の数は、第3の数であり(1520)、第3の数は、最小数(例えば、電子デバイスによって生成される触知出力の最小数)に対応する。いくつかの実施形態では、回転入力の速度(例えば、回転速度)が第2の速度より速い第4の速度(例えば、第4の回転速度)である(例えば、第4の速度は、第2の速度に対応する回転速度よりも大きい回転速度に対応する)との判定に従って(1530)、触知出力の数は、第3の数に対応する(1532)。したがって、いくつかの実施形態では、電子デバイス(例えば、600)は、回転入力の速度が更に変化する(例えば、更により速くなる)場合であっても、第3の数(例えば、最小数)の触知出力よりも少ない数の触知出力を生成しない。
いくつかの実施形態では、回転入力(例えば、1401、1403、1405、1407、1409)を検出している間に(1504)、回転入力の速度(例えば、回転速度)が第2の速度(例えば、第1の回転速度)であるとの判定に従って(1514)、複数の触知出力は、第3の振幅を有し(1522)、第3の振幅は、最小振幅(例えば、電子デバイスの1つ以上の触知出力生成器によって生成される最小のゼロより大きい触知出力振幅)に対応する。いくつかの実施形態では、回転入力の速度(例えば、回転速度)が第2の速度より速い第4の速度(例えば、第4の回転速度)である(例えば、第4の速度は、第2の速度に対応する回転速度よりも大きい回転速度に対応する)との判定に従って(1530)、複数の触知出力は、第3の振幅を有する(1534)。したがって、いくつかの実施形態では、第4の速度が第2の速度より大きくても、回転入力が第2の速度及び第4の速度で検出されている間に、複数の触知出力は、同じ振幅を有する。
いくつかの実施形態では、回転入力(例えば、1401、1403、1405、1407、1409)を検出している間に(1504)、第2の速度が最大閾値速度(例えば、最大閾値回転速度)に対応するとの判定に従って、第2の数の触知出力は、回転可能入力要素のそれぞれの回転量に対して生成することができる最大数の触知出力に対応する(1526)。したがって、いくつかの実施形態では、第2の速度が最大閾値速度を上回る場合であっても、第2の数の触知出力は、もはや増加しない(例えば、むしろ触知出力の最大数で(例えば、触知出力間の15msの間隔で)一定のままである)。
いくつかの実施形態では、回転入力(例えば、1401、1403、1405、1407、1409)を検出している間に(1504)、電子デバイス(例えば、600)は、(例えば、1つ以上の触知出力生成器を介して、並びに/又は電子デバイスに接続された1つ以上の内部スピーカ及び/若しくは1つ以上の外部スピーカ(例えば、ヘッドホン、イヤフォン)などの電子デバイスの1つ以上の他の出力デバイスを介して)複数の触知出力に関連付けられた複数のオーディオ出力を生成する(1540)。いくつかの実施形態では、回転入力の速度が第1の速度であるとの判定に従って、電子デバイスは、回転可能入力要素のそれぞれの回転量に対して第1の数のオーディオ出力を生成する(1544)。いくつかの実施形態では、回転入力の速度が第2の速度であるとの判定に従って、電子デバイスは、回転可能入力要素のそれぞれの回転量に対して第2の数のオーディオ出力を生成する(1550)。触知出力に加えて関連付けられたオーディオ出力を生成することにより、別のフィードバック方法を提供し、したがって、デバイスの汎用性を高めることによって、デバイスの操作性を向上させる。
いくつかの実施形態では、オーディオ出力は、(例えば、回転可能入力要素及び/又は電子デバイスの筐体内に組み込まれた)1つ以上の触知出力生成器を介して生成される。
いくつかの実施形態では、回転入力(例えば、1401、1403、1405、1407、1409)を検出している間に(1504)、電子デバイス(例えば、600)は、(例えば、1つ以上の触知出力生成器を介して、並びに/又は電子デバイスに接続された1つ以上の内部スピーカ及び/若しくは1つ以上の外部スピーカ(例えば、ヘッドホン、イヤフォン)などの電子デバイスの1つ以上の他の出力デバイスを介して)複数の触知出力に関連付けられた複数のオーディオ出力を生成する(1540)。いくつかの実施形態では、回転入力の速度が第1の速度であるとの判定に従って(1542)、電子デバイスは、回転可能入力要素のそれぞれの回転量に対して第1の大きさ(例えば、第1の音量)でオーディオ出力を生成する(1546)。いくつかの実施形態では、回転入力の速度が第2の速度であるとの判定に従って(1548)、電子デバイスは、回転可能入力要素のそれぞれの回転量に対して第1の大きさとは異なる(例えば、第1の大きさより大きい/大音量の、又は/第1の大きさよりも小さい/静かな)第2の大きさ(例えば、第2の音量)でオーディオ出力を生成する(1552)。
いくつかの実施形態では、第2の速度(例えば、1420)は、第1の速度(例えば、1418)よりも大きく(例えば、回転可能入力要素は第2の速度について、第1の速度についてよりも速い速度/率で回転される)、第2の数のオーディオ出力は、回転可能入力要素のそれぞれの回転量に対して第1の数のオーディオ出力よりも少ない。いくつかの実施形態では、第2の速度が第1の速度より遅い(例えば、回転可能入力要素は、第1の速度に対してよりも第2の速度に対してより遅い速度/率で回転される)場合、第2の数のオーディオ出力は、回転可能入力要素のそれぞれの回転量に対して第1の数のオーディオ出力よりも多い。
いくつかの実施形態では、第2の数のオーディオ出力と第1の数のオーディオ出力との間の出力の数の差は、第2の数の触知出力と第1の数の触知出力との間の出力の数の差とは異なる。したがって、いくつかの実施形態では、回転可能入力要素の回転速度が変化する(例えば、より速くなる、又はより遅くなる)とき、回転可能入力要素のそれぞれの回転量に対して電子デバイスによって生成されるオーディオ出力の数の変化は、回転可能入力要素のそれぞれの回転量に対して電子デバイスによって生成される触知出力の数の変化とは異なる率で変化する。
いくつかの実施形態では、回転入力(例えば、1401、1403、1405、1407、1409)を検出している間に(1504)、回転入力の速度が初期速度(例えば、回転入力が検出された瞬間/直後の回転入力の初期速度)であるとの判定に従って(1554)、電子デバイス(例えば、600)は、回転可能入力要素(例えば、604)のそれぞれの回転量に対して初期数の触知出力及び初期数のオーディオ出力を生成する(1556)。いくつかの実施形態では、回転入力を検出している間に(1504)、回転入力の速度が閾値速度(例えば、生成される触知出力の数の変化を最初にトリガする回転入力の速度)であるとの判定に従って(1560)、電子デバイスは、回転可能入力要素のそれぞれの回転量に対して閾値数の触知出力及び初期数のオーディオ出力を生成し(1562)、閾値数の触知出力は、初期数の触知出力とは異なる(例えば、より多い)。いくつかの実施形態では、回転入力の速度が閾値速度であるとの判定に従って(1560)、電子デバイスは、回転可能入力要素のそれぞれの回転量に対して初期数の触知出力及び閾値数のオーディオ出力を生成し、閾値数のオーディオ出力は、初期数のオーディオ出力とは異なる(例えば、より多い)。いくつかの実施形態では、触知出力及びオーディオ出力は、1つ以上の触知出力生成器のうちの同じ触知出力生成器によって生成される。
いくつかの実施形態では、回転入力(例えば、1401、1403、1405、1407、1409)を検出している間に(1504)、回転入力の速度が初期速度(例えば、回転入力が検出された瞬間/直後の回転入力の初期速度)であるとの判定に従って(1554)、電子デバイス(例えば、600)は、回転可能入力要素のそれぞれの回転量に対して初期振幅を有する複数の触知出力及び初期の大きさ(例えば、初期音量)を有する複数のオーディオ出力を生成する(1558)。いくつかの実施形態では、回転入力を検出している間に(1504)、回転入力の速度が閾値速度(例えば、生成される触知出力の数の変化を最初にトリガする回転入力の速度)であるとの判定に従って(1560)、電子デバイス(例えば、600)は、回転可能入力要素のそれぞれの回転量に対して閾値振幅を有する複数の触知出力及び初期の大きさ(例えば、初期音量)を有する複数のオーディオ出力を生成し(1564)、閾値振幅は、初期振幅とは異なる(例えば、より大きい)。いくつかの実施形態では、回転入力の速度が閾値速度であるとの判定に従って、電子デバイスは、回転可能入力要素のそれぞれの回転量に対して初期振幅を有する複数の触知出力及び閾値の大きさを有する複数のオーディオ出力を生成し、閾値の大きさは、初期の大きさとは異なる(例えば、より大きい)。いくつかの実施形態では、触知出力及びオーディオ出力は、1つ以上の触知出力生成器のうちの同じ触知出力生成器によって生成される。
いくつかの実施形態では、第1の方向(例えば、上方スクロール方向、前方ナビゲーション方向)にユーザインタフェースをナビゲートすることに対応するユーザインタフェース(例えば、1402)の修正に従って、生成された複数の触知出力(例えば、620)及び生成された複数のオーディオ出力は、第1のタイプ(例えば、シーケンス内の第1の数の触知出力、及び/又は第1の振幅を有する複数の触知出力、シーケンス内の第1の数のオーディオ出力、及び/又は第1の大きさを有する複数のオーディオ出力)である。いくつかの実施形態では、第2の方向(例えば、下方スクロール方向、後方ナビゲーション方向)にユーザインタフェースをナビゲートすることに対応するユーザインタフェースの修正に従って、生成された複数の触知出力及び生成された複数のオーディオ出力は、第1のタイプとは異なる第2のタイプ(例えば、シーケンス内の第2の数の触知出力、及び/又は第2の振幅を有する複数の触知出力、シーケンス内の第2の数のオーディオ出力、及び/又は第2の大きさを有する複数のオーディオ出力)である。
いくつかの実施形態では、特定のタイプの触知出力は、特定の触知出力パターンに対応する。例えば、図5C~図5H及び表1を参照してより詳細に上述したように、触知出力パターンは、触知出力の振幅、触知出力の移動波形の形状、触知出力の周波数、及び/又は触知出力の持続時間などの触知出力の特性を指定する。様々に異なる触知出力パターンを有する触知出力がデバイスによって生成されると(例えば、触知出力を生成するために可動質量を移動させる1つ以上の触知出力生成器を介して)、触知出力は、ユーザがデバイスを保持又はタッチする際に様々に異なる触覚感覚を引き起こし得る。ユーザの感覚は、触知出力のユーザの知覚に基づいているが、ほとんどのユーザは、デバイスによって生成される触知出力の波形、周波数、及び振幅の変化を識別することが可能である。
同様に、いくつかの実施形態では、特定のタイプのオーディオ出力は、特定のタイプのオーディオ出力パターンに対応する。例えば、オーディオ出力パターンは、オーディオ出力の大きさ/振幅/音量、オーディオ出力のサウンド波形の形状、オーディオ出力の周波数、及び/又はオーディオ出力の持続時間などのオーディオ出力の特性を指定する。様々に異なるオーディオ出力パターンを有するオーディオ出力が(例えば、オーディオ出力を生成するために可動質量を移動させる1つ以上の触知出力生成器を介して、1つ以上のスピーカを介して)デバイスによって生成されると、オーディオ出力は、デバイスを保持若しくはタッチしている又はデバイスに近接しているユーザに様々に異なるオーディオに関連した感覚を引き起こすことができる。
なお、方法1500に関して上述された処理(例えば、図15A~図15C)の詳細はまた、類似の方式で上述の方法に適用可能であることに留意されたい。例えば、方法700は、方法1500を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法700に記載される様々に異なるタイプの触知出力及びオーディオ出力シーケンスは、方法1500に記載されるように動的に調整することができる。別の例では、方法900は、方法1500を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法900に記載されるコンテンツのスクロール中に生成される触知出力及びオーディオ出力シーケンスは、方法1500に記載されるように動的に調整することができる。別の例では、方法1100は、方法1500を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、オブジェクト、アイテム、又は要素としてディスプレイ上の焦点に位置合わせされる、ユーザインタフェースオブジェクト、アイテム、又は要素がスクロールされている間に生成される触知出力及びオーディオ出力シーケンスは、方法1500に記載されるように動的に調整することができる。別の例では、方法1300は、方法1500を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法1300に記載されるように、時間設定を調整している間に生成される触知出力は、方法1500に記載されるように動的に調整することができる。簡潔にするために、これらの詳細は、以下で繰り返さない。
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本技術の原理、及びそれらの実際の適用を最もよく説明するために、実施形態が選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。
添付図面を参照して、本開示及び例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。
上述のように、本技術の一態様は、ユーザへのセンサフィードバックを改善し、したがって、ユーザが電子デバイス上に表示されたユーザインタフェースのコンテンツをナビゲートする際に、ユーザ体験、利便性、及び効率を向上させるための、様々なソースから入手可能なデータの収集及び使用である。本開示は、いくつかの例において、この収集されたデータが、特定の人を一意に特定する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを考察する。そのような個人情報データとしては、人口統計データ、位置ベースのデータ、電話番号、電子メールアドレス、ツイッターID、自宅の住所、ユーザの健康若しくはフィットネスのレベルに関するデータ若しくは記録(例えば、バイタルサイン測定値、投薬情報、運動情報)、誕生日、又は任意の他の識別情報若しくは個人情報を挙げることができる。
本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。更に、ユーザに利益をもたらす、個人情報データに関する他の使用もまた、本開示によって考察される。
本開示は、そのような個人情報データの収集、分析、開示、転送、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守することを考察する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能であるべきであり、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更に、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。更に、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更に、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。更に、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はアクセスは、医療保険の相互運用性と説明責任に関する法律(Health Insurance Portability and Accountability Act、HIPAA)などの、連邦法及び/又は州法によって管理することができ、その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国の異なる個人データのタイプに対して、異なるプライバシー慣行が保たれるべきである。
前述のことがらにもかかわらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も考察する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するように、ハードウェア要素及び/又はソフトウェア要素を提供できることを考察する。「オプトイン」及び「オプトアウト」の選択肢を提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを考察する。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。
更に、本開示の意図は、個人情報データを、非意図的若しくは無認可アクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなった時点で削除することによって、危険性を最小限に抑えることができる。更に、適用可能な場合、特定の健康関連アプリケーションにおいて、ユーザのプライバシーを保護するために、データの非特定化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって情報集約すること)及び/又は他の方法によって、容易にすることができる。
それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものであるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することも可能であることを考察する。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部分が欠如することにより、実施不可能となるものではない。
Claims (97)
- ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスにおいて、
前記ディスプレイ上に、ユーザインタフェースを表示することと、
前記ユーザインタフェースを表示している間に、前記入力要素を介して、第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
前記ユーザインタフェース内をナビゲートすることと、
前記1つ以上の触知出力生成器を介して、前記ユーザインタフェース内を前記ナビゲートすることに対応する触知出力を生成することであって、
前記ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツを含むとの判定に従って、前記ナビゲートすることに対応する前記触知出力は、前記第1の入力の入力メトリックに基づいて決定される1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを含み、
前記ユーザインタフェースの前記現在表示されている部分が前記第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、前記ナビゲートすることに対応する前記触知出力は、前記ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、
ことと、
を含む、方法。 - 前記第1のタイプの触知出力シーケンスが、前記第2のタイプの触知出力シーケンスとは異なる、請求項1に記載の方法。
- 前記第2のタイプの触知出力シーケンスが、前記ユーザインタフェース内のコンテンツの前記既定のユニットの前記移動に基づいて決定され、
前記第1のタイプの触知出力シーケンスが、前記ユーザインタフェース内のコンテンツの前記移動とは独立して決定される、請求項1又は2に記載の方法。 - コンテンツの前記既定のユニットが、前記コンテンツ内の視覚的に区別されたコンテンツ要素に対応する、請求項1から3のいずれか一項に記載の方法。
- 前記ユーザインタフェースが、前記第2のタイプのコンテンツであるコンテンツを含まない、請求項1から4のいずれか一項に記載の方法。
- 前記ユーザインタフェースが、前記第1のタイプのコンテンツであるコンテンツを含まない、請求項1から4のいずれか一項に記載の方法。
- 前記ユーザインタフェース内を前記ナビゲートすることに対応する触知出力を、前記1つ以上の触知出力生成器を介して生成することを更に含み、
前記触知出力を生成することが、前記ユーザインタフェースが前記第1のタイプのコンテンツの終端部分を表示しているとの判定に従って、前記ナビゲートすることに対応する前記触知出力が、前記コンテンツが前記終端部分にあることを示す、前記第1のタイプの触知出力シーケンスとは異なる第3のタイプの触知出力シーケンスを含み、
前記ユーザインタフェースが前記第1のタイプのコンテンツの終端部分を表示していないとの判定に従って、前記ナビゲートすることに対応する前記触知出力部分が、前記第3のタイプの触知出力シーケンスを含まない、
ことを更に含む、請求項1から6のいずれか一項に記載の方法。 - 前記ユーザインタフェースが前記第2のタイプのコンテンツを含むとの前記判定に従って、かつ、
コンテンツの前記既定のユニットが第1のタイプであるとの判定に従って、前記触知出力が、第1の振幅を有し、
コンテンツの前記既定のユニットが前記第1のタイプとは異なる第2のタイプであるとの判定に従って、前記触知出力が、前記第1の振幅よりも小さい第2の振幅を有する、請求項1から7のいずれか一項に記載の方法。 - 前記第1のタイプの触知出力シーケンス内に生成された触知出力の数が、前記第1の入力の速度に対応し、前記第1の入力が、前記入力要素における回転入力である、請求項1から8のいずれか一項に記載の方法。
- 前記ユーザインタフェース内をナビゲートしている間に、前記ユーザインタフェースの前記現在表示されている部分が前記第2のタイプのコンテンツを含むとの前記判定に従って、前記触知出力を生成することが、コンテンツの第1の既定のユニットが前記ディスプレイ上に移動して位置合わせされることに応じて前記触知出力を生成することを含む、請求項1から9のいずれか一項に記載の方法。
- 前記ユーザインタフェース内をナビゲートしている間に、前記ユーザインタフェースの前記現在表示されている部分が前記第2のタイプのコンテンツを含むとの前記判定に従って、前記触知出力を生成することが、コンテンツの第1の既定のユニットが前記ディスプレイ上から移動して位置がずれることに応じて前記触知出力を生成することを含む、請求項1から10のいずれか一項に記載の方法。
- 前記ディスプレイ上に、前記ユーザインタフェースとは異なる第2のユーザインタフェースを表示することと、
前記第2のユーザインタフェースを表示している間に、前記入力要素を介して、第2の入力を検出することと、
前記第2の入力を検出したことに応じて、
前記第2の入力が前記第2のユーザインタフェースをナビゲートすることを生じさせないとの判定に従って、前記1つ以上の触知出力生成器を介して、触知出力を生成することを取り止めることと、
前記第2の入力は前記第2のユーザインタフェースがナビゲートされることを生じさせるとの判定に従って、前記1つ以上の触知出力生成器を介して、前記触知出力を生成することと、
を更に含む、請求項1から11のいずれか一項に記載の方法。 - 前記第2のユーザインタフェースが、通知に対応し、前記通知が、前記ユーザインタフェースの表示を置き換える、請求項12に記載の方法。
- 前記ユーザインタフェースを表示している間に、前記入力要素とは異なる第2の入力要素を介して、第2の入力を検出することと、
前記第2の入力を検出したことに応じて、
前記ユーザインタフェース内をナビゲートすることと、
前記1つ以上の触知出力生成器を介して、前記ユーザインタフェース内を前記ナビゲートすることに対応する前記触知出力を生成することを取り止めることと、
を更に含む、請求項1から13のいずれか一項に記載の方法。 - 前記第1の入力を検出したことに応じて、
前記ユーザインタフェース内を前記ナビゲートすることに対応する前記触知出力に関連付けられたオーディオ出力を生成することであって、
前記ユーザインタフェースの前記現在表示されている部分が前記第1のタイプのコンテンツを含むとの前記判定に従って、前記オーディオ出力が、前記第1のタイプの触知出力シーケンスに関連付けられた第1のタイプのオーディオ出力シーケンスを含み、
前記ユーザインタフェースの前記現在表示されている部分が前記第2のタイプのコンテンツを含むとの前記判定に従って、前記オーディオ出力が、前記第2のタイプの触知出力シーケンスに関連付けられた第2のタイプのオーディオ出力シーケンスを含む、こと、を更に含む、請求項1から14のいずれか一項に記載の方法。 - 前記入力要素を介して入力を検出していない間に、通知をトリガするイベントが検出されたとの判定に従って、前記通知に対応する触知出力を生成することと、
前記入力要素を介して入力を検出している間に、前記通知をトリガする前記イベントが検出されたとの判定に従って、前記通知に対応する前記触知出力を生成することを取り止めることと、を更に含む、請求項1から15のいずれか一項に記載の方法。 - 前記第1の入力を検出している間に、通知をトリガするイベントが検出されたとの判定に従って、既定の基準が満たされるまで、前記通知に対応する触知出力を生成することを取り止めることと、
前記所定の基準が満たされたとの判定に応じて、前記通知に対応する前記触知出力を生成することと、
を更に含む、請求項1から15のいずれか一項に記載の方法。 - ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項1から17のいずれか一項に記載の方法を実行する命令を含む、コンピュータ可読記憶媒体。
- ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムが、請求項1から17のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。 - ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
請求項1から17のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。 - ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記ディスプレイ上に、ユーザインタフェースを表示し、
前記ユーザインタフェースを表示している間に、前記入力要素を介して第1の入力を検出し、
前記第1の入力を検出したことに応じて、
前記ユーザインタフェース内をナビゲートし、
前記1つ以上の触知出力生成器を介して、前記ユーザインタフェース内を前記ナビゲートすることに対応する触知出力を生成する、命令であって、
前記触知出力を生成することが、
前記ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツを含むとの判定に従って、前記ナビゲートすることに対応する前記触知出力は、前記第1の入力の入力メトリックに基づいて決定される1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを含み、
前記ユーザインタフェースの前記現在表示されている部分が前記第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、前記ナビゲートすることに対応する前記触知出力は、前記ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、ことを含む、命令を含む、非一時的コンピュータ可読記憶媒体。 - ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、
前記ディスプレイ上に、ユーザインタフェースを表示し、
前記ユーザインタフェースを表示している間に、前記入力要素を介して、第1の入力を検出し、
前記第1の入力を検出したことに応じて、
前記ユーザインタフェース内をナビゲートし、
前記1つ以上の触知出力生成器を介して、前記ユーザインタフェース内を前記ナビゲートすることに対応する触知出力を生成する、命令であって、
前記触知出力を生成することが、
前記ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツを含むとの判定に従って、前記ナビゲートすることに対応する前記触知出力が、前記第1の入力の入力メトリックに基づいて決定される1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを含み、
前記ユーザインタフェースの前記現在表示されている部分が前記第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、前記ナビゲートすることに対応する前記触知出力が、前記ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて判定された1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、ことを含む、命令を含む、電子デバイス。 - ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
前記ディスプレイ上に、ユーザインタフェースを表示する手段と、
前記ユーザインタフェースを表示している間に、前記入力要素を介して、第1の入力を検出する手段と、
前記第1の入力を検出したことに応じて、
前記ユーザインタフェース内をナビゲートし、
前記1つ以上の触知出力生成器を介して、前記ユーザインタフェース内を前記ナビゲートすることに対応する触知出力を生成する手段であって、
前記ユーザインタフェースの現在表示されている部分が第1のタイプのコンテンツを含むとの判定に従って、前記ナビゲートすることに対応する前記触知出力は、前記第1の入力の入力メトリックに基づいて決定される1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを含み、
前記ユーザインタフェースの前記現在表示されている部分が前記第1のタイプのコンテンツとは異なる第2のタイプのコンテンツを含むとの判定に従って、前記ナビゲートすることに対応する前記触知出力は、前記ユーザインタフェース内のコンテンツの既定のユニットの移動に基づいて決定される1つ以上の触知出力を含む第2のタイプの触知出力シーケンスを含む、手段とを備える、電子デバイス。 - ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスにおいて、
前記ディスプレイ上に、コンテンツの第1の部分を表示することと、
コンテンツの前記第1の部分を表示している間に、前記入力要素を介して、第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
前記コンテンツ内をナビゲートして、前記コンテンツの第2の部分を表示することと、
前記1つ以上の触知出力生成器を介して、1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを生成することと、
前記コンテンツの前記第2の部分を表示している間に、前記入力要素を介して、第2の入力を検出することと、
前記第2の入力を検出したことに応じて、かつ前記コンテンツの前記第2の部分が前記コンテンツの終端部分であるとの判定に従って、
前記コンテンツが前記コンテンツの終端部分であるという視覚インジケーションを表示することと、
前記1つ以上の触知出力生成器を介して、前記第1のタイプの触知出力シーケンスを生成することを取り止めることと、
を含む、方法。 - 前記コンテンツが前記コンテンツの終端部分であるという前記視覚インジケーションを表示することが、前記ディスプレイ上で前記コンテンツの前記第2の部分をシフトさせることを含む、請求項24に記載の方法。
- 前記ディスプレイ上で前記コンテンツの前記第2の部分をシフトさせることが、前記コンテンツの前記第2の部分を移動させて前記ディスプレイの縁部の少なくとも部分的に外に移動させることを含む、請求項25に記載の方法。
- 前記コンテンツが前記コンテンツの終端部分であるという前記視覚インジケーションの視覚特性が、前記第2の入力の入力メトリックに基づく、請求項24から26のいずれか一項に記載の方法。
- 前記第2の入力を検出したことに応じて、かつ前記コンテンツの前記第2の部分が前記コンテンツの終端部分ではないとの判定に従って、
前記ディスプレイ上に、前記コンテンツの第3の部分を表示することと、
前記1つ以上の触知出力生成器を介して、前記第1のタイプの触知出力シーケンスを生成することと、
を更に含む、請求項24から27のいずれか一項に記載の方法。 - 前記第2の入力を検出した後に、かつ前記コンテンツの前記第2の部分を表示している間に、前記入力要素を介して、第3の入力であって、前記第2の入力とは反対方向である第3の入力を検出することと、
前記第3の入力を検出したことに応じて、
前記コンテンツ内をナビゲートして戻り、前記コンテンツの前記第1の部分を表示することと、
前記1つ以上の触知出力生成器を介して、前記第1のタイプの触知出力シーケンスを生成することと、
を更に含む、請求項24から28のいずれか一項に記載の方法。 - 前記第2の入力を検出したことに応じて、かつ前記コンテンツの前記第2の部分が前記コンテンツの終端部分であるとの前記判定に従って、
前記1つ以上の触知出力生成器を介して、第3のタイプの触知出力シーケンスを生成すること、
を更に含む、請求項24から29のいずれか一項に記載の方法。 - 前記第2の入力を検出した後に、かつ前記コンテンツの前記第2の部分を表示している間に、前記入力要素を介して、第3の入力であって、前記第2の入力が第1の方向であり、前記第2の入力の方向とは反対の方向である第3の入力を検出することと、
前記第3の入力を検出したことに応じて、前記1つ以上の触知出力生成器を介して前記第3のタイプの触知出力シーケンスを生成することを取り止めることと、
を更に含む、請求項30に記載の方法。 - 前記第3のタイプの触知出力シーケンスが、前記第1のタイプの触知出力シーケンスに対応し、
前記第1のタイプの触知出力シーケンスが、第1のタイプのオーディオ出力シーケンスに関連付けられており、
前記第3のタイプの触知出力シーケンスが、前記第1のタイプのオーディオ出力シーケンスとは異なる第2のタイプのオーディオ出力シーケンスに関連付けられている、請求項30又は31に記載の方法。 - 前記コンテンツの前記第2の部分を表示している間に、前記ディスプレイ上で、第4の入力を検出することと、
前記スクロール入力を検出したことに応じて、かつ前記コンテンツの前記第2の部分が前記コンテンツの終端部分であるとの前記判定に従って、
前記コンテンツが前記コンテンツの終端部分であるという前記視覚インジケーションを表示することと、
前記1つ以上の触知出力生成器を介して前記第1のタイプの触知出力シーケンスを生成することを取り止めることと、
を更に含む、請求項24から32のいずれか一項に記載の方法。 - 前記コンテンツの前記終端部分が、前記コンテンツの開始部分又は前記コンテンツの終わりの部分である、請求項24から33のいずれか一項に記載の方法。
- ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項24から34のいずれか一項に記載の方法を実行する命令を含む、コンピュータ可読記憶媒体。
- ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムが、請求項24から34のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。 - ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
請求項24から34のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。 - ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記ディスプレイ上に、コンテンツの第1の部分を表示し、
コンテンツの前記第1の部分を表示している間に、前記入力要素を介して、第1の入力を検出し、
前記第1の入力を検出したことに応じて、
前記コンテンツ内をナビゲートして、前記コンテンツの第2の部分を表示し、
前記1つ以上の触知出力生成器を介して、1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを生成し、
前記コンテンツの前記第2の部分を表示している間に、前記入力要素を介して、第2の入力を検出し、
前記第2の入力を検出したことに応じて、かつ前記コンテンツの前記第2の部分が前記コンテンツの終端部分であるとの判定に従って、
前記コンテンツが前記コンテンツの終端部分であるという視覚インジケーションを表示し、
前記1つ以上の触知出力生成器を介して、前記第1のタイプの触知出力シーケンスを生成することを取り止める、
命令を含む、コンピュータ可読記憶媒体。 - ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、
前記ディスプレイ上に、コンテンツの第1の部分を表示し、
コンテンツの前記第1の部分を表示している間に、前記入力要素を介して、第1の入力を検出し、
前記第1の入力を検出したことに応じて、
前記コンテンツ内をナビゲートして、前記コンテンツの第2の部分を表示し、
前記1つ以上の触知出力生成器を介して、1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを生成し、
前記コンテンツの前記第2の部分を表示している間に、前記入力要素を介して、第2の入力を検出し、
前記第2の入力を検出したことに応じて、かつ前記コンテンツの前記第2の部分が前記コンテンツの終端部分であるとの判定に従って、
前記コンテンツが前記コンテンツの終端部分であるという視覚インジケーションを表示し、
前記1つ以上の触知出力生成器を介して、前記第1のタイプの触知出力シーケンスを生成することを取り止める、
命令を含む、電子デバイス。 - ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
前記ディスプレイ上に、コンテンツの第1の部分を表示する手段と、
コンテンツの前記第1の部分を表示している間に、前記入力要素を介して、第1の入力を検出する手段と、
前記第1の入力を検出したことに応じて、
前記コンテンツ内をナビゲートして、前記コンテンツの第2の部分を表示し、
前記1つ以上の触知出力生成器を介して、1つ以上の触知出力を含む第1のタイプの触知出力シーケンスを生成する手段と、
前記コンテンツの前記第2の部分を表示している間に、前記入力要素を介して、第2の入力を検出する手段と、
前記第2の入力を検出したことに応じて、かつ前記コンテンツの前記第2の部分が前記コンテンツの終端部分であるとの判定に従って、
前記コンテンツが前記コンテンツの終端部分であるという視覚インジケーションを表示し、
前記1つ以上の触知出力生成器を介して、前記第1のタイプの触知出力シーケンスを生成することを取り止める手段と、
を備える、電子デバイス。 - タッチ感知ディスプレイと、回転可能入力要素とを有する電子デバイスにおいて、
前記ディスプレイ上に、ユーザインタフェースを表示することと、
前記ユーザインタフェースを表示している間に、前記デバイスにおける入力の第1の部分を検出することと、
前記入力の第1の部分を検出したことに応じて、前記入力の移動に従って、前記デバイスの前記ディスプレイにわたってユーザインタフェースオブジェクトを移動させることと、
前記入力の前記第1の部分を検出した後に、前記デバイスにおける前記入力の第2の部分を検出することと、
前記入力の前記第2の部分を検出したことに応じて、
前記入力が前記タッチ感知ディスプレイ上の接触の移動を含み、かつ前記移動が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって第1の閾値量を超えて移動させるとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上のそれぞれの位置に移動させることと、
前記入力が前記タッチ感知ディスプレイ上の接触の移動を含み、かつ前記移動が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第1の閾値以上移動させないとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させることを取り止めることと、
前記入力が前記回転可能入力要素に対する回転入力を含み、かつ前記回転入力が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第1の閾値未満である第2の閾値を超えて移動させるとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させることと、
前記入力が前記回転可能入力要素に対する回転入力を含み、かつ前記回転入力が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第2の閾値以上移動させないとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させることを取り止めることと、を含む、方法。 - 前記入力の前記第2の部分を検出したことに応じて、
前記入力が前記タッチ感知ディスプレイ上の接触の移動を含み、かつ前記移動が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第1の閾値以上移動させないとの判定に従って、前記ユーザインタフェースオブジェクトを反対方向に後退させること、を更に含む、請求項41に記載の方法。 - 前記入力の前記第2の部分を検出したことに応じて、
前記入力が前記回転可能入力要素に対する回転入力を含み、かつ前記回転入力が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第2の閾値以上移動させないとの判定に従って、前記ユーザインタフェースオブジェクトを反対方向に後退させること、
を更に含む、請求項41又は42に記載の方法。 - 前記電子デバイスが、触知出力生成器を含む、請求項41から43のいずれか一項に記載の方法。
- 前記電子デバイスが、前記回転可能入力要素に対する局所的触知出力を生成する1つ以上の触知出力生成器と、前記回転可能入力要素に特に限定されない、前記電子デバイスのための触知出力を生成する1つ以上の別個の触知出力生成器とを含む、請求項41から43のいずれか一項に記載の方法。
- 前記1つ以上の触知出力生成器が、オーディオ出力を生成するように構成されている、請求項45に記載の方法。
- 前記入力の前記第2の部分を検出したことに応じて、
前記入力が前記回転可能入力要素に対する回転入力を含み、かつ前記回転入力が前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させるための基準を満たすとの前記判定に従って、前記ユーザインタフェースオブジェクトの前記移動に対応する触知出力を生成することと併せて、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させることと、
前記入力が、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させるための基準を満たす、前記タッチ感知ディスプレイ上の接触の移動を含むとの前記判定に従って、前記触知出力を生成することなく、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させることと、を更に含む、請求項41から46のいずれか一項に記載の方法。 - 前記触知出力の振幅が、前記ユーザインタフェースオブジェクトのサイズに基づく、請求項47に記載の方法。
- 前記ディスプレイ上の前記それぞれの位置への前記ユーザインタフェースオブジェクトの前記移動に対応する前記触知出力が、前記ディスプレイ上に通知を表示することに関連付けられた触知出力シーケンスに対応する第2の所定の周波数範囲とは異なる第1の所定の周波数範囲を有する触知出力シーケンスを含む、請求項47又は48に記載の方法。
- 前記ユーザインタフェースを表示している間に、前記回転可能入力要素に対する第2の入力を検出することと、
前記回転可能入力要素に対する前記第2の入力を検出したことに応じて、前記1つ以上の触知出力生成器を介して、前記回転可能入力要素の回転に対応する触知出力を生成することを取り止めることと、
を更に含む、請求項44から49のいずれか一項に記載の方法。 - 前記ユーザインタフェースを表示している間に、前記回転可能入力要素に対する第3の入力を検出することと、
前記回転可能入力要素に対する前記第3の入力を検出したことに応じて、
前記第3の入力が、前記回転可能入力要素の押圧を有さずに、前記回転可能入力要素の回転を含むとの判定に従って、前記1つ以上の入力デバイスを介して、前記回転可能入力要素の回転に対応する触知出力を生成することと、
前記第3の入力が前記回転可能入力要素の回転及び前記回転可能入力要素の押圧を含むとの判定に従って、前記1つ以上の触知出力生成器を介して、前記回転可能入力要素の回転に対応する前記触知出力を生成することを取り止めることと、
を更に含む、請求項44から50のいずれか一項に記載の方法。 - タッチ感知ディスプレイと、回転可能入力要素とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項41から51のいずれか一項に記載の方法を実行する命令を含む、コンピュータ可読記憶媒体。
- タッチ感知ディスプレイと、
回転可能入力要素と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムが、請求項41から51のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。 - ディスプレイと、
回転可能入力要素と、
請求項41から51のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。 - タッチ感知ディスプレイと、回転可能入力要素とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記ディスプレイ上に、ユーザインタフェースを表示し、
前記ユーザインタフェースを表示している間に、前記デバイスにおける入力の第1の部分を検出し、
前記入力の第1の部分を検出したことに応じて、前記入力の移動に従って、前記デバイスの前記ディスプレイにわたってユーザインタフェースオブジェクトを移動させ、
前記入力の前記第1の部分を検出した後に、前記デバイスにおける前記入力の第2の部分を検出し、
前記入力の前記第2の部分を検出したことに応じて、
前記入力が前記タッチ感知ディスプレイ上の接触の移動を含み、かつ前記移動が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって第1の閾値を超えて移動させるとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上のそれぞれの位置に移動させ、
前記入力が前記タッチ感知ディスプレイ上の接触の移動を含み、かつ前記移動が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第1の閾値以上移動させないとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させることを取り止め、
前記入力が前記回転可能入力要素に対する回転入力を含み、かつ前記回転入力が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第1の閾値未満である第2の閾値を超えて移動させるとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させ、
前記入力が前記回転可能入力要素に対する回転入力を含み、かつ前記回転入力が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第2の閾値以上移動させないとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させることを取り止める、命令を含む、コンピュータ可読記憶媒体。 - タッチ感知ディスプレイと、
回転可能入力要素と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、
前記ディスプレイ上に、ユーザインタフェースを表示し、
前記ユーザインタフェースを表示している間に、前記デバイスにおける入力の第1の部分を検出し、
前記入力の第1の部分を検出したことに応じて、前記入力の前記移動に従って、前記デバイスの前記ディスプレイにわたってユーザインタフェースオブジェクトを移動させ、
前記入力の前記第1の部分を検出した後に、前記デバイスにおける前記入力の第2の部分を検出し、
前記入力の前記第2の部分を検出したことに応じて、
前記入力が前記タッチ感知ディスプレイ上の接触の移動を含み、かつ移動が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって第1の閾値を超えて移動させるとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上のそれぞれの位置に移動させ、
前記入力が前記タッチ感知ディスプレイ上の接触の移動を含み、かつ前記移動が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第1の閾値以上移動させないとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させることを取り止め、
前記入力が前記回転可能入力要素に対する回転入力を含み、かつ前記回転入力が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第1の閾値未満である第2の閾値を超えて移動させるとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させ、
前記入力が前記回転可能入力要素に対する回転入力を含み、かつ前記回転入力が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第2の閾値以上移動させないとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させること取り止める、命令を含む、電子デバイス。 - 電子デバイスであって、
ディスプレイと、
回転可能入力要素と、
前記ディスプレイ上に、ユーザインタフェースを表示する手段と、
前記ユーザインタフェースを表示している間に、前記デバイスにおける入力の第1の部分を検出する手段と、
前記入力の第1の部分を検出したことに応じて、前記入力の移動に従って、前記デバイスの前記ディスプレイにわたってユーザインタフェースオブジェクトを移動させる手段と、
前記入力の前記第1の部分を検出した後に、前記デバイスにおいて前記入力の第2の部分を検出する手段と、
前記入力の前記第2の部分を検出したことに応じて、
前記入力が前記タッチ感知ディスプレイ上の接触の移動を含み、かつ前記移動が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって第1の閾値を超えて移動させるとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上のそれぞれの位置に移動させ、
前記入力が前記タッチ感知ディスプレイ上の接触の移動を含み、かつ前記移動が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第1の閾値以上移動させないとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させることを取り止め、
前記入力が前記回転可能入力要素に対する回転入力を含み、かつ前記回転入力が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第1の閾値未満である第2の閾値を超えて移動させるとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させ、
前記入力が前記回転可能入力要素に対する回転入力を含み、かつ前記回転入力が前記ユーザインタフェースオブジェクトを前記ディスプレイにわたって前記第2の閾値以上移動させないとの判定に従って、前記ユーザインタフェースオブジェクトを前記ディスプレイ上の前記それぞれの位置に移動させることを取り止める、手段と、を備える、電子デバイス。 - ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスにおいて、
前記ディスプレイ上に、第1の調整可能なアイテム及び第2の調整可能なアイテムを含むユーザインタフェースを表示することと、
前記ユーザインタフェースを表示している間に、前記入力要素を介して、回転入力を検出することと、
前記回転入力を検出したことに応じて、
前記第1の調整可能なアイテムが現在選択されているとの判定に従って、
前記回転入力に基づいて、前記第1の調整可能なアイテムを調整することと、
前記第1の調整可能なアイテムを調整している間に、前記1つ以上の触知出力生成器を介して、第1の振幅を有する1つ以上の触知出力を含む触知出力の第1のシーケンスを生成することと、
前記第2の調整可能なアイテムが現在選択されているとの判定に従って、
前記回転入力に基づいて、前記第2の調整可能なアイテムを調整することと、
前記第2の調整可能なアイテムを調整している間に、前記1つ以上の触知出力生成器を介して、前記第1の振幅とは異なる第2の振幅を有する1つ以上の触知出力を含む触知出力の第2のシーケンスを生成することと、
を含む、方法。 - 前記回転入力に基づいて、前記第1の調整可能なアイテムを調整することが、第1の数の値だけ前記第1の調整可能なアイテムを調整することを含み、
前記回転入力に基づいて、前記第2の調整可能なアイテムを調整することが、第2の数の値だけ前記第2の調整可能なアイテムを調整することを含み、前記第2の数の値が、前記第1の数の値とは異なる、請求項58に記載の方法。 - 前記1つ以上の触知出力生成器を介して、前記第1の振幅を有する1つ以上の触知出力を含む触知出力の前記第1のシーケンスを生成することが、前記回転入力の前記方向に関係なく、触知出力の前記第1のシーケンスを生成することを含み、
前記1つ以上の触知出力生成器を介して、前記第2の振幅を有する1つ以上の触知出力を含む触知出力の前記第2のシーケンスを生成することが、前記回転入力の前記方向に関係なく、触知出力の前記第2のシーケンスを生成することを含む、請求項58又は59に記載の方法。 - 前記第1の調整可能なアイテムを調整している間に、インジケータを、前記ユーザインタフェース上で複数の所定の位置合わせ点を通って移動させることを更に含み、
前記インジケータが、前記所定の位置合わせ点のうち、前記複数の位置合わせ点のうちの前記位置合わせ点にスナップし、
触知出力の前記第1のシーケンスのうちの前記1つ以上の触知出力が、前記インジケータが前記複数の位置合わせ点のうちの前記位置合わせ点に前記スナップすることと連携する、請求項58から60のいずれか一項に記載の方法。 - 前記第1の調整可能なアイテムを調整している間に、前記ディスプレイ上に、前記複数の所定の位置合わせ点であって、第1の数の位置合わせ点を含む複数の所定の位置合わせ点を表示することと、
前記第2の調整可能なアイテムを調整している間に、前記ディスプレイ上に、第2の複数の所定の位置合わせ点であって、前記第1の数とは異なる第2の数の位置合わせ点を含む第2の複数の所定の位置合わせ点を表示することと、
を更に含む、請求項61に記載の方法。 - 前記回転入力を検出したことに応じて、
前記回転入力が第1の回転速度であるとの判定に従って、前記インジケータを前記第1の回転速度に関連付けられた第1の速度で前記表示された複数の値を通って移動させることと、
前記回転入力が前記第1の回転速度とは異なる第2の回転速度であるとの判定に従って、前記インジケータを前記第2の回転速度に関連付けられた、前記第1の速度とは異なる第2の速度で前記表示された複数の値を通って移動させることと、
を更に含む、請求項61又は62に記載の方法。 - 前記ユーザインタフェースを表示している間に、かつ前記第1の調整可能なアイテムが現在選択されている調整可能なアイテムである間に、第1の入力を検出することと、
前記第1の入力を検出したことに応じて、前記第2の調整可能なアイテムを前記現在選択されている調整可能なアイテムとして設定することと、
を更に含む、請求項58から63のいずれか一項に記載の方法。 - 前記第1の調整可能なアイテムが、ユーザインタフェース設定の第1の部分に対応し、前記第2の調整可能なアイテムが、前記ユーザインタフェース設定の第2の部分に対応する、請求項58から64のいずれか一項に記載の方法。
- 前記ユーザインタフェースが、時間設定ユーザインタフェースに対応し、
前記第1の調整可能なアイテムが、前記電子デバイスの時設定に対応し、
前記第2の調整可能なアイテムが、前記電子デバイスの分設定に対応する、請求項58から65のいずれか一項に記載の方法。 - ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項58から66のいずれか一項に記載の方法を実行する命令を含む、コンピュータ可読記憶媒体。
- ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムが、請求項58から66のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。 - ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
請求項58から66のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。 - ディスプレイと、入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記ディスプレイ上に、第1の調整可能なアイテム及び第2の調整可能なアイテムを含むユーザインタフェースを表示し、
前記ユーザインタフェースを表示している間に、前記入力要素を介して、回転入力を検出し、
前記回転入力を検出したことに応じて、
前記第1の調整可能なアイテムが現在選択されているとの判定に従って、
前記回転入力に基づいて、前記第1の調整可能なアイテムを調整し、
前記第1の調整可能なアイテムを調整している間に、前記1つ以上の触知出力生成器を介して、第1の振幅を有する1つ以上の触知出力を含む触知出力の第1のシーケンスを生成し、
前記第2の調整可能なアイテムが現在選択されているとの判定に従って、
前記回転入力に基づいて、前記第2の調整可能なアイテムを調整し、
前記第2の調整可能なアイテムを調整している間に、前記1つ以上の触知出力生成器を介して、前記第1の振幅とは異なる第2の振幅を有する1つ以上の触知出力を含む触知出力の第2のシーケンスを生成する、
命令を含む、コンピュータ可読記憶媒体。 - ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記ディスプレイ上に、第1の調整可能なアイテム及び第2の調整可能なアイテムを含むユーザインタフェースを表示し、
前記ユーザインタフェースを表示している間に、前記入力要素を介して、回転入力を検出し、
前記回転入力を検出したことに応じて、
前記第1の調整可能なアイテムが現在選択されているとの判定に従って、
前記回転入力に基づいて、前記第1の調整可能なアイテムを調整し、
前記第1の調整可能なアイテムを調整している間に、前記1つ以上の触知出力生成器を介して、第1の振幅を有する1つ以上の触知出力を含む触知出力の第1のシーケンスを生成し、
前記第2の調整可能なアイテムが現在選択されているとの判定に従って、
前記回転入力に基づいて、前記第2の調整可能なアイテムを調整し、
前記第2の調整可能なアイテムを調整している間に、前記1つ以上の触知出力生成器を介して、前記第1の振幅とは異なる第2の振幅を有する1つ以上の触知出力を含む触知出力の第2のシーケンスを生成する、
命令を含む、電子デバイス。 - ディスプレイと、
入力要素と、
1つ以上の触知出力生成器と、
前記ディスプレイ上に、第1の調整可能なアイテム及び第2の調整可能なアイテムを含むユーザインタフェースを表示する手段と、
前記ユーザインタフェースを表示している間に、前記入力要素を介して、回転入力を検出する手段と、
前記回転入力を検出したことに応じて、
前記第1の調整可能なアイテムが現在選択されているとの判定に従って、
前記回転入力に基づいて、前記第1の調整可能なアイテムを調整し、
前記第1の調整可能なアイテムを調整している間に、前記1つ以上の触知出力生成器を介して、第1の振幅を有する1つ以上の触知出力を含む触知出力の第1のシーケンスを生成し、
前記第2の調整可能なアイテムが現在選択されているとの判定に従って、
前記回転入力に基づいて、前記第2の調整可能なアイテムを調整し、
前記第2の調整可能なアイテムを調整している間に、前記1つ以上の触知出力生成器を介して、前記第1の振幅とは異なる第2の振幅を有する1つ以上の触知出力を含む触知出力の第2のシーケンスを生成する、
手段と、
を備える、電子デバイス。 - ディスプレイと、回転可能入力要素と、1つ以上の触知出力生成器とを有する電子デバイスにおいて、
前記ディスプレイ上に、ユーザインタフェースを表示している間に、前記回転可能入力要素を介して、回転入力を検出することと、
前記回転入力を検出している間に、前記1つ以上の触知出力生成器を介して、複数触知出力のタイプが前記ユーザインタフェースの修正に関連付けられている前記複数の触知出力を生成することであって、
前記回転入力の速度が第1の速度であるとの判定に従って、前記回転可能入力要素のそれぞれの回転量に対する第1の数の触知出力を生成し、
前記回転入力の前記速度が前記第1の速度とは異なる第2の速度であるとの判定に従って、前記回転可能入力要素の前記それぞれの回転量に対する第2の数の触知出力を生成する、
ことと、を含む、方法。 - 前記第2の速度が、前記第1の速度よりも大きく、前記回転可能入力要素の前記それぞれの回転量に対する触知出力の前記第2の数が、触知出力の前記第1の数よりも少ない、請求項73に記載の方法。
- 前記第2の速度が、前記第1の速度よりも大きく、前記第2の数の触知出力の振幅が、前記第1の数の触知出力の振幅よりも小さい、請求項73又は74に記載の方法。
- 前記回転入力を検出している間に、
前記回転入力の速度が、前記第1の速度よりも速く、かつ前記第2の速度より遅い第3の速度であるとの判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して前記第1の数の触知出力を生成する、請求項73から75のいずれか一項に記載の方法。 - 前記回転入力を検出している間に、
前記回転入力の前記速度が前記第1の速度であるとの前記判定に従って、前記複数の触知出力が、第1の振幅を有し、
前記回転入力の速度が、前記第1の速度よりも速く、かつ前記第2の速度より遅い第3の速度であるとの判定に従って、前記複数の触知出力が、前記第1の振幅を有し、
前記回転入力の前記速度が前記第1の速度及び前記第3の速度とは異なる前記第2の速度であるとの前記判定に従って、前記複数の触知出力が、前記第1の振幅とは異なる第2の振幅を有する、請求項73から76のいずれか一項に記載の方法。 - 前記回転入力を検出している間に、
前記回転入力の前記速度が前記第2の速度であるとの前記判定に従って、前記回転可能入力要素の前記それぞれの回転量に対する前記触知出力の数が、第3の数であり、前記第3の数が、最小数に対応し、
前記回転入力の速度が前記第2の速度よりも速い第4の速度であるとの判定に従って、触知出力の前記数が、前記第3の数に対応する、請求項73から77のいずれか一項に記載の方法。 - 前記回転入力を検出している間に、
前記回転入力の前記速度が前記第2の速度であるとの前記判定に従って、前記複数の触知出力が、第3の振幅を有し、前記第3の振幅が、最小振幅に対応し、
前記回転入力の速度が前記第2の速度より速い第4の速度であるとの判定に従って、前記複数の触知出力が、前記第3の振幅を有する、請求項73から78のいずれか一項に記載の方法。 - 前記複数の触知出力のうちの触知出力の数が、前記電子デバイスのサイズ特性に少なくとも部分的に基づく、請求項73から79のいずれか一項に記載の方法。
- 前記複数の触知出力の振幅が、前記電子デバイスのサイズ特性に少なくとも部分的に基づく、請求項73から80のいずれか一項に記載の方法。
- 前記回転入力を検出している間に、前記第2の速度が最大閾値速度に対応するとの判定に従って、前記第2の数の触知出力が、前記回転可能入力要素の前記それぞれの回転量に対して生成することができる最大数の触知出力に対応する、ことを含む、請求項73から81のいずれか一項に記載の方法。
- 前記ユーザインタフェースの前記修正が第1のタイプの修正であることに従って、前記生成された複数の触知出力が、第1のタイプであり、
前記ユーザインタフェースの前記修正が第2のタイプの修正であることに従って、前記生成された複数の触知出力が、前記第1のタイプとは異なる第2のタイプである、請求項73から82のいずれか一項に記載の方法。 - 前記回転入力を検出している間に、前記複数の触知出力に関連付けられた複数のオーディオ出力を生成することであって、
前記回転入力の前記速度が前記第1の速度であるとの前記判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して第1の数のオーディオ出力を生成し、
前記回転入力の前記速度が前記第2の速度であるとの前記判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して第2の数のオーディオ出力を生成すること、
を更に含む、請求項73から83のいずれか一項に記載の方法。 - 前記回転入力を検出している間に、前記複数の触知出力に関連付けられた複数のオーディオ出力を生成することであって、
前記回転入力の前記速度が前記第1の速度であるとの前記判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して第1の大きさで前記オーディオ出力を生成し、
前記回転入力の前記速度が前記第2の速度であるとの前記判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して前記第1の大きさとは異なる第2の大きさで前記オーディオ出力を生成すること、
を更に含む、請求項73から84のいずれか一項に記載の方法。 - 前記第2の速度が、前記第1の速度よりも大きく、前記回転可能入力要素の前記それぞれの回転量に対して、オーディオ出力の前記第2の数がオーディオ出力の前記第1の数よりも少ない、請求項84又は85に記載の方法。
- 前記第2の数のオーディオ出力と前記第1の数のオーディオ出力との間の数の差が、前記第2の数の触知出力と前記第1の数の触知出力との間の数の差とは異なる、請求項86に記載の方法。
- 前記回転入力を検出している間に、
前記回転入力の前記速度が初期速度であるとの判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して初期数の触知出力及び初期数のオーディオ出力を生成し、
前記回転入力の前記速度が閾値速度であるとの判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して、触知出力の閾値数は触知出力の前記初期数とは異なる、前記閾値数の触知出力及び前記初期数のオーディオ出力を生成する、請求項84から87のいずれか一項に記載の方法。 - 前記回転入力を検出している間に、
前記回転入力の前記速度が初期速度であるとの判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して初期振幅を有する前記複数の触知出力及び初期の大きさを有する前記複数のオーディオ出力を生成し、
前記回転入力の前記速度が閾値速度であるとの判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して、閾値振幅であって前記初期振幅とは異なる閾値振幅を有する前記複数の触知出力及び前記初期の大きさを有する前記複数のオーディオ出力を生成する、請求項84から88のいずれか一項に記載の方法。 - 前記ユーザインタフェースを第1の方向にナビゲートすることに対応する前記ユーザインタフェースの修正に従って、前記生成された複数の触知出力及び前記生成された複数のオーディオ出力は、第1のタイプであり、
前記ユーザインタフェースを第2の方向にナビゲートすることに対応する前記ユーザインタフェースの修正に従って、前記生成された複数の触知出力及び前記生成された複数のオーディオ出力は、前記第1のタイプとは異なる第2のタイプである、請求項84から89のいずれか一項に記載の方法。 - 前記オーディオ出力が、前記1つ以上の触知出力生成器を介して生成される、請求項84から90のいずれか一項に記載の方法。
- ディスプレイと、回転可能入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項73から91のいずれか一項に記載の方法を実行する命令を含む、コンピュータ可読記憶媒体。
- ディスプレイと、
回転可能入力要素と、
1つ以上の触知出力生成器と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムが、請求項73から91のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。 - ディスプレイと、
回転可能入力要素と、
1つ以上の触知出力生成器と、
請求項73から91のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。 - ディスプレイと、回転可能入力要素と、1つ以上の触知出力生成器とを有する電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記ディスプレイ上に、ユーザインタフェースを表示している間に、前記回転可能入力要素を介して、回転入力を検出し、
前記回転入力を検出している間に、前記1つ以上の触知出力生成器を介して、複数の触知出力であって、前記触知出力のタイプが、前記ユーザインタフェースの修正に関連付けられており、
前記回転入力の速度が第1の速度であるとの判定に従って、前記回転可能入力要素のそれぞれの回転量に対して第1の数の触知出力を生成し、
前記回転入力の前記速度が前記第1の速度とは異なる第2の速度であるとの判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して第2の数の触知出力を生成する、複数の触知出力を生成する、命令を含む、コンピュータ可読記憶媒体。 - ディスプレイと、
回転可能入力要素と、
1つ以上の触知出力生成器と、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、
前記ディスプレイ上に、ユーザインタフェースを表示している間に、前記回転可能入力要素を介して、回転入力を検出し、
前記回転入力を検出している間に、前記1つ以上の触知出力生成器を介して、複数の触知出力であって、前記触知出力のタイプが、前記ユーザインタフェースの修正に関連付けられており、
前記回転入力の速度が第1の速度であるとの判定に従って、前記回転可能入力要素のそれぞれの回転量に対して第1の数の触知出力を生成し、
前記回転入力の前記速度が前記第1の速度とは異なる第2の速度であるとの判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して第2の数の触知出力を生成する、
複数の触知出力を生成する、命令を含む、電子デバイス。 - ディスプレイと、
回転可能入力要素と、
1つ以上の触知出力生成器と、
前記ディスプレイ上に、ユーザインタフェースを表示している間に、前記回転可能入力要素を介して、回転入力を検出する手段と、
前記回転入力を検出している間に、前記1つ以上の触知出力生成器を介して、複数の触知出力であって、前記触知出力のタイプが、前記ユーザインタフェースの修正に関連付けられており、
前記回転入力の速度が第1の速度であるとの判定に従って、前記回転可能入力要素のそれぞれの回転量に対して第1の数の触知出力を生成し、
前記回転入力の前記速度が前記第1の速度とは異なる第2の速度であるとの判定に従って、前記回転可能入力要素の前記それぞれの回転量に対して第2の数の触知出力を生成する、
複数の触知出力を生成する手段と、
を備える、電子デバイス。
Applications Claiming Priority (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862729978P | 2018-09-11 | 2018-09-11 | |
US62/729,978 | 2018-09-11 | ||
DKPA201870632A DK179896B1 (en) | 2018-09-11 | 2018-09-27 | CONTENT-BASED TACTILE OUTPUTS |
DKPA201870631 | 2018-09-27 | ||
US16/144,950 | 2018-09-27 | ||
DKPA201870631A DK179888B1 (en) | 2018-09-11 | 2018-09-27 | CONTENT-BASED TACTICAL OUTPUTS |
DKPA201870632 | 2018-09-27 | ||
US16/144,950 US10712824B2 (en) | 2018-09-11 | 2018-09-27 | Content-based tactile outputs |
US16/147,413 US10928907B2 (en) | 2018-09-11 | 2018-09-28 | Content-based tactile outputs |
US16/147,413 | 2018-09-28 | ||
PCT/US2019/049237 WO2020055618A1 (en) | 2018-09-11 | 2019-08-30 | Content-based tactile outputs |
JP2021510409A JP7158566B2 (ja) | 2018-09-11 | 2019-08-30 | コンテンツベースの触知出力 |
JP2022126562A JP7373623B2 (ja) | 2018-09-11 | 2022-08-08 | コンテンツベースの触知出力 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022126562A Division JP7373623B2 (ja) | 2018-09-11 | 2022-08-08 | コンテンツベースの触知出力 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024020232A true JP2024020232A (ja) | 2024-02-14 |
Family
ID=69156095
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021510409A Active JP7158566B2 (ja) | 2018-09-11 | 2019-08-30 | コンテンツベースの触知出力 |
JP2022126562A Active JP7373623B2 (ja) | 2018-09-11 | 2022-08-08 | コンテンツベースの触知出力 |
JP2023182016A Pending JP2024020232A (ja) | 2018-09-11 | 2023-10-23 | コンテンツベースの触知出力 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021510409A Active JP7158566B2 (ja) | 2018-09-11 | 2019-08-30 | コンテンツベースの触知出力 |
JP2022126562A Active JP7373623B2 (ja) | 2018-09-11 | 2022-08-08 | コンテンツベースの触知出力 |
Country Status (8)
Country | Link |
---|---|
US (2) | US10712824B2 (ja) |
EP (2) | EP3623909A1 (ja) |
JP (3) | JP7158566B2 (ja) |
KR (4) | KR102482382B1 (ja) |
CN (1) | CN110888523A (ja) |
AU (4) | AU2019337519B2 (ja) |
DK (2) | DK179896B1 (ja) |
WO (1) | WO2020055618A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101390957B1 (ko) | 2009-09-04 | 2014-05-02 | 나이키 인터내셔널 엘티디. | 운동 활동 모니터링 및 트래킹 |
USD738889S1 (en) * | 2013-06-09 | 2015-09-15 | Apple Inc. | Display screen or portion thereof with animated graphical user interface |
KR20180128091A (ko) | 2013-09-03 | 2018-11-30 | 애플 인크. | 자기 특성을 갖는 사용자 인터페이스 객체를 조작하는 사용자 인터페이스 |
US10545657B2 (en) | 2013-09-03 | 2020-01-28 | Apple Inc. | User interface for manipulating user interface objects |
US11068128B2 (en) | 2013-09-03 | 2021-07-20 | Apple Inc. | User interface object manipulations in a user interface |
WO2015200889A1 (en) | 2014-06-27 | 2015-12-30 | Apple Inc. | Electronic device with rotatable input mechanism for navigating calendar application |
CN115756154A (zh) | 2014-09-02 | 2023-03-07 | 苹果公司 | 用于可变触觉输出的语义框架 |
TWI582641B (zh) | 2014-09-02 | 2017-05-11 | 蘋果公司 | 按鈕功能性 |
WO2016036509A1 (en) | 2014-09-02 | 2016-03-10 | Apple Inc. | Electronic mail user interface |
CN113824998A (zh) | 2014-09-02 | 2021-12-21 | 苹果公司 | 音乐用户界面 |
US20160062571A1 (en) | 2014-09-02 | 2016-03-03 | Apple Inc. | Reduced size user interface |
US10365807B2 (en) | 2015-03-02 | 2019-07-30 | Apple Inc. | Control of system zoom magnification using a rotatable input mechanism |
DK179823B1 (en) | 2016-06-12 | 2019-07-12 | Apple Inc. | DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK |
DK201670720A1 (en) | 2016-09-06 | 2018-03-26 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs |
DK179896B1 (en) | 2018-09-11 | 2019-08-30 | Apple Inc. | CONTENT-BASED TACTILE OUTPUTS |
US11435830B2 (en) | 2018-09-11 | 2022-09-06 | Apple Inc. | Content-based tactile outputs |
US10996761B2 (en) | 2019-06-01 | 2021-05-04 | Apple Inc. | User interfaces for non-visual output of time |
EP4028867A4 (en) * | 2019-09-10 | 2023-05-03 | Microsoft Technology Licensing, LLC | DYNAMIC PERCEPTIONAL FEEDBACK FOR A ROTARY CONTROL COMPONENT |
Family Cites Families (759)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US228700A (en) | 1880-06-08 | Curbing and guttering for sidewalks | ||
US48264A (en) | 1865-06-20 | Improvement in shutter-hinges | ||
US38590A (en) | 1863-05-19 | Improved machine for boring and mortising blind-stiles | ||
US240788A (en) | 1881-04-26 | Thill-coupling | ||
US367749A (en) | 1887-08-02 | Lauren m | ||
US241839A (en) | 1881-05-24 | Joseph j | ||
US228758A (en) | 1880-06-15 | Driving-gear for sieves | ||
US228737A (en) | 1880-06-15 | Well-drilling machine | ||
US381313A (en) | 1888-04-17 | Wind-engine | ||
US586862A (en) | 1897-07-20 | Wire-stretching and staple-pulling device | ||
US638251A (en) | 1899-03-06 | 1899-12-05 | Arthur Kleinfeldt | Pressure-regulator. |
US840862A (en) | 1906-08-08 | 1907-01-08 | Erik John Nelson | Trench-shovel. |
US3859005A (en) | 1973-08-13 | 1975-01-07 | Albert L Huebner | Erosion reduction in wet turbines |
US4185283A (en) | 1978-01-09 | 1980-01-22 | Clark Lloyd D | Multiple character word indication system employing sequential sensible indicia |
JPS54135573A (en) | 1978-03-13 | 1979-10-20 | Seiko Epson Corp | Time correction system |
JPS5580084A (en) | 1978-12-12 | 1980-06-16 | Seiko Instr & Electronics Ltd | Electronic wrist watch with computer |
US4444515A (en) | 1981-05-11 | 1984-04-24 | Clark Lloyd D | Earring watch |
US4395134A (en) | 1982-02-17 | 1983-07-26 | Luce Nunzio A | Joystick switch for timepieces |
GB2166570B (en) | 1984-09-26 | 1987-11-18 | Citizen Watch Co Ltd | Electronic timepiece with a chronograph system |
US4826405A (en) | 1985-10-15 | 1989-05-02 | Aeroquip Corporation | Fan blade fabrication system |
US5204600A (en) | 1991-02-06 | 1993-04-20 | Hewlett-Packard Company | Mechanical detent simulating system |
US5088070A (en) | 1991-05-06 | 1992-02-11 | Timex Corporation | Selecting apparatus for a multimode electronic wrist instrument |
US5889670A (en) | 1991-10-24 | 1999-03-30 | Immersion Corporation | Method and apparatus for tactilely responsive user interface |
US5220260A (en) | 1991-10-24 | 1993-06-15 | Lex Computer And Management Corporation | Actuator having electronically controllable tactile responsiveness |
WO1993014454A1 (en) | 1992-01-10 | 1993-07-22 | Foster-Miller, Inc. | A sensory integrated data interface |
CH684618B5 (fr) | 1992-06-18 | 1995-05-15 | Tiffany & Co | Pièce d'horlogerie à affichage simultané de l'heure pour au moins deux fuseaux horaires. |
CH684143B5 (fr) | 1992-10-08 | 1995-01-31 | Ebauchesfabrik Eta Ag | Pièce d'horlogerie apte à recevoir des messages radiodiffusés affichés par ses aiguilles. |
US5313229A (en) | 1993-02-05 | 1994-05-17 | Gilligan Federico G | Mouse and method for concurrent cursor position and scrolling control |
JPH06348408A (ja) | 1993-06-02 | 1994-12-22 | Nec Eng Ltd | マウス |
US5739775A (en) | 1993-07-22 | 1998-04-14 | Bourns, Inc. | Digital input and control device |
US5519393A (en) | 1993-07-22 | 1996-05-21 | Bouens, Inc. | Absolute digital position encoder with multiple sensors per track |
JP3454482B2 (ja) | 1993-10-26 | 2003-10-06 | キヤノン株式会社 | 携帯用情報装置 |
JP2552810B2 (ja) | 1993-11-30 | 1996-11-13 | 財団法人国際メディア研究財団 | 方向スイッチ装置を使用したグラフィック表示装置 |
EP0660258B1 (en) | 1993-12-20 | 2000-03-08 | Seiko Epson Corporation | Electronic pointing device |
US5689628A (en) | 1994-04-14 | 1997-11-18 | Xerox Corporation | Coupling a display object to a viewpoint in a navigable workspace |
US5477508A (en) | 1994-05-31 | 1995-12-19 | Will; Craig A. | Control of digital watch using menu and thumbwheel |
US7489303B1 (en) | 2001-02-22 | 2009-02-10 | Pryor Timothy R | Reconfigurable instrument panels |
FR2724081A1 (fr) | 1994-08-23 | 1996-03-01 | Ebauchesfabrik Eta Ag | Telephone dont le numero d'appel est compose par une couronne du type horloger |
US5528260A (en) | 1994-12-22 | 1996-06-18 | Autodesk, Inc. | Method and apparatus for proportional auto-scrolling |
US5825353A (en) | 1995-04-18 | 1998-10-20 | Will; Craig Alexander | Control of miniature personal digital assistant using menu and thumbwheel |
GB2301002B (en) | 1995-05-19 | 2000-03-01 | Sony Uk Ltd | Audio mixing console |
KR100264312B1 (ko) | 1995-10-13 | 2000-08-16 | 디지래드 | 개선된 전하 수집능력을 갖는 반도체 방사선 검출기 |
KR100621811B1 (ko) | 1995-11-02 | 2006-12-22 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 손목-시계무선전화기 |
JP3280559B2 (ja) | 1996-02-20 | 2002-05-13 | シャープ株式会社 | ジョグダイアルの模擬入力装置 |
JP2000509534A (ja) | 1996-04-30 | 2000-07-25 | ソニー エレクトロニクス インク | コンピュータシステム内のプログラム、ファイル及びデータを組織化して実行するナビゲーションためのユーザインターフェース |
US6047301A (en) | 1996-05-24 | 2000-04-04 | International Business Machines Corporation | Wearable computer |
US6686911B1 (en) | 1996-11-26 | 2004-02-03 | Immersion Corporation | Control knob with control modes and force feedback |
US6128006A (en) | 1998-03-26 | 2000-10-03 | Immersion Corporation | Force feedback mouse wheel and other control wheels |
US6636197B1 (en) | 1996-11-26 | 2003-10-21 | Immersion Corporation | Haptic feedback effects for control, knobs and other interface devices |
JPH10163953A (ja) | 1996-11-29 | 1998-06-19 | Sony Corp | 情報入力装置およびカーソル移動装置、ならびに、これらを使用した携帯電話装置 |
US20010038391A1 (en) | 1997-01-28 | 2001-11-08 | Hideo Fukuchi | Information display apparatus |
JP2957507B2 (ja) | 1997-02-24 | 1999-10-04 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 小型情報処理機器 |
US5982710A (en) | 1997-03-14 | 1999-11-09 | Rawat; Prem P. | Method and apparatus for providing time using cartesian coordinates |
US5874961A (en) | 1997-03-19 | 1999-02-23 | International Business Machines Corporation | Scroll bar amplification apparatus and method |
JP4243344B2 (ja) | 1997-05-23 | 2009-03-25 | 株式会社Access | 移動通信機器 |
TW464829B (en) | 1997-07-31 | 2001-11-21 | Asulab Sa | Ballistic effect data selection method, intended to be implemented in electronic devices, in particular in electronic timepieces |
US6310648B1 (en) | 1997-09-12 | 2001-10-30 | Eastman Kodak Company | User interface for electronic image viewing apparatus |
DE19743551C1 (de) | 1997-10-01 | 1999-02-11 | Siemens Ag | Verfahren zum Einlesen eines Datenwertes |
JPH11110106A (ja) | 1997-10-02 | 1999-04-23 | Sharp Corp | メニュー操作装置 |
US6377821B2 (en) | 1997-10-09 | 2002-04-23 | Avaya Technology Corp. | Display-based interface for a communication device |
US6266098B1 (en) | 1997-10-22 | 2001-07-24 | Matsushita Electric Corporation Of America | Function presentation and selection using a rotatable function menu |
GB2330646B (en) | 1997-10-23 | 2002-04-24 | Nokia Mobile Phones Ltd | Input device |
US6157381A (en) | 1997-11-18 | 2000-12-05 | International Business Machines Corporation | Computer system, user interface component and method utilizing non-linear scroll bar |
JPH11187443A (ja) | 1997-12-25 | 1999-07-09 | Sony Corp | 携帯無線情報端末装置、画面操作方法、記録媒体およびマイクロコンピュータ装置 |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US7663607B2 (en) | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
US7844914B2 (en) | 2004-07-30 | 2010-11-30 | Apple Inc. | Activating virtual keys of a touch-screen virtual keyboard |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
KR100595917B1 (ko) | 1998-01-26 | 2006-07-05 | 웨인 웨스터만 | 수동 입력 통합 방법 및 장치 |
US20060033724A1 (en) | 2004-07-30 | 2006-02-16 | Apple Computer, Inc. | Virtual input device placement on a touch screen user interface |
US6424407B1 (en) | 1998-03-09 | 2002-07-23 | Otm Technologies Ltd. | Optical translation measurement |
US20060152480A1 (en) | 2005-01-13 | 2006-07-13 | Eaton Corporation | Handheld electronic device, user interface and method employing an input wheel disposed at about a 45 degree angle |
US7854684B1 (en) | 1998-06-24 | 2010-12-21 | Samsung Electronics Co., Ltd. | Wearable device |
US6396482B1 (en) | 1998-06-26 | 2002-05-28 | Research In Motion Limited | Hand-held electronic device with a keyboard optimized for use with the thumbs |
US6489950B1 (en) | 1998-06-26 | 2002-12-03 | Research In Motion Limited | Hand-held electronic device with auxiliary input device |
JP3725340B2 (ja) | 1998-07-31 | 2005-12-07 | パイオニア株式会社 | オーディオ信号処理装置 |
TW383883U (en) | 1998-08-18 | 2000-03-01 | Ind Tech Res Inst | Remote network browser with turning button selection element |
US6369794B1 (en) | 1998-09-09 | 2002-04-09 | Matsushita Electric Industrial Co., Ltd. | Operation indication outputting device for giving operation indication according to type of user's action |
US7256770B2 (en) | 1998-09-14 | 2007-08-14 | Microsoft Corporation | Method for displaying information responsive to sensing a physical presence proximate to a computer input device |
US6597374B1 (en) | 1998-11-12 | 2003-07-22 | Microsoft Corporation | Activity based remote control unit |
EP1052849B1 (en) | 1998-11-30 | 2011-06-15 | Sony Corporation | Set-top box and method for operating same |
JP2000227832A (ja) | 1998-12-04 | 2000-08-15 | Sony Corp | 情報処理装置及び方法、並びに媒体 |
JP3673425B2 (ja) | 1999-04-16 | 2005-07-20 | 松下電器産業株式会社 | プログラム選択実行装置,およびデータ選択実行装置 |
US7469381B2 (en) | 2007-01-07 | 2008-12-23 | Apple Inc. | List scrolling and document translation, scaling, and rotation on a touch-screen display |
US6492911B1 (en) | 1999-04-19 | 2002-12-10 | Netzer Motion Sensors Ltd. | Capacitive displacement encoder |
EP1052566A1 (en) | 1999-05-14 | 2000-11-15 | Alcatel | Graphical user interface |
GB2350523B (en) | 1999-05-26 | 2003-11-26 | Nokia Mobile Phones Ltd | Communication device |
US6203190B1 (en) | 1999-06-07 | 2001-03-20 | Timex Corporation | Crown switching mechanism |
US6339438B1 (en) | 1999-07-27 | 2002-01-15 | International Business Machines Corporation | Scroll bar with integrated advertisement |
CN1166153C (zh) | 1999-09-06 | 2004-09-08 | 西门子公司 | 用于电话的输入元件 |
US6658350B1 (en) | 1999-09-15 | 2003-12-02 | Audi Ag | Navigation device |
JP4171561B2 (ja) | 1999-09-28 | 2008-10-22 | 株式会社東海理化電機製作所 | ロータリーエンコーダ |
US6865718B2 (en) | 1999-09-29 | 2005-03-08 | Microsoft Corp. | Accelerated scrolling |
US7028264B2 (en) | 1999-10-29 | 2006-04-11 | Surfcast, Inc. | System and method for simultaneous display of multiple information sources |
SG93287A1 (en) | 1999-12-15 | 2002-12-17 | Ebauchesfabrik Eta Ag | Means for recharging a watch accumulator |
US6661438B1 (en) | 2000-01-18 | 2003-12-09 | Seiko Epson Corporation | Display apparatus and portable information processing apparatus |
US6809724B1 (en) | 2000-01-18 | 2004-10-26 | Seiko Epson Corporation | Display apparatus and portable information processing apparatus |
US6305234B1 (en) | 2000-01-27 | 2001-10-23 | Edward L. Thies | Absolute encoder |
US7965276B1 (en) | 2000-03-09 | 2011-06-21 | Immersion Corporation | Force output adjustment in force feedback devices based on user contact |
JP2001268613A (ja) | 2000-03-15 | 2001-09-28 | Sony Corp | 携帯情報端末 |
US6636246B1 (en) | 2000-03-17 | 2003-10-21 | Vizible.Com Inc. | Three dimensional spatial user interface |
EP1266279B1 (en) | 2000-03-17 | 2006-05-31 | OpenTV, Inc. | Method and system for choosing an item out of a list appearing on a screen |
AU4595501A (en) | 2000-03-22 | 2001-10-03 | Sony Electronics Inc. | Data entry user interface |
US20010035884A1 (en) | 2000-04-27 | 2001-11-01 | Dan Kikinis | Method and system for inputting time in a video environment using sliders |
WO2001086357A1 (en) | 2000-05-05 | 2001-11-15 | Golden State International | Nested menu digital watch |
JP2001350587A (ja) | 2000-06-06 | 2001-12-21 | Sony Corp | 情報処理装置、情報入力装置および情報処理本体装置 |
US6525997B1 (en) | 2000-06-30 | 2003-02-25 | International Business Machines Corporation | Efficient use of display real estate in a wrist watch display |
US6477117B1 (en) | 2000-06-30 | 2002-11-05 | International Business Machines Corporation | Alarm interface for a smart watch |
US7081905B1 (en) | 2000-06-30 | 2006-07-25 | International Business Machines Corporation | Method and apparatus for dynamically controlling scroller speed employed for a user interface of a wearable appliance |
US6556222B1 (en) | 2000-06-30 | 2003-04-29 | International Business Machines Corporation | Bezel based input mechanism and user interface for a smart watch |
US6720860B1 (en) | 2000-06-30 | 2004-04-13 | International Business Machines Corporation | Password protection using spatial and temporal variation in a high-resolution touch sensitive display |
GB2364226A (en) | 2000-06-30 | 2002-01-16 | Nokia Corp | Method of selecting an object by controlling an on screen pointer |
US7477890B1 (en) | 2000-06-30 | 2009-01-13 | International Business Machines Corporation | Demand pull—multichannel asynchronous data and application synchronization for pervasive devices |
JP3785902B2 (ja) | 2000-07-11 | 2006-06-14 | インターナショナル・ビジネス・マシーンズ・コーポレーション | デバイス、デバイスの制御方法、ポインタの移動方法 |
US20060064716A1 (en) | 2000-07-24 | 2006-03-23 | Vivcom, Inc. | Techniques for navigating multiple video streams |
JP2002062983A (ja) | 2000-08-21 | 2002-02-28 | Hitachi Ltd | ポインティングデバイス |
TW466415B (en) | 2000-08-28 | 2001-12-01 | Compal Electronics Inc | Hand-held device with zooming display function |
EP1185090A1 (en) | 2000-09-04 | 2002-03-06 | Sony Service Centre (Europe) N.V. | Multimedia Home Platforme television device and Graphical User Interface application |
US6788288B2 (en) | 2000-09-11 | 2004-09-07 | Matsushita Electric Industrial Co., Ltd. | Coordinate input device and portable information apparatus equipped with coordinate input device |
US7688306B2 (en) | 2000-10-02 | 2010-03-30 | Apple Inc. | Methods and apparatuses for operating a portable device based on an accelerometer |
US7218226B2 (en) | 2004-03-01 | 2007-05-15 | Apple Inc. | Acceleration-based theft detection system for portable electronic devices |
CA2361301C (en) | 2000-11-07 | 2006-06-27 | Research In Motion Limited | Apparatus and method for an accelerated thumbwheel on a communication device |
JP2002175139A (ja) | 2000-12-07 | 2002-06-21 | Sony Corp | 情報処理装置、メニュー表示方法及びプログラム格納媒体 |
US7002558B2 (en) | 2000-12-21 | 2006-02-21 | Microsoft Corporation | Mode hinting and switching |
US6781599B2 (en) | 2001-01-04 | 2004-08-24 | At&T | System and method for visualizing massive multi-digraphs |
US6774890B2 (en) | 2001-01-09 | 2004-08-10 | Tektronix, Inc. | Touch controlled zoom and pan of graphic displays |
US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
CA2332475C (en) | 2001-01-29 | 2006-08-01 | Vtech Communications, Ltd. | Two-axis ball-based cursor control with tactile feedback |
US6925611B2 (en) | 2001-01-31 | 2005-08-02 | Microsoft Corporation | Navigational interface for mobile and wearable computers |
US20020101457A1 (en) | 2001-01-31 | 2002-08-01 | Microsoft Corporation | Bezel interface for small computing devices |
US6967642B2 (en) | 2001-01-31 | 2005-11-22 | Microsoft Corporation | Input device with pattern and tactile feedback for computer input and control |
KR100372092B1 (ko) | 2001-02-06 | 2003-02-14 | 주식회사 우리기술 | 바탕화면 동영상 매체재생기 및 이를 이용한 바탕화면의동영상 처리방법과 상기 매체재생기 또는 방법을실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수있는 기록매체 |
US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
US6686904B1 (en) | 2001-03-30 | 2004-02-03 | Microsoft Corporation | Wheel reporting method for a personal computer keyboard interface |
US7071919B2 (en) | 2001-02-26 | 2006-07-04 | Microsoft Corporation | Positional scrolling |
US6738045B2 (en) | 2001-02-26 | 2004-05-18 | Microsoft Corporation | Method and system for accelerated data navigation |
JP2002259036A (ja) | 2001-02-28 | 2002-09-13 | Sony Corp | 情報処理装置及び情報処理方法、記録媒体並びにプログラム |
JP3762243B2 (ja) | 2001-03-26 | 2006-04-05 | 陣山 俊一 | 情報処理方法、情報処理プログラム並びに携帯情報端末装置 |
JP2002287868A (ja) | 2001-03-27 | 2002-10-04 | Sony Corp | 情報処理装置及びその表示制御方法、プログラム並びに提供媒体 |
US7079110B2 (en) | 2001-04-30 | 2006-07-18 | Microsoft Corporation | Input device including a wheel assembly for scrolling an image in multiple directions |
US6700564B2 (en) | 2001-04-30 | 2004-03-02 | Microsoft Corporation | Input device including a wheel assembly for scrolling an image in multiple directions |
US20030098891A1 (en) | 2001-04-30 | 2003-05-29 | International Business Machines Corporation | System and method for multifunction menu objects |
US20020171689A1 (en) | 2001-05-15 | 2002-11-21 | International Business Machines Corporation | Method and system for providing a pre-selection indicator for a graphical user interface (GUI) widget |
JP3820548B2 (ja) | 2001-06-01 | 2006-09-13 | ソニー株式会社 | 情報入力装置とそれを用いた電子機器 |
US7421318B2 (en) | 2001-08-02 | 2008-09-02 | Symbol Technologies, Inc. | Mobile terminal with ergonomic housing |
US7058904B1 (en) | 2001-08-27 | 2006-06-06 | Akceil Inc. | Operating method for miniature computing devices |
US7075513B2 (en) | 2001-09-04 | 2006-07-11 | Nokia Corporation | Zooming and panning content on a display screen |
US6842169B2 (en) | 2001-10-19 | 2005-01-11 | Research In Motion Limited | Hand-held electronic device with multiple input mode thumbwheel |
US7345671B2 (en) | 2001-10-22 | 2008-03-18 | Apple Inc. | Method and apparatus for use of rotational user inputs |
US7312785B2 (en) | 2001-10-22 | 2007-12-25 | Apple Inc. | Method and apparatus for accelerated scrolling |
US20070085841A1 (en) | 2001-10-22 | 2007-04-19 | Apple Computer, Inc. | Method and apparatus for accelerated scrolling |
US7046230B2 (en) | 2001-10-22 | 2006-05-16 | Apple Computer, Inc. | Touch pad handheld device |
GB2382292A (en) | 2001-11-17 | 2003-05-21 | Oliver Wallington | Digital display with scrolling means |
US7091964B2 (en) | 2001-11-30 | 2006-08-15 | Palm, Inc. | Electronic device with bezel feature for receiving input |
JP4058938B2 (ja) | 2001-12-03 | 2008-03-12 | 日産自動車株式会社 | 回転式入力装置 |
TWI262365B (en) | 2001-12-27 | 2006-09-21 | Asulab Sa | Electronic watch and manual control device for executing functions thereof |
TWI258647B (en) | 2001-12-27 | 2006-07-21 | Asulab Sa | Control method for executing functions in a diary watch |
US7620908B2 (en) | 2001-12-28 | 2009-11-17 | Sap Ag | Managing a user interface |
JP2003296015A (ja) | 2002-01-30 | 2003-10-17 | Casio Comput Co Ltd | 電子機器 |
US6977868B2 (en) | 2002-02-14 | 2005-12-20 | Fossil, Inc | Method and apparatus for synchronizing data between a watch and external digital device |
JP2003248544A (ja) | 2002-02-25 | 2003-09-05 | Sony Corp | グラフィカルユーザインターフェース、情報処理装置の操作方法、情報処理装置、並びにプログラム |
CN1639766A (zh) | 2002-02-26 | 2005-07-13 | 西奎公司 | 具有精调和粗调输入分辨率的触摸板 |
CN100359441C (zh) | 2002-03-05 | 2008-01-02 | 索尼爱立信移动通信日本株式会社 | 图像处理装置以及图像处理方法 |
CA2378117C (en) | 2002-03-21 | 2012-10-09 | Corel Corporation | System and method for displaying window contents |
JP3969176B2 (ja) | 2002-05-10 | 2007-09-05 | 日本電気株式会社 | ブラウザシステム及びその制御方法 |
TWI238348B (en) | 2002-05-13 | 2005-08-21 | Kyocera Corp | Portable information terminal, display control device, display control method, and recording media |
JP3761165B2 (ja) | 2002-05-13 | 2006-03-29 | 株式会社モバイルコンピューティングテクノロジーズ | 表示制御装置、携帯型情報端末装置、プログラム、及び表示制御方法 |
US6809275B1 (en) | 2002-05-13 | 2004-10-26 | Synaptics, Inc. | Rotary and push type input device |
CN1666169B (zh) | 2002-05-16 | 2010-05-05 | 索尼株式会社 | 输入方法和输入装置 |
US7168047B1 (en) | 2002-05-28 | 2007-01-23 | Apple Computer, Inc. | Mouse having a button-less panning and scrolling switch |
US8001488B1 (en) | 2002-05-31 | 2011-08-16 | Hewlett-Packard Development Company, L.P. | User interface dial with display |
JP2004021522A (ja) | 2002-06-14 | 2004-01-22 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US7042441B2 (en) | 2002-06-28 | 2006-05-09 | Microsoft Corporation | Input device including a scroll wheel assembly for manipulating an image in multiple directions |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
CH697272B1 (fr) | 2002-07-19 | 2008-07-31 | Asulab Sa | Pièce d'horlogerie électronique comportant un mode de jeu. |
US6763226B1 (en) | 2002-07-31 | 2004-07-13 | Computer Science Central, Inc. | Multifunctional world wide walkie talkie, a tri-frequency cellular-satellite wireless instant messenger computer and network for establishing global wireless volp quality of service (qos) communications, unified messaging, and video conferencing via the internet |
JP2004070654A (ja) | 2002-08-06 | 2004-03-04 | Matsushita Electric Ind Co Ltd | 携帯用電子機器 |
EP1388778B1 (en) | 2002-08-07 | 2008-03-12 | Seiko Epson Corporation | Portable information device |
US20040038667A1 (en) | 2002-08-22 | 2004-02-26 | Vance Charles Terry | Secure remote access in a wireless telecommunication system |
US20060224945A1 (en) | 2002-08-27 | 2006-10-05 | Khan Soudy M | Operating method for computing devices |
GB2392773A (en) | 2002-09-03 | 2004-03-10 | Kenneth John Bagnall | Digital turntable music deck |
JP2004184396A (ja) | 2002-10-09 | 2004-07-02 | Seiko Epson Corp | 表示装置、時計、表示装置の制御方法、制御プログラムおよび記録媒体 |
JP4173718B2 (ja) | 2002-10-31 | 2008-10-29 | 富士通株式会社 | ウィンドウ切替装置及びウィンドウ切替プログラム |
JP3949048B2 (ja) | 2002-11-18 | 2007-07-25 | 京セラ株式会社 | 重ね型携帯端末装置 |
CH706187B1 (fr) | 2002-11-22 | 2013-09-13 | Pierre Nobs | Montre à affichage numérique et procédé de gestion et de contrôle d'une telle montre. |
JP2004178584A (ja) | 2002-11-26 | 2004-06-24 | Asulab Sa | 機能、装置、又は所定の場所にアクセスするためのタッチスクリーンによるセキュリティコードの入力方法、及びその方法を実行するためのデバイス |
WO2004061592A2 (en) | 2002-12-16 | 2004-07-22 | Microsoft Corporation | Systems and methods for interfacing with computer devices |
US20040130581A1 (en) | 2003-01-03 | 2004-07-08 | Microsoft Corporation | Interaction model |
US7181701B2 (en) | 2003-01-03 | 2007-02-20 | Microsoft Corporation | Glanceable information system and method |
US7091951B2 (en) | 2003-02-05 | 2006-08-15 | Microsoft Corporation | High resolution scrolling apparatus |
JP2004295159A (ja) | 2003-02-07 | 2004-10-21 | Sony Corp | アイコン表示システム、アイコン表示方法、電子機器装置およびコンピュータプログラム |
JP2004259063A (ja) | 2003-02-26 | 2004-09-16 | Sony Corp | 3次元オブジェクトの表示処理装置、表示処理方法およびコンピュータプログラム |
CN1757011A (zh) | 2003-03-04 | 2006-04-05 | 索尼株式会社 | 输入设备、信息终端设备和模式切换方法 |
US7409644B2 (en) | 2003-05-16 | 2008-08-05 | Microsoft Corporation | File system shell |
WO2004097788A1 (en) | 2003-04-28 | 2004-11-11 | Immersion Corporation | Systems and methods for user interfaces designed for rotary input devices |
US7035170B2 (en) | 2003-04-29 | 2006-04-25 | International Business Machines Corporation | Device for displaying variable data for small screens |
US7233316B2 (en) | 2003-05-01 | 2007-06-19 | Thomson Licensing | Multimedia user interface |
US8065235B2 (en) | 2003-05-05 | 2011-11-22 | International Business Machines Corporation | Portable intelligent shopping device |
US7154479B2 (en) | 2003-05-29 | 2006-12-26 | Nokia Corporation | Precision resolution |
US8046705B2 (en) | 2003-05-08 | 2011-10-25 | Hillcrest Laboratories, Inc. | Systems and methods for resolution consistent semantic zooming |
JP2004342018A (ja) | 2003-05-19 | 2004-12-02 | Alps Electric Co Ltd | 力覚付与型入力装置 |
US7130664B1 (en) | 2003-06-12 | 2006-10-31 | Williams Daniel P | User-based signal indicator for telecommunications device and method of remotely notifying a user of an incoming communications signal incorporating the same |
JP2005004891A (ja) | 2003-06-12 | 2005-01-06 | Alpine Electronics Inc | 項目検索方法 |
US20040264301A1 (en) | 2003-06-30 | 2004-12-30 | Microsoft Corporation | Calendar user interface |
US20050215848A1 (en) | 2003-07-10 | 2005-09-29 | Lorenzato Raymond M | Method and apparatus for the temporal synchronization of meditation, prayer and physical movement |
US20050007884A1 (en) | 2003-07-10 | 2005-01-13 | Lorenzato Raymond M. | Method and apparatus for the temporal synchronization of meditation, prayer and physical movement |
WO2005008444A2 (en) | 2003-07-14 | 2005-01-27 | Matt Pallakoff | System and method for a portbale multimedia client |
US7499040B2 (en) | 2003-08-18 | 2009-03-03 | Apple Inc. | Movable touch pad with added functionality |
EP1510911A3 (en) | 2003-08-28 | 2006-03-22 | Sony Corporation | Information processing apparatus, information processing method, information processing program and storage medium containing information processing program |
US9024884B2 (en) | 2003-09-02 | 2015-05-05 | Apple Inc. | Touch-sensitive electronic apparatus for media applications, and methods therefor |
US20040145595A1 (en) | 2003-10-21 | 2004-07-29 | Sony Corporation/Sony Electronics Inc. | Method and apparatus for displaying an image on a display with a different aspect ration than the image |
EP1536315A1 (en) | 2003-11-27 | 2005-06-01 | Sony NetServices GmbH | Information retrieval device |
ATE546966T1 (de) | 2003-12-23 | 2012-03-15 | Kirusa Inc | Techniken zum kombinieren von voice- mit drahtlosen text-kurznachrichtendiensten |
JP4180524B2 (ja) | 2004-01-09 | 2008-11-12 | 株式会社コルグ | ソフトウエア・シンセサイザ及びこれに用いるコントローラ |
US8538386B2 (en) | 2004-03-01 | 2013-09-17 | Blackberry Limited | Communications system providing text-to-speech message conversion features using audio filter parameters and related methods |
US7333084B2 (en) | 2004-03-02 | 2008-02-19 | Research In Motion Limited | Thumbwheel and switch for a mobile electronic device and methods thereof |
US7317449B2 (en) | 2004-03-02 | 2008-01-08 | Microsoft Corporation | Key-based advanced navigation techniques |
US7262783B2 (en) | 2004-03-03 | 2007-08-28 | Virtual Iris Studios, Inc. | System for delivering and enabling interactivity with images |
US7510508B2 (en) | 2004-03-19 | 2009-03-31 | Devici, Inc. | User interface for a resistance training device and method of use |
WO2005109215A2 (en) | 2004-04-30 | 2005-11-17 | Hillcrest Laboratories, Inc. | Methods and devices for removing unintentional movement in free space pointing devices |
NZ589653A (en) | 2004-06-04 | 2012-10-26 | Keyless Systems Ltd | System to enhance data entry in mobile and fixed environment |
DE602004019703D1 (de) | 2004-06-04 | 2009-04-09 | Research In Motion Ltd | Rollrad mit zeicheneingabe |
US20070132733A1 (en) | 2004-06-08 | 2007-06-14 | Pranil Ram | Computer Apparatus with added functionality |
JP2006011690A (ja) | 2004-06-24 | 2006-01-12 | Matsushita Electric Ind Co Ltd | スクロール制御装置およびスクロール制御方法 |
US20060020904A1 (en) | 2004-07-09 | 2006-01-26 | Antti Aaltonen | Stripe user interface |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
US8232969B2 (en) | 2004-10-08 | 2012-07-31 | Immersion Corporation | Haptic feedback for button and scrolling action simulation in touch input devices |
US7778671B2 (en) | 2004-10-08 | 2010-08-17 | Nokia Corporation | Mobile communications terminal having an improved user interface and method therefor |
JP2006140990A (ja) | 2004-10-13 | 2006-06-01 | Olympus Corp | 画像表示装置、カメラ、画像表示装置およびカメラの表示方法 |
US20060085751A1 (en) | 2004-10-14 | 2006-04-20 | O'brien John P | Music user interface |
US20060090090A1 (en) | 2004-10-21 | 2006-04-27 | Chiy-Ferng Perng | Multifunction computer power button |
US20060092177A1 (en) | 2004-10-30 | 2006-05-04 | Gabor Blasko | Input method and apparatus using tactile guidance and bi-directional segmented stroke |
US7362312B2 (en) | 2004-11-01 | 2008-04-22 | Nokia Corporation | Mobile communication terminal and method |
JP4799421B2 (ja) | 2004-11-09 | 2011-10-26 | 孝彦 鈴木 | 触覚フィードバックコントローラ |
JP4839603B2 (ja) | 2004-11-22 | 2011-12-21 | ソニー株式会社 | 表示装置、表示方法、表示プログラム及び表示プログラムを記録した記録媒体 |
US7683889B2 (en) | 2004-12-21 | 2010-03-23 | Microsoft Corporation | Pressure based selection |
CN1797295A (zh) | 2004-12-25 | 2006-07-05 | 鸿富锦精密工业(深圳)有限公司 | 一种用于选择动态选项的图形用户界面 |
EP1677182B1 (en) | 2004-12-28 | 2014-04-23 | Sony Mobile Communications Japan, Inc. | Display method, portable terminal device, and display program |
JP4360496B2 (ja) | 2004-12-28 | 2009-11-11 | ソニー・エリクソン・モバイルコミュニケーションズ株式会社 | 表示方法、携帯端末装置及び表示プログラム |
US7450106B2 (en) | 2005-02-15 | 2008-11-11 | Research In Motion Limited | Handheld electronic device including a variable speed input apparatus and associated method |
US7519468B2 (en) | 2005-02-28 | 2009-04-14 | Research In Motion Limited | System and method for navigating a mobile device user interface with a directional sensing device |
DE102005011356B3 (de) | 2005-03-04 | 2006-11-02 | Hannes Perkunder | Eingabevorrichtung mit Drehregler und Eingabeverfahren sowie ein entsprechendes computerlesbares Speichermedium |
JP2006262034A (ja) | 2005-03-17 | 2006-09-28 | Hitachi Ltd | 放送受信端末および情報処理装置 |
GB0508057D0 (en) | 2005-04-21 | 2005-06-01 | Nokia Corp | Selection of a communication interface |
US20060248470A1 (en) | 2005-04-29 | 2006-11-02 | Microsoft Corporation | Variable-rate scrolling of media items |
TWI263972B (en) | 2005-05-25 | 2006-10-11 | Via Tech Inc | An apparatus for image scrolling detection and method of the same |
KR100708135B1 (ko) | 2005-05-25 | 2007-04-17 | 삼성전자주식회사 | 항목의 블록화를 이용한 스크롤 방법 및 장치 |
US7261481B2 (en) | 2005-06-17 | 2007-08-28 | Microsoft Corp. | UV feature illumination |
US7283122B2 (en) | 2005-06-28 | 2007-10-16 | Microsoft Corporation | Input device including a scroll wheel assembly |
KR20080019266A (ko) | 2005-07-08 | 2008-03-03 | 미쓰비시덴키 가부시키가이샤 | 터치패널 표시장치 및 휴대 기기 |
AU2005203074A1 (en) | 2005-07-14 | 2007-02-01 | Canon Information Systems Research Australia Pty Ltd | Image browser |
JP4501808B2 (ja) | 2005-08-02 | 2010-07-14 | 船井電機株式会社 | 再生装置 |
US20080123473A1 (en) | 2005-08-10 | 2008-05-29 | Seiko Epson Corporation | Electronic component and electronic device |
US7916157B1 (en) | 2005-08-16 | 2011-03-29 | Adobe Systems Incorporated | System and methods for selective zoom response behavior |
JP2007065995A (ja) | 2005-08-31 | 2007-03-15 | Toshiba Corp | 電子機器 |
KR100630154B1 (ko) | 2005-08-31 | 2006-10-02 | 삼성전자주식회사 | 지자기 센서를 이용하여 기울어짐 정도에 따라디스플레이를 제어하는 방법 및 그 이동 단말기 |
WO2007030449A2 (en) | 2005-09-07 | 2007-03-15 | Vubotics, Inc. | Method for controlling the rate of automated flow and navigation through information presented on a digitally controlled electronic device |
US20070063995A1 (en) | 2005-09-22 | 2007-03-22 | Bailey Eric A | Graphical user interface for use with a multi-media system |
US20070070090A1 (en) | 2005-09-23 | 2007-03-29 | Lisa Debettencourt | Vehicle navigation system |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
JP4536638B2 (ja) | 2005-10-28 | 2010-09-01 | 株式会社スクウェア・エニックス | 表示情報選択装置及び方法、プログラム並びに記録媒体 |
US8049715B2 (en) | 2005-11-30 | 2011-11-01 | Motorola Mobility, Inc. | Method and system for accessing data stored in an electronic device |
EP1958338A4 (en) | 2005-12-07 | 2011-01-05 | METHOD AND SYSTEM FOR USER INPUT SOLUTION FOR A LIMITED TELECOMMUNICATION DEVICE | |
JP2007170995A (ja) | 2005-12-22 | 2007-07-05 | Casio Comput Co Ltd | 電子機器および電子時計 |
US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
KR100678963B1 (ko) | 2005-12-28 | 2007-02-06 | 삼성전자주식회사 | 회전 가능한 입력 버튼을 구비한 휴대용 장치 및 그 조작방법 |
US20070168369A1 (en) | 2006-01-04 | 2007-07-19 | Companionlink Software, Inc. | User interface for a portable electronic device |
US7956846B2 (en) | 2006-01-05 | 2011-06-07 | Apple Inc. | Portable electronic device with content-dependent touch sensitivity |
US7596761B2 (en) | 2006-01-05 | 2009-09-29 | Apple Inc. | Application user interface with navigation bar showing current and prior application contexts |
WO2007142703A1 (en) | 2006-01-20 | 2007-12-13 | Conversational Computing Corporation | Wearable display interface client |
US20070176910A1 (en) | 2006-01-27 | 2007-08-02 | Mark Simek | Systems and methods for navigating a mobile communication device menu |
IL174107A0 (en) | 2006-02-01 | 2006-08-01 | Grois Dan | Method and system for advertising by means of a search engine over a data network |
US20070180379A1 (en) | 2006-02-02 | 2007-08-02 | Jerold Osato | Virtual desktop in handheld devices |
US7536654B2 (en) | 2006-02-06 | 2009-05-19 | Microsoft Corporation | Photo browse and zoom |
EP2755221B1 (en) | 2006-02-21 | 2017-03-08 | Hosiden Corporation | Switch |
US8381121B2 (en) | 2006-03-01 | 2013-02-19 | Microsoft Corporation | Controlling scroll speed to improve readability |
KR100754674B1 (ko) | 2006-03-10 | 2007-09-03 | 삼성전자주식회사 | 휴대 단말의 메뉴 선택 방법 및 장치 |
US20070237493A1 (en) | 2006-03-24 | 2007-10-11 | I-Sho Limited | Providing user access to digital content data |
JP5129478B2 (ja) | 2006-03-24 | 2013-01-30 | 株式会社デンソーアイティーラボラトリ | 画面表示装置 |
KR100755973B1 (ko) | 2006-03-31 | 2007-09-06 | 삼성전자주식회사 | 네 방향 키 이동이 가능한 휴대용 정보단말기의 휠 입력 장치 및 방법 |
EP2008193B1 (en) | 2006-04-05 | 2012-11-28 | Canyon IP Holdings LLC | Hosted voice recognition system for wireless devices |
US9395905B2 (en) | 2006-04-05 | 2016-07-19 | Synaptics Incorporated | Graphical scroll wheel |
JPWO2007116633A1 (ja) | 2006-04-07 | 2009-08-20 | パナソニック株式会社 | 入力装置及びそれを備えた携帯端末 |
US20070097151A1 (en) | 2006-04-07 | 2007-05-03 | Outland Research, Llc | Behind-screen zoom for handheld computing devices |
TWI315840B (en) | 2006-04-07 | 2009-10-11 | High Tech Comp Corp | Intuitive image navigator and electrical equipment with the same |
JP2007285748A (ja) | 2006-04-13 | 2007-11-01 | Seiko Epson Corp | 腕時計 |
US8077153B2 (en) | 2006-04-19 | 2011-12-13 | Microsoft Corporation | Precise selection techniques for multi-touch screens |
CN101063925B (zh) | 2006-04-24 | 2012-03-21 | 宏达国际电子股份有限公司 | 信息导读方法 |
US8279180B2 (en) | 2006-05-02 | 2012-10-02 | Apple Inc. | Multipoint touch surface controller |
US8174512B2 (en) | 2006-06-02 | 2012-05-08 | Immersion Corporation | Hybrid haptic device utilizing mechanical and programmable haptic effects |
US7856254B2 (en) | 2006-06-05 | 2010-12-21 | Lg Electronics Inc. | Mobile communication terminal and method of controlling the same |
US7720552B1 (en) | 2006-06-05 | 2010-05-18 | Rockwell Automation Technologies, Inc. | Virtual knob lever arm as analog control element |
US20070296711A1 (en) | 2006-06-13 | 2007-12-27 | Microsoft Corporation | Techniques for device display navigation |
US20080040692A1 (en) | 2006-06-29 | 2008-02-14 | Microsoft Corporation | Gesture input |
US8717302B1 (en) | 2006-06-30 | 2014-05-06 | Cypress Semiconductor Corporation | Apparatus and method for recognizing a gesture on a sensing device |
US20080001915A1 (en) | 2006-06-30 | 2008-01-03 | Nokia Corporation | Input device of mobile devices |
KR101144804B1 (ko) | 2006-07-03 | 2012-05-11 | 엘지전자 주식회사 | 로터리 키를 구비하는 이동통신 단말기 및 그 동작제어방법 |
KR101061819B1 (ko) | 2006-07-14 | 2011-09-05 | 엘지전자 주식회사 | 이동통신 단말기 및 입력부의 감도 조정방법 |
JP4488029B2 (ja) | 2006-08-17 | 2010-06-23 | セイコーエプソン株式会社 | 情報処理装置および制御方法 |
GB0616437D0 (en) | 2006-08-18 | 2006-09-27 | Trw Ltd | Methods of processing encoder signals |
US8686944B1 (en) | 2006-08-23 | 2014-04-01 | Logitech Europe S.A. | Software for input devices with application-specific scrolling and highlighted text searching |
WO2008025370A1 (en) | 2006-09-01 | 2008-03-06 | Nokia Corporation | Touchpad |
US8106856B2 (en) | 2006-09-06 | 2012-01-31 | Apple Inc. | Portable electronic device for photo management |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US20080066135A1 (en) | 2006-09-11 | 2008-03-13 | Apple Computer, Inc. | Search user interface for media device |
US8564543B2 (en) | 2006-09-11 | 2013-10-22 | Apple Inc. | Media player with imaged based browsing |
US8243017B2 (en) | 2006-09-11 | 2012-08-14 | Apple Inc. | Menu overlay including context dependent menu icon |
US8832575B2 (en) | 2006-09-26 | 2014-09-09 | Core Wireless Licensing S.A.R.L | Speed dependent displaying of information items in a graphical user interface |
JP2008097057A (ja) | 2006-10-05 | 2008-04-24 | Tokyo Institute Of Technology | 情報機器の入力装置 |
KR101122092B1 (ko) | 2006-11-28 | 2012-06-14 | 엘지전자 주식회사 | 롤-키(roll-key)를 구비한 이동통신 단말기 및 이를이용한 입력신호 처리 방법 |
US20080129520A1 (en) | 2006-12-01 | 2008-06-05 | Apple Computer, Inc. | Electronic device with enhanced audio feedback |
US7518959B2 (en) | 2006-12-01 | 2009-04-14 | Seiko Epson Corporation | Display device and display method |
JP2008139163A (ja) | 2006-12-01 | 2008-06-19 | Seiko Epson Corp | 表示装置および表示方法 |
US8006002B2 (en) | 2006-12-12 | 2011-08-23 | Apple Inc. | Methods and systems for automatic configuration of peripherals |
US8578292B2 (en) | 2006-12-14 | 2013-11-05 | Microsoft Corporation | Simultaneous document zoom and centering adjustment |
JP2008157974A (ja) | 2006-12-20 | 2008-07-10 | Canon Inc | 表示制御装置及び表示制御装置の制御方法 |
AU2006252191B2 (en) | 2006-12-21 | 2009-03-26 | Canon Kabushiki Kaisha | Scrolling Interface |
US20080150901A1 (en) | 2006-12-22 | 2008-06-26 | Robert Lowles | Integrated Liquid Crystal Display And Touchscreen For An Electronic Device |
KR101533465B1 (ko) | 2006-12-27 | 2015-07-02 | 임머숀 코퍼레이션 | 진동 촉각 피드백을 통한 가상 디텐트 |
US20080163119A1 (en) | 2006-12-28 | 2008-07-03 | Samsung Electronics Co., Ltd. | Method for providing menu and multimedia device using the same |
US7802201B2 (en) | 2006-12-29 | 2010-09-21 | Research In Motion Limited | System and method for panning and zooming an image on a display of a handheld electronic device |
US7924271B2 (en) | 2007-01-05 | 2011-04-12 | Apple Inc. | Detecting gestures on multi-event sensitive devices |
US7956847B2 (en) | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
US8689132B2 (en) | 2007-01-07 | 2014-04-01 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying electronic documents and lists |
AU2012200689B2 (en) | 2007-01-07 | 2015-06-18 | Apple Inc. | Scaling documents on a touch-screen display |
US20080168382A1 (en) | 2007-01-07 | 2008-07-10 | Louch John O | Dashboards, Widgets and Devices |
US8519964B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US7957762B2 (en) | 2007-01-07 | 2011-06-07 | Apple Inc. | Using ambient light sensor to augment proximity sensor output |
WO2008085742A2 (en) | 2007-01-07 | 2008-07-17 | Apple Inc. | Portable multifunction device, method and graphical user interface for interacting with user input elements in displayed content |
US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
KR100896055B1 (ko) | 2007-01-15 | 2009-05-07 | 엘지전자 주식회사 | 회전입력장치 구비 이동단말기 및 그 디스플레이 방법 |
CN101606124B (zh) | 2007-01-25 | 2013-02-27 | 夏普株式会社 | 多窗口管理装置及信息处理装置 |
KR20080073549A (ko) | 2007-02-06 | 2008-08-11 | 삼성전자주식회사 | 포토레지스트패턴의 형성방법 및 표시패널의 제조방법 |
KR101239797B1 (ko) | 2007-02-07 | 2013-03-06 | 엘지전자 주식회사 | 터치 스크린을 구비한 전자 기기 및 이를 이용한 아날로그시계 제공 방법 |
US20080204478A1 (en) | 2007-02-23 | 2008-08-28 | Inventec Corporation | Method of enlarging display content of a portable electronic apparatus |
JP4710850B2 (ja) | 2007-02-28 | 2011-06-29 | ソニー株式会社 | 電子機器 |
WO2008106777A1 (en) | 2007-03-02 | 2008-09-12 | Storefront.Com Online Inc. | Photo kiosk controlled by rotational hand movement |
US8140996B2 (en) | 2007-04-17 | 2012-03-20 | QNX Software Systems Limtied | System for endless loop scrolling and display |
EP1995752B1 (en) | 2007-04-20 | 2013-10-16 | Harman Becker Automotive Systems GmbH | Multifunctional rotary switch |
TWI418200B (zh) | 2007-04-20 | 2013-12-01 | Lg Electronics Inc | 行動式終端機與其螢幕顯示方法 |
TW200734916A (en) | 2007-05-03 | 2007-09-16 | Ying-Chu Lee | Method of using mouse wheel to operate picture |
US7970438B2 (en) | 2007-06-19 | 2011-06-28 | Lg Electronics Inc. | Mobile terminal and keypad control method |
US9933937B2 (en) | 2007-06-20 | 2018-04-03 | Apple Inc. | Portable multifunction device, method, and graphical user interface for playing online videos |
JP2009009334A (ja) | 2007-06-27 | 2009-01-15 | Ricoh Co Ltd | 画像処理装置、画像処理方法及び画像処理プログラム |
US8462112B2 (en) | 2007-07-12 | 2013-06-11 | Apple Inc. | Responsiveness control system for pointing device movement with respect to a graphical user interface |
CN101101595A (zh) | 2007-07-25 | 2008-01-09 | 宇龙计算机通信科技(深圳)有限公司 | 幻灯浏览图片的方法及应用该方法的移动设备 |
US20090046110A1 (en) | 2007-08-16 | 2009-02-19 | Motorola, Inc. | Method and apparatus for manipulating a displayed image |
US9086791B2 (en) | 2007-08-22 | 2015-07-21 | The Trustees Of Columbia University In The City Of New York | Methods, systems, and media for providing content-aware scrolling |
US7778118B2 (en) | 2007-08-28 | 2010-08-17 | Garmin Ltd. | Watch device having touch-bezel user interface |
US8683378B2 (en) | 2007-09-04 | 2014-03-25 | Apple Inc. | Scrolling techniques for user interfaces |
US9569088B2 (en) | 2007-09-04 | 2017-02-14 | Lg Electronics Inc. | Scrolling method of mobile terminal |
US8201102B2 (en) | 2007-09-04 | 2012-06-12 | Apple Inc. | Opaque views for graphical user interfaces |
US8264463B2 (en) | 2007-09-21 | 2012-09-11 | Sony Corporation | Input device and electronic apparatus |
KR101443617B1 (ko) | 2007-10-10 | 2014-09-23 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어 방법 |
CN101821702A (zh) | 2007-10-12 | 2010-09-01 | 法国电信公司 | 用于显示多个多媒体文档的装置 |
WO2009051665A1 (en) | 2007-10-16 | 2009-04-23 | Hillcrest Laboratories, Inc. | Fast and smooth scrolling of user interfaces operating on thin clients |
JP4758408B2 (ja) | 2007-10-18 | 2011-08-31 | シャープ株式会社 | 選択候補表示方法、選択候補表示装置および入出力装置 |
US20090119678A1 (en) | 2007-11-02 | 2009-05-07 | Jimmy Shih | Systems and methods for supporting downloadable applications on a portable client device |
BRPI0804769A2 (pt) | 2007-11-05 | 2009-06-13 | Lg Electronics Inc | terminal móvel |
BRPI0804270A2 (pt) | 2007-11-05 | 2009-07-14 | Lg Electronics Inc | terminal móvel |
KR101427260B1 (ko) | 2007-11-05 | 2014-08-06 | 엘지전자 주식회사 | 밴드형 휴대 단말기 |
US20090125824A1 (en) | 2007-11-12 | 2009-05-14 | Microsoft Corporation | User interface with physics engine for natural gestural control |
JP4462338B2 (ja) | 2007-11-27 | 2010-05-12 | セイコーエプソン株式会社 | 電子時計、電子時計の時刻修正方法、電子時計の制御プログラム |
US8745513B2 (en) | 2007-11-29 | 2014-06-03 | Sony Corporation | Method and apparatus for use in accessing content |
EP2227734A4 (en) | 2007-12-05 | 2013-07-17 | Eui Jin Oh | DATA ENTRY DEVICE |
US20090152452A1 (en) | 2007-12-18 | 2009-06-18 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Reflective multi-turn encoder |
EP2072008A3 (de) | 2007-12-19 | 2013-04-17 | Beppo Hilfiker | Vorrichtung zur Bedienung eines elektronischen Multifunktionsgerätes |
JP2009163369A (ja) | 2007-12-28 | 2009-07-23 | Canon Inc | 画像処理装置及び画像処理装置の制御装置 |
US8138896B2 (en) | 2007-12-31 | 2012-03-20 | Apple Inc. | Tactile feedback in an electronic device |
US7946758B2 (en) | 2008-01-31 | 2011-05-24 | WIMM Labs | Modular movement that is fully functional standalone and interchangeable in other portable devices |
WO2009095954A2 (ja) | 2008-01-31 | 2009-08-06 | Appside Co., Ltd. | データ入力装置、データ入力方法ならびにデータ入力プログラムおよびこれを記録した記録媒体 |
US8677285B2 (en) | 2008-02-01 | 2014-03-18 | Wimm Labs, Inc. | User interface of a small touch sensitive display for an electronic data and communication device |
US8151215B2 (en) | 2008-02-07 | 2012-04-03 | Sony Corporation | Favorite GUI for TV |
US8954887B1 (en) | 2008-02-08 | 2015-02-10 | Google Inc. | Long press interface interactions |
US9513704B2 (en) | 2008-03-12 | 2016-12-06 | Immersion Corporation | Haptically enabled user interface |
US9076144B2 (en) | 2008-03-18 | 2015-07-07 | At&T Intellectual Property I, Lp | Method and system for providing set-top box remote access functions in a browser extension based on advertising metadata |
JP5356713B2 (ja) | 2008-03-28 | 2013-12-04 | 京セラ株式会社 | 携帯電話機 |
US8418076B2 (en) | 2008-05-15 | 2013-04-09 | Microsoft Corporation | Managing inputs from a plurality of user input device actuators |
US20090289905A1 (en) | 2008-05-22 | 2009-11-26 | Ktf Technologies, Inc. | Touch input recognition methods and apparatuses |
KR101456001B1 (ko) | 2008-05-23 | 2014-11-03 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
US8266550B1 (en) | 2008-05-28 | 2012-09-11 | Google Inc. | Parallax panning of mobile device desktop |
JP5465844B2 (ja) | 2008-06-06 | 2014-04-09 | 株式会社Nttドコモ | 選択項目表示システム、選択項目表示方法 |
WO2009154438A1 (en) | 2008-06-16 | 2009-12-23 | Optelec Development B.V. | Method and apparatus for automatically magnifying a text based image of an object |
JP2011018085A (ja) | 2008-06-19 | 2011-01-27 | Panasonic Corp | 情報処理装置 |
US8229410B2 (en) | 2008-06-30 | 2012-07-24 | Qualcomm Incorporated | Methods for supporting multitasking in a mobile device |
KR101512041B1 (ko) | 2008-07-01 | 2015-04-14 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어방법 |
KR101517967B1 (ko) | 2008-07-07 | 2015-05-06 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어방법 |
US20100214243A1 (en) | 2008-07-15 | 2010-08-26 | Immersion Corporation | Systems and Methods For Interpreting Physical Interactions With A Graphical User Interface |
KR101546774B1 (ko) | 2008-07-29 | 2015-08-24 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작제어 방법 |
GB2462434B (en) | 2008-08-05 | 2013-02-06 | Cursor Controls Ltd | Pointing Device |
US20100058240A1 (en) | 2008-08-26 | 2010-03-04 | Apple Inc. | Dynamic Control of List Navigation Based on List Item Properties |
US8082518B2 (en) | 2008-08-29 | 2011-12-20 | Microsoft Corporation | Scrollable area multi-scale viewing |
US8201100B2 (en) | 2008-09-04 | 2012-06-12 | VIZIO Inc. | Metadata driven control of navigational speed through a user interface |
US8191011B2 (en) | 2008-09-18 | 2012-05-29 | Microsoft Corporation | Motion activated content control for media system |
US9207894B2 (en) | 2008-09-19 | 2015-12-08 | Microsoft Technology Licensing, Llc | Print preview with page numbering for multiple pages per sheet |
US8977567B2 (en) | 2008-09-22 | 2015-03-10 | Visa International Service Association | Recordation of electronic payment transaction information |
US20100073303A1 (en) | 2008-09-24 | 2010-03-25 | Compal Electronics, Inc. | Method of operating a user interface |
US8754910B2 (en) | 2008-10-01 | 2014-06-17 | Logitech Europe S.A. | Mouse having pan, zoom, and scroll controls |
RU2509342C2 (ru) | 2008-10-06 | 2014-03-10 | Мартин Пойнтинг Девайсес | Колесо прокрутки |
US9395867B2 (en) | 2008-10-08 | 2016-07-19 | Blackberry Limited | Method and system for displaying an image on an electronic device |
KR101555055B1 (ko) | 2008-10-10 | 2015-09-22 | 엘지전자 주식회사 | 이동단말기 및 그 디스플레이방법 |
US20100113101A1 (en) | 2008-10-31 | 2010-05-06 | Kabushiki Kaisha Toshiba | Mobile terminal |
US20100110044A1 (en) | 2008-11-06 | 2010-05-06 | Sony Ericsson Mobile Communications Ab | Jog dial actuating device |
DE102008056974A1 (de) | 2008-11-13 | 2010-05-20 | Bayerische Motoren Werke Aktiengesellschaft | Kraftfahrzeugbediensystem |
US20100128570A1 (en) | 2008-11-24 | 2010-05-27 | Smith Christopher E | Wristwatch interface system |
US8775971B2 (en) | 2008-12-05 | 2014-07-08 | Microsoft Corporation | Touch display scroll control |
US8982105B2 (en) | 2008-12-09 | 2015-03-17 | Sony Corporation | Ergonomic user interfaces and electronic devices incorporating same |
KR101114603B1 (ko) | 2008-12-12 | 2012-03-05 | 삼성전자주식회사 | 휴대용 단말기의 햅틱 장치 |
TWI381305B (zh) | 2008-12-25 | 2013-01-01 | Compal Electronics Inc | 使用者介面的顯示與操作方法以及電子裝置 |
US8040331B2 (en) | 2008-12-26 | 2011-10-18 | Microsoft Corporation | Dual-mode rotatable input device |
KR101650371B1 (ko) | 2008-12-30 | 2016-08-24 | 삼성전자주식회사 | 중력에 의해 이동되는 감각적 효과를 나타내는 포인터를 이용한 gui 제공방법 및 이를 적용한 전자장치 |
US8456420B2 (en) | 2008-12-31 | 2013-06-04 | Intel Corporation | Audible list traversal |
FI124328B (fi) | 2008-12-31 | 2014-06-30 | Suunto Oy | Kaksitoiminen säätöelin rannetietokoneelle tai vastaavalle ja menetelmä rannetietokoneen tai vastaavan päätelaitteen säätämiseksi |
US20150077398A1 (en) | 2013-06-27 | 2015-03-19 | Tactus Technology, Inc. | Method for interacting with a dynamic tactile interface |
EP2207342B1 (en) | 2009-01-07 | 2017-12-06 | LG Electronics Inc. | Mobile terminal and camera image control method thereof |
JP5537040B2 (ja) | 2009-01-28 | 2014-07-02 | キヤノン株式会社 | 表示制御装置および表示制御方法 |
US9569001B2 (en) | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US9141275B2 (en) | 2009-02-17 | 2015-09-22 | Hewlett-Packard Development Company, L.P. | Rendering object icons associated with a first object icon upon detecting fingers moving apart |
JP5185855B2 (ja) | 2009-02-20 | 2013-04-17 | セイコーインスツル株式会社 | 携帯時計 |
CA2753576A1 (en) | 2009-02-25 | 2010-09-02 | Miri Systems, Llc | Payment system and method |
US9280971B2 (en) | 2009-02-27 | 2016-03-08 | Blackberry Limited | Mobile wireless communications device with speech to text conversion and related methods |
US20100223571A1 (en) | 2009-02-27 | 2010-09-02 | Morley Krete | Apparatus and method for scrolling pages displayed on a handheld device |
US8078105B2 (en) | 2009-03-31 | 2011-12-13 | Kyocera Corporation | Scroll wheel on hinge |
EP2237140B1 (en) | 2009-03-31 | 2018-12-26 | Lg Electronics Inc. | Mobile terminal and controlling method thereof |
KR101582876B1 (ko) | 2009-03-31 | 2016-01-07 | 엘지전자 주식회사 | 단말기 및 단말기를 이용한 메뉴제어방법 |
FR2944116B1 (fr) | 2009-04-03 | 2012-08-03 | Dura Automotive Systems Sas | Dispositif de commande en deplacement d'un element selon deux sens opposes. |
US8315607B2 (en) | 2009-04-06 | 2012-11-20 | Htc Corporation | Method and system for filtering incoming messages to a mobile device |
US20100269038A1 (en) | 2009-04-17 | 2010-10-21 | Sony Ericsson Mobile Communications Ab | Variable Rate Scrolling |
KR101553842B1 (ko) | 2009-04-21 | 2015-09-17 | 엘지전자 주식회사 | 멀티 햅틱 효과를 제공하는 휴대 단말기 및 그 제어방법 |
JP5343198B2 (ja) | 2009-04-22 | 2013-11-13 | 株式会社プロテックデザイン | 回転式入力装置及び電子機器 |
JP2010257048A (ja) | 2009-04-22 | 2010-11-11 | Funai Electric Co Ltd | 回転式入力装置及び電子機器 |
JP5574523B2 (ja) | 2009-04-22 | 2014-08-20 | 株式会社プロテックデザイン | 回転式入力装置及び電子機器 |
JP2010257051A (ja) | 2009-04-22 | 2010-11-11 | Funai Electric Co Ltd | 回転式入力装置及び電子機器 |
BRPI1016159A2 (pt) | 2009-04-26 | 2018-08-07 | Nike Int Ltd | "dispositivo para monitorar o desempenho atlético de um usuário, e, dispositivo portátil de monitoramento de atividade atlética." |
CN101876877A (zh) | 2009-04-28 | 2010-11-03 | 鸿富锦精密工业(深圳)有限公司 | 触控屏幕缩放显示系统及方法 |
US8134341B2 (en) | 2009-05-04 | 2012-03-13 | Intel Corporation | Energy harvesting based on user-interface of mobile computing device |
US8669945B2 (en) | 2009-05-07 | 2014-03-11 | Microsoft Corporation | Changing of list views on mobile device |
JP5662652B2 (ja) | 2009-05-11 | 2015-02-04 | 株式会社プロテックデザイン | 触感付与装置及び電子機器 |
US20110055752A1 (en) | 2009-06-04 | 2011-03-03 | Rubinstein Jonathan J | Method and Apparatus for Displaying and Auto-Correcting an Over-Scroll State on a Computing Device |
JP5513071B2 (ja) | 2009-10-26 | 2014-06-04 | 株式会社プロフィールド | 情報処理装置、情報処理方法、およびプログラム |
JP5566632B2 (ja) | 2009-06-25 | 2014-08-06 | 株式会社プロフィールド | 情報処理装置、情報処理方法、およびプログラム |
JP5427551B2 (ja) | 2009-10-30 | 2014-02-26 | 株式会社プロフィールド | 情報処理装置、情報処理方法、およびプログラム |
WO2010150768A1 (ja) | 2009-06-25 | 2010-12-29 | 株式会社プロフィールド | 情報処理装置、情報処理方法、およびプログラム |
CH701440A2 (fr) | 2009-07-03 | 2011-01-14 | Comme Le Temps Sa | Montre-bracelet à écran tactile et procédé d'affichage sur une montre à écran tactile. |
KR101608764B1 (ko) | 2009-07-14 | 2016-04-04 | 엘지전자 주식회사 | 이동 단말기 및 이것의 디스플레이 제어 방법 |
JP5013548B2 (ja) | 2009-07-16 | 2012-08-29 | ソニーモバイルコミュニケーションズ, エービー | 情報端末、情報端末の情報提示方法及び情報提示プログラム |
KR101595384B1 (ko) | 2009-07-20 | 2016-02-18 | 엘지전자 주식회사 | 와치형 이동 단말기 |
US20110025311A1 (en) | 2009-07-29 | 2011-02-03 | Logitech Europe S.A. | Magnetic rotary system for input devices |
JP5323603B2 (ja) | 2009-07-29 | 2013-10-23 | 京セラ株式会社 | 画像表示装置 |
TWI554076B (zh) | 2009-09-04 | 2016-10-11 | 普露諾洛股份有限公司 | 遠距離的電話管理器 |
US20110057886A1 (en) | 2009-09-10 | 2011-03-10 | Oliver Ng | Dynamic sizing of identifier on a touch-sensitive display |
KR101629645B1 (ko) | 2009-09-18 | 2016-06-21 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작방법 |
KR20110032596A (ko) | 2009-09-23 | 2011-03-30 | 삼성전자주식회사 | 중력장 맵을 생성하여 포인터 이동에 이용하는 gui 제공방법 및 이를 적용한 디스플레이 장치 |
US8619100B2 (en) | 2009-09-25 | 2013-12-31 | Apple Inc. | Device, method, and graphical user interface for touch-based gestural input on an electronic canvas |
TW201112074A (en) | 2009-09-30 | 2011-04-01 | Higgstec Inc | Touch gesture detecting method of a touch panel |
US9338274B2 (en) | 2009-10-02 | 2016-05-10 | Blackberry Limited | Method of interacting with electronic devices in a locked state and handheld electronic device configured to permit interaction when in a locked state |
EP2312816B1 (en) | 2009-10-14 | 2012-05-09 | Research In Motion Limited | Management of access to entry points on a communication device |
US8624925B2 (en) | 2009-10-16 | 2014-01-07 | Qualcomm Incorporated | Content boundary signaling techniques |
US8677283B2 (en) | 2009-10-21 | 2014-03-18 | Microsoft Corporation | Displaying lists as reacting against barriers |
JP4850277B2 (ja) | 2009-10-28 | 2012-01-11 | 株式会社ソニー・コンピュータエンタテインメント | スクロール表示プログラム、装置および方法、スクロール表示装置を搭載した電子端末 |
KR101631912B1 (ko) | 2009-11-03 | 2016-06-20 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
US9696809B2 (en) | 2009-11-05 | 2017-07-04 | Will John Temple | Scrolling and zooming of a portable device display with device motion |
US8839128B2 (en) | 2009-11-25 | 2014-09-16 | Cooliris, Inc. | Gallery application for content viewing |
JP2011113483A (ja) | 2009-11-30 | 2011-06-09 | Fujitsu Ten Ltd | 情報処理装置、オーディオ装置及び情報処理方法 |
US20110131531A1 (en) | 2009-12-02 | 2011-06-02 | Deborah Russell | Touch Friendly Applications in an Information Handling System Environment |
US8799816B2 (en) | 2009-12-07 | 2014-08-05 | Motorola Mobility Llc | Display interface and method for displaying multiple items arranged in a sequence |
KR101478416B1 (ko) | 2009-12-28 | 2014-12-31 | 모토로라 모빌리티 엘엘씨 | 입력 제스처들을 사용해서 터치 스크린에서 객체들을 연관시키는 방법들 |
KR101626621B1 (ko) | 2009-12-30 | 2016-06-01 | 엘지전자 주식회사 | 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기 |
US9071441B2 (en) | 2010-01-04 | 2015-06-30 | Google Inc. | Identification and authorization of communication devices |
US8525839B2 (en) | 2010-01-06 | 2013-09-03 | Apple Inc. | Device, method, and graphical user interface for providing digital content products |
JP5751608B2 (ja) | 2010-02-05 | 2015-07-22 | 日本電気株式会社 | ズーム処理装置、ズーム処理方法、及びコンピュータプログラム |
KR101649646B1 (ko) | 2010-02-11 | 2016-08-19 | 엘지전자 주식회사 | 이동 단말기 |
US9417787B2 (en) | 2010-02-12 | 2016-08-16 | Microsoft Technology Licensing, Llc | Distortion effects to indicate location in a movable data collection |
US8930841B2 (en) | 2010-02-15 | 2015-01-06 | Motorola Mobility Llc | Methods and apparatus for a user interface configured to display event information |
US20110199342A1 (en) | 2010-02-16 | 2011-08-18 | Harry Vartanian | Apparatus and method for providing elevated, indented or texturized sensations to an object near a display device or input detection using ultrasound |
US9361018B2 (en) | 2010-03-01 | 2016-06-07 | Blackberry Limited | Method of providing tactile feedback and apparatus |
US9535500B2 (en) | 2010-03-01 | 2017-01-03 | Blackberry Limited | Method of providing tactile feedback and apparatus |
CH702862A1 (fr) | 2010-03-30 | 2011-09-30 | Comme Le Temps Sa | Montre bracelet à affichage électronique. |
US9058186B2 (en) | 2010-04-07 | 2015-06-16 | Apple Inc. | Device, method, and graphical user interface for managing concurrently open software applications |
US20110248948A1 (en) | 2010-04-08 | 2011-10-13 | Research In Motion Limited | Touch-sensitive device and method of control |
KR101645186B1 (ko) | 2010-04-13 | 2016-08-03 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
EP2378406B1 (en) | 2010-04-13 | 2018-08-22 | LG Electronics Inc. | Mobile terminal and method of controlling operation of the mobile terminal |
IES20100214A2 (en) | 2010-04-14 | 2011-11-09 | Smartwatch Ltd | Programmable controllers and schedule timers |
TWI405106B (zh) | 2010-04-23 | 2013-08-11 | Wen Jong Wu | 互動式多點觸控電腦系統及控制方法 |
EP2381372A1 (en) | 2010-04-23 | 2011-10-26 | Research In Motion Limited | Visual shuffling of media icons |
EP2565763B1 (en) | 2010-04-27 | 2018-04-18 | Nec Corporation | Information processing terminal and control method thereof |
US9367198B2 (en) | 2010-04-30 | 2016-06-14 | Microsoft Technology Licensing, Llc | Spin control user interface for selecting options |
US10996774B2 (en) | 2010-04-30 | 2021-05-04 | Nokia Technologies Oy | Method and apparatus for providing interoperability between devices |
EP2385451A1 (en) | 2010-05-07 | 2011-11-09 | Samsung Electronics Co., Ltd. | Method for providing gui using pointer having visual effect showing that pointer is moved by gravity and electronic apparatus thereof |
US8762893B2 (en) | 2010-05-14 | 2014-06-24 | Google Inc. | Automatic derivation of analogous touch gestures from a user-defined gesture |
US20120327006A1 (en) | 2010-05-21 | 2012-12-27 | Disney Enterprises, Inc. | Using tactile feedback to provide spatial awareness |
US9158444B2 (en) | 2010-05-26 | 2015-10-13 | Avaya Inc. | User interface for managing communication sessions |
US20110298830A1 (en) | 2010-06-07 | 2011-12-08 | Palm, Inc. | Single Point Input Variable Zoom |
US20110300915A1 (en) | 2010-06-08 | 2011-12-08 | Nokia Corporation | Method, apparatus and computer program product for enabling partial functionality of a mobile terminal |
US9046999B1 (en) | 2010-06-08 | 2015-06-02 | Google Inc. | Dynamic input at a touch-based interface based on pressure |
US20120089951A1 (en) | 2010-06-10 | 2012-04-12 | Cricket Communications, Inc. | Method and apparatus for navigation within a multi-level application |
US20110307842A1 (en) | 2010-06-14 | 2011-12-15 | I-Jen Chiang | Electronic reading device |
US20110316888A1 (en) | 2010-06-28 | 2011-12-29 | Invensense, Inc. | Mobile device user interface combining input from motion sensors and other controls |
US8972903B2 (en) | 2010-07-08 | 2015-03-03 | Apple Inc. | Using gesture to navigate hierarchically ordered user interface screens |
GB201011687D0 (en) | 2010-07-12 | 2010-08-25 | Faster Imaging As | User interactions |
US20120030627A1 (en) | 2010-07-30 | 2012-02-02 | Nokia Corporation | Execution and display of applications |
JP5511573B2 (ja) | 2010-08-04 | 2014-06-04 | キヤノン株式会社 | 表示制御装置及びその制御方法、並びにプログラム及び記憶媒体 |
US20140372114A1 (en) | 2010-08-06 | 2014-12-18 | Google Inc. | Self-Directed Machine-Generated Transcripts |
US8576171B2 (en) | 2010-08-13 | 2013-11-05 | Immersion Corporation | Systems and methods for providing haptic feedback to touch-sensitive input devices |
US8896633B2 (en) | 2010-08-17 | 2014-11-25 | Apple Inc. | Adjusting a display size of text |
US20120054670A1 (en) | 2010-08-27 | 2012-03-01 | Nokia Corporation | Apparatus and method for scrolling displayed information |
US10140301B2 (en) | 2010-09-01 | 2018-11-27 | Apple Inc. | Device, method, and graphical user interface for selecting and using sets of media player controls |
JP5732783B2 (ja) | 2010-09-02 | 2015-06-10 | ソニー株式会社 | 情報処理装置、情報処理装置の入力制御方法及びプログラム |
JP5621422B2 (ja) | 2010-09-07 | 2014-11-12 | ソニー株式会社 | 情報処理装置、プログラム及び制御方法 |
JP5745241B2 (ja) | 2010-09-08 | 2015-07-08 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法 |
US20120066638A1 (en) | 2010-09-09 | 2012-03-15 | Microsoft Corporation | Multi-dimensional auto-scrolling |
US10429959B2 (en) | 2010-09-15 | 2019-10-01 | Inventus Engineering Gmbh | Minicomputer with a rotating unit and method of operating the minicomputer |
US20120068925A1 (en) | 2010-09-21 | 2012-03-22 | Sony Corporation | System and method for gesture based control |
US8824245B2 (en) | 2010-10-25 | 2014-09-02 | Advance Watch Company, Ltd. | Touch screen watch |
CN101976171A (zh) | 2010-10-29 | 2011-02-16 | 东莞宇龙通信科技有限公司 | 一种触摸设备的解锁方法、系统及触摸设备 |
US8791963B2 (en) | 2010-10-29 | 2014-07-29 | Nokia Corporation | Responding to the receipt of zoom commands |
US8533623B2 (en) | 2010-11-17 | 2013-09-10 | Xerox Corporation | Interface that allows a user to riffle through pages of an electronic document |
WO2012068551A1 (en) | 2010-11-18 | 2012-05-24 | Google Inc. | Surfacing off-screen visible objects |
US10241527B2 (en) | 2010-11-19 | 2019-03-26 | Google Llc | Thermostat graphical user interface |
EP2466400B1 (fr) | 2010-12-16 | 2019-01-16 | The Swatch Group Research and Development Ltd. | Mouvement inertiel d'un organe d'affichage mécanique |
KR101478936B1 (ko) | 2010-12-16 | 2014-12-31 | 더 스와치 그룹 리서치 앤 디벨롭먼트 엘티디 | 디스플레이 수단들의 연속적인 움직임을 획득하는 방법 및 디바이스 |
US9244606B2 (en) | 2010-12-20 | 2016-01-26 | Apple Inc. | Device, method, and graphical user interface for navigation of concurrently open software applications |
KR101740439B1 (ko) | 2010-12-23 | 2017-05-26 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
JP5619595B2 (ja) | 2010-12-24 | 2014-11-05 | 京セラ株式会社 | 携帯端末装置 |
US20120169776A1 (en) | 2010-12-29 | 2012-07-05 | Nokia Corporation | Method and apparatus for controlling a zoom function |
US9423951B2 (en) | 2010-12-31 | 2016-08-23 | Microsoft Technology Licensing, Llc | Content-based snap point |
KR101785323B1 (ko) | 2011-01-05 | 2017-10-17 | 삼성전자주식회사 | 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치 |
US9465440B2 (en) | 2011-01-06 | 2016-10-11 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US9423878B2 (en) | 2011-01-06 | 2016-08-23 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US9684394B2 (en) | 2011-01-10 | 2017-06-20 | Apple Inc. | Button functionality |
US20120179998A1 (en) | 2011-01-12 | 2012-07-12 | Nesladek Christopher D | Touch screen user interfaces |
TWI430311B (zh) | 2011-01-21 | 2014-03-11 | Primax Electronics Ltd | 旋鈕機構 |
TWI441051B (zh) | 2011-01-25 | 2014-06-11 | Compal Electronics Inc | 電子裝置及其資訊呈現方法 |
US8666895B2 (en) | 2011-01-31 | 2014-03-04 | Bank Of America Corporation | Single action mobile transaction device |
US8791911B2 (en) | 2011-02-09 | 2014-07-29 | Robotzone, Llc | Multichannel controller |
JP5537458B2 (ja) | 2011-02-10 | 2014-07-02 | シャープ株式会社 | タッチ入力可能な画像表示装置、表示装置の制御装置、及びコンピュータプログラム |
KR20120097944A (ko) | 2011-02-28 | 2012-09-05 | 삼성전자주식회사 | 터치 스크린을 구비한 단말기 및 그 단말기에서 데이터 출력 방법 |
US9547428B2 (en) | 2011-03-01 | 2017-01-17 | Apple Inc. | System and method for touchscreen knob control |
US20140192626A1 (en) | 2011-03-02 | 2014-07-10 | Royal Hali Iplik Tekstil Mobilya Sanayi Ve Ticaret Anonim Sirketi | Talking Dome Watch for the Visually Impaired |
US20120242584A1 (en) | 2011-03-22 | 2012-09-27 | Nokia Corporation | Method and apparatus for providing sight independent activity reports responsive to a touch gesture |
JP2012203832A (ja) | 2011-03-28 | 2012-10-22 | Canon Inc | 表示制御装置及びその制御方法 |
CN102750066A (zh) | 2011-04-20 | 2012-10-24 | 上海三旗通信科技股份有限公司 | 触屏终端在锁屏状态下实现特定功能控制方式 |
US20120272145A1 (en) | 2011-04-22 | 2012-10-25 | Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America | Method for using radio presets as application shortcuts |
US9182897B2 (en) | 2011-04-22 | 2015-11-10 | Qualcomm Incorporated | Method and apparatus for intuitive wrapping of lists in a user interface |
AU2011202182B1 (en) | 2011-05-11 | 2011-10-13 | Frequency Ip Holdings, Llc | Creation and presentation of selective digital content feeds |
CA2835508A1 (en) | 2011-05-10 | 2012-11-15 | Dynamics Inc. | Systems, devices, and methods for mobile payment acceptance, mobile authorizations, mobile wallets, and contactless communication mechanisms |
US20120289290A1 (en) | 2011-05-12 | 2012-11-15 | KT Corporation, KT TECH INC. | Transferring objects between application windows displayed on mobile terminal |
US8717151B2 (en) | 2011-05-13 | 2014-05-06 | Qualcomm Incorporated | Devices and methods for presenting information to a user on a tactile output surface of a mobile device |
US20120304113A1 (en) | 2011-05-27 | 2012-11-29 | Patten Michael J | Gesture-based content-object zooming |
US8787122B2 (en) | 2011-05-31 | 2014-07-22 | International Business Machines Corporation | Time reporting through vibration |
US8508494B2 (en) | 2011-06-01 | 2013-08-13 | Motorola Mobility Llc | Using pressure differences with a touch-sensitive display screen |
WO2012174435A1 (en) | 2011-06-16 | 2012-12-20 | Richard Tao | Systems and methods for a virtual watch |
US8194036B1 (en) | 2011-06-29 | 2012-06-05 | Google Inc. | Systems and methods for controlling a cursor on a display using a trackpad input device |
US9582187B2 (en) | 2011-07-14 | 2017-02-28 | Microsoft Technology Licensing, Llc | Dynamic context based menus |
CA2746065C (en) | 2011-07-18 | 2013-02-19 | Research In Motion Limited | Electronic device and method for selectively applying message actions |
US20130024811A1 (en) | 2011-07-19 | 2013-01-24 | Cbs Interactive, Inc. | System and method for web page navigation |
US9176652B1 (en) | 2011-07-20 | 2015-11-03 | Google Inc. | Method and system for dynamically defining scroll-wheel functionality on a touchpad |
EP2551784A1 (en) | 2011-07-28 | 2013-01-30 | Roche Diagnostics GmbH | Method of controlling the display of a dataset |
WO2013028569A2 (en) | 2011-08-19 | 2013-02-28 | Apple Inc. | Interactive content for digital books |
US10133439B1 (en) | 2011-08-29 | 2018-11-20 | Twitter, Inc. | User interface based on viewable area of a display |
US9703382B2 (en) | 2011-08-29 | 2017-07-11 | Kyocera Corporation | Device, method, and storage medium storing program with control for terminating a program |
US9001625B2 (en) | 2011-09-08 | 2015-04-07 | Timex Group Usa, Inc. | Wearable electronic device |
US20130067390A1 (en) | 2011-09-09 | 2013-03-14 | Paul J. Kwiatkowski | Programming Interface for Semantic Zoom |
US9678578B2 (en) | 2011-10-03 | 2017-06-13 | Furuno Electric Co., Ltd. | Device having touch panel, display control program and display control method |
US20130097566A1 (en) | 2011-10-17 | 2013-04-18 | Carl Fredrik Alexander BERGLUND | System and method for displaying items on electronic devices |
EP2769272A1 (en) | 2011-10-18 | 2014-08-27 | Slyde Watch SA | A method and circuit for switching a wristwatch from a first power mode to a second power mode |
DE102011084812A1 (de) | 2011-10-19 | 2013-04-25 | Siemens Aktiengesellschaft | Benutzerschnittstelle mit einem Eingabeobjekt und Verfahren zur rechnergestützten Ansteuerung einer Benutzerschnittstelle |
KR101880968B1 (ko) | 2011-10-27 | 2018-08-20 | 삼성전자주식회사 | 터치스크린 휴대 기기에서 사용자 인터페이스 개체를 배치하는 방법 및 장치 |
US20130117698A1 (en) | 2011-10-31 | 2013-05-09 | Samsung Electronics Co., Ltd. | Display apparatus and method thereof |
US8739070B2 (en) | 2011-11-01 | 2014-05-27 | WMODE, Inc. | System, method and apparatus for providing an application carousel |
US20130111342A1 (en) | 2011-11-02 | 2013-05-02 | Motorola Mobility, Inc. | Effective User Input Scheme on a Small Touch Screen Device |
US9489121B2 (en) | 2011-11-02 | 2016-11-08 | Microsoft Technology Licensing, Llc | Optimal display and zoom of objects and text in a document |
JP2013105202A (ja) | 2011-11-10 | 2013-05-30 | Kyocera Corp | 装置、方法、及びプログラム |
TWI571790B (zh) | 2011-11-10 | 2017-02-21 | 財團法人資訊工業策進會 | 依感測信號更改圖示座標值的方法與電子裝置 |
US9007302B1 (en) | 2011-11-11 | 2015-04-14 | Benjamin D. Bandt-Horn | Device and user interface for visualizing, navigating, and manipulating hierarchically structured information on host electronic devices |
CN102508707A (zh) | 2011-11-21 | 2012-06-20 | 宇龙计算机通信科技(深圳)有限公司 | 信息编辑方法和终端 |
US9405463B2 (en) | 2011-11-25 | 2016-08-02 | Samsung Electronics Co., Ltd. | Device and method for gesturally changing object attributes |
US9430119B2 (en) | 2011-11-26 | 2016-08-30 | Douzen, Inc. | Systems and methods for organizing and displaying hierarchical data structures in computing devices |
JP6159078B2 (ja) | 2011-11-28 | 2017-07-05 | 京セラ株式会社 | 装置、方法、及びプログラム |
JP6002012B2 (ja) | 2011-11-28 | 2016-10-05 | 京セラ株式会社 | 装置、方法、及びプログラム |
JP5737155B2 (ja) | 2011-11-28 | 2015-06-17 | 住友電装株式会社 | コネクタ |
US9230223B2 (en) | 2011-12-05 | 2016-01-05 | Houzz, Inc. | Consistent presentation of content and passive relevance determination of content relationship in an on-line commerce system |
US8581870B2 (en) | 2011-12-06 | 2013-11-12 | Apple Inc. | Touch-sensitive button with two levels |
US8483018B2 (en) | 2011-12-08 | 2013-07-09 | Nicholas Leon Anderson | Braille watch |
JP2013122738A (ja) | 2011-12-12 | 2013-06-20 | Sony Computer Entertainment Inc | 電子機器 |
US20130155018A1 (en) | 2011-12-20 | 2013-06-20 | Synaptics Incorporated | Device and method for emulating a touch screen using force information |
JP2013152693A (ja) | 2011-12-27 | 2013-08-08 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、画像表示方法及び画像表示システム |
JP6154401B2 (ja) | 2011-12-28 | 2017-06-28 | サーヴォセンス (エスエムシー) リミテッド | 高分解能アブソリュート・エンコーダ |
JP2013145471A (ja) | 2012-01-13 | 2013-07-25 | Sharp Corp | 表示スクロール装置、表示スクロール装置の制御方法、表示スクロール装置制御プログラム、および該プログラムを記憶したコンピュータ読取り可能な記録媒体 |
CN103460164B (zh) | 2012-02-03 | 2017-02-08 | 松下知识产权经营株式会社 | 触觉提示装置以及触觉提示装置的驱动方法 |
US9086717B2 (en) | 2012-02-13 | 2015-07-21 | Invicta Watch Company Of America, Inc. | Interface for actuating a device |
KR20130094054A (ko) | 2012-02-15 | 2013-08-23 | 삼성전자주식회사 | 휴대용 전자 장치에서 객체를 관리하기 위한 장치 및 방법 |
JP5863498B2 (ja) | 2012-02-16 | 2016-02-16 | シャープ株式会社 | 情報処理装置 |
DE102012202404B4 (de) | 2012-02-16 | 2018-04-05 | Infineon Technologies Ag | Drehwinkelsensor zur absoluten Drehwinkelbestimmung auch bei mehrfachen Umdrehungen |
KR101892567B1 (ko) | 2012-02-24 | 2018-08-28 | 삼성전자 주식회사 | 단말기에서 콘텐츠 이동 방법 및 장치 |
US9161166B2 (en) | 2012-02-24 | 2015-10-13 | Blackberry Limited | Method and apparatus for interconnected devices |
US8963962B2 (en) | 2012-03-06 | 2015-02-24 | Apple Inc. | Display of multiple images |
US20130262564A1 (en) | 2012-03-31 | 2013-10-03 | Immediate, LLC | Interactive media distribution systems and methods |
US10290013B2 (en) | 2012-04-20 | 2019-05-14 | Mastercard International Incorporated | Methods and apparatus for standard approach to coupon selection |
US20130282360A1 (en) | 2012-04-20 | 2013-10-24 | James A. Shimota | Method and Apparatus for Translating and Locating Services in Multiple Languages |
US20130290116A1 (en) | 2012-04-27 | 2013-10-31 | Yahoo! Inc. | Infinite wheel user interface |
US9173052B2 (en) | 2012-05-08 | 2015-10-27 | ConnecteDevice Limited | Bluetooth low energy watch with event indicators and activation |
US9459781B2 (en) | 2012-05-09 | 2016-10-04 | Apple Inc. | Context-specific user interfaces for displaying animated sequences |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
US10235014B2 (en) | 2012-05-09 | 2019-03-19 | Apple Inc. | Music user interface |
US10304347B2 (en) | 2012-05-09 | 2019-05-28 | Apple Inc. | Exercised-based watch face and complications |
WO2013169853A1 (en) * | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
CN105260049B (zh) | 2012-05-09 | 2018-10-23 | 苹果公司 | 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面 |
US10649622B2 (en) | 2012-05-09 | 2020-05-12 | Apple Inc. | Electronic message user interface |
US10097496B2 (en) | 2012-05-09 | 2018-10-09 | Apple Inc. | Electronic mail user interface |
WO2013169875A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
US10990270B2 (en) | 2012-05-09 | 2021-04-27 | Apple Inc. | Context-specific user interfaces |
US9256349B2 (en) | 2012-05-09 | 2016-02-09 | Microsoft Technology Licensing, Llc | User-resizable icons |
US9547425B2 (en) | 2012-05-09 | 2017-01-17 | Apple Inc. | Context-specific user interfaces |
DE102012216002B3 (de) | 2012-05-18 | 2013-09-12 | Leica Microsystems Cms Gmbh | Schaltung und Verfahren zum Erzeugen von periodischen Steuersignalen sowie Mikroskop und Verfahren zum Steuern eines Mikroskops |
US9510141B2 (en) | 2012-06-04 | 2016-11-29 | Apple Inc. | App recommendation using crowd-sourced localized app usage data |
FR2991805B1 (fr) | 2012-06-11 | 2016-12-09 | Airbus | Dispositif d'aide a la communication dans le domaine aeronautique. |
US9020923B2 (en) | 2012-06-18 | 2015-04-28 | Score Revolution, Llc | Systems and methods to facilitate media search |
US9874936B2 (en) | 2012-06-22 | 2018-01-23 | Cape Evolution Limited | Wearable electronic device |
JP5805588B2 (ja) | 2012-06-28 | 2015-11-04 | 京セラ株式会社 | 電子機器、制御方法及び制御プログラム |
US9436687B2 (en) | 2012-07-09 | 2016-09-06 | Facebook, Inc. | Acquiring structured user data using composer interface having input fields corresponding to acquired structured data |
US9953584B2 (en) | 2012-07-24 | 2018-04-24 | Nook Digital, Llc | Lighting techniques for display devices |
JP5692181B2 (ja) | 2012-07-26 | 2015-04-01 | カシオ計算機株式会社 | ネットワーク・サービスシステム及びリスト端末、表示方法、プログラム |
US20140028554A1 (en) | 2012-07-26 | 2014-01-30 | Google Inc. | Recognizing gesture on tactile input device |
WO2014019085A1 (en) | 2012-08-01 | 2014-02-06 | Whirlscape, Inc. | One-dimensional input system and method |
KR101899819B1 (ko) | 2012-08-03 | 2018-09-20 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
CN102902453A (zh) | 2012-08-07 | 2013-01-30 | 北京小米科技有限责任公司 | 一种播放器控制面板显示方法及装置 |
CN102902454B (zh) | 2012-08-10 | 2016-02-03 | 广州市动景计算机科技有限公司 | 网页边缘内容选择方法及装置和移动终端 |
JP5995607B2 (ja) | 2012-08-22 | 2016-09-21 | キヤノン株式会社 | 電子機器、プログラムおよび記録媒体 |
US9959016B2 (en) | 2012-09-07 | 2018-05-01 | Lg Electronics Inc. | Method and digital device for access control with fingerprint authentication |
US8743072B2 (en) | 2012-09-28 | 2014-06-03 | Lg Electronics Inc. | Display device and control method thereof |
CN102905181B (zh) | 2012-10-12 | 2015-10-21 | 北京奇艺世纪科技有限公司 | 一种实现移动终端在线播放视频的方法、装置和系统 |
US20140106734A1 (en) | 2012-10-15 | 2014-04-17 | Beanco Technology L.L.C. | Remote Invocation of Mobile Phone Functionality in an Automobile Environment |
US20140105278A1 (en) | 2012-10-16 | 2014-04-17 | Microsoft Corporation | Color adaptation in video coding |
US9448694B2 (en) | 2012-11-09 | 2016-09-20 | Intel Corporation | Graphical user interface for navigating applications |
US20140132640A1 (en) | 2012-11-14 | 2014-05-15 | Qualcomm Incorporated | Auto-scaling of an indoor map |
GB2507963A (en) | 2012-11-14 | 2014-05-21 | Renergy Sarl | Controlling a Graphical User Interface |
US9286898B2 (en) | 2012-11-14 | 2016-03-15 | Qualcomm Incorporated | Methods and apparatuses for providing tangible control of sound |
US20140136373A1 (en) | 2012-11-15 | 2014-05-15 | II Edward Phillip Kinsey | Methods and systems for the sale of consumer services |
US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
US9477313B2 (en) | 2012-11-20 | 2016-10-25 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving outward-facing sensor of device |
US8994827B2 (en) | 2012-11-20 | 2015-03-31 | Samsung Electronics Co., Ltd | Wearable electronic device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
TW201421340A (zh) | 2012-11-29 | 2014-06-01 | Egalax Empia Technology Inc | 一種放大影像的電子裝置與方法 |
US9606725B2 (en) | 2012-11-30 | 2017-03-28 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Collaborative overlay of user interface elements rendered on the display of a computing device |
EP3617843A1 (en) | 2012-12-10 | 2020-03-04 | Samsung Electronics Co., Ltd. | Mobile device, control method thereof, and ui display method |
CN103870255B (zh) | 2012-12-12 | 2019-02-12 | 腾讯科技(深圳)有限公司 | 浮动组件显示方法及装置 |
EP3435220B1 (en) | 2012-12-29 | 2020-09-16 | Apple Inc. | Device, method and graphical user interface for transitioning between touch input to display output relationships |
US10275117B2 (en) | 2012-12-29 | 2019-04-30 | Apple Inc. | User interface object manipulations in a user interface |
WO2014105275A1 (en) * | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture |
US10691230B2 (en) | 2012-12-29 | 2020-06-23 | Apple Inc. | Crown input for a wearable electronic device |
US11513675B2 (en) | 2012-12-29 | 2022-11-29 | Apple Inc. | User interface for manipulating user interface objects |
CN103945046A (zh) | 2013-01-21 | 2014-07-23 | 目酷实验室有限公司 | 拍照控制方法及控制装置 |
US9971495B2 (en) | 2013-01-28 | 2018-05-15 | Nook Digital, Llc | Context based gesture delineation for user interaction in eyes-free mode |
US10304037B2 (en) | 2013-02-04 | 2019-05-28 | Haworth, Inc. | Collaboration system including a spatial event map |
US10389675B2 (en) | 2013-02-19 | 2019-08-20 | Sudheer A. Grandhi | User interfaces and associated processes in email communication |
WO2014141951A1 (ja) | 2013-03-11 | 2014-09-18 | ソニー株式会社 | 端末装置、端末装置の制御方法およびプログラム |
US9690476B2 (en) | 2013-03-14 | 2017-06-27 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US20140282142A1 (en) | 2013-03-14 | 2014-09-18 | Sonowise, Inc. | Touch Screen Interface for Imaging System |
US9921711B2 (en) | 2013-03-14 | 2018-03-20 | Samsung Electronics Co., Ltd. | Automatically expanding panes |
US9268356B2 (en) | 2013-03-15 | 2016-02-23 | Touchsensor Technologies, Llc | Modular knob system |
US20140292668A1 (en) | 2013-04-01 | 2014-10-02 | Lenovo (Singapore) Pte. Ltd. | Touch input device haptic feedback |
US9454229B1 (en) | 2013-04-11 | 2016-09-27 | Alexander Wellen | Method and device for tactilely reading time on a touch screen |
US8913088B2 (en) | 2013-04-15 | 2014-12-16 | Google Inc. | Adjusting displayed content length as a function of map scale |
US10145579B2 (en) | 2013-05-01 | 2018-12-04 | Honeywell International Inc. | Devices and methods for interacting with a control system that is connected to a network |
TWI489227B (zh) | 2013-05-06 | 2015-06-21 | 巨擘科技股份有限公司 | 腕錶結構、腕錶用的電子旋鈕以及顯示器型腕錶 |
CN105474157A (zh) | 2013-05-09 | 2016-04-06 | 亚马逊技术股份有限公司 | 移动设备界面 |
KR102144763B1 (ko) | 2013-05-22 | 2020-08-28 | 삼성전자주식회사 | 웨어러블 부가 장치를 통한 스케줄 표시 방법 및 장치 |
US20140362024A1 (en) | 2013-06-07 | 2014-12-11 | Barnesandnoble.Com Llc | Activating voice command functionality from a stylus |
WO2014197339A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Device, method, and graphical user interface for synchronizing two or more displays |
US9753436B2 (en) | 2013-06-11 | 2017-09-05 | Apple Inc. | Rotary input mechanism for an electronic device |
KR20150008996A (ko) | 2013-07-04 | 2015-01-26 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
KR102108062B1 (ko) | 2013-07-04 | 2020-05-08 | 엘지전자 주식회사 | 택타일 피드백을 발생하는 스마트 워치 및 그 제어 방법 |
JP2015022567A (ja) | 2013-07-19 | 2015-02-02 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
GB201312978D0 (en) | 2013-07-19 | 2013-09-04 | Ams Neve Plc | Rotary control |
KR102134425B1 (ko) | 2013-08-01 | 2020-07-15 | 삼성전자주식회사 | 유휴 자원을 이용한 가상 전 이중 통신을 위한 무선 트랜시버 |
US10809893B2 (en) | 2013-08-09 | 2020-10-20 | Insyde Software Corp. | System and method for re-sizing and re-positioning application windows in a touch-based computing device |
EP3014400B1 (en) | 2013-08-09 | 2020-06-03 | Apple Inc. | Tactile switch for an electronic device |
US20150058744A1 (en) | 2013-08-22 | 2015-02-26 | Ashvin Dhingra | Systems and methods for managing graphical user interfaces |
KR20180128091A (ko) | 2013-09-03 | 2018-11-30 | 애플 인크. | 자기 특성을 갖는 사용자 인터페이스 객체를 조작하는 사용자 인터페이스 |
US10545657B2 (en) | 2013-09-03 | 2020-01-28 | Apple Inc. | User interface for manipulating user interface objects |
US10001817B2 (en) | 2013-09-03 | 2018-06-19 | Apple Inc. | User interface for manipulating user interface objects with magnetic properties |
US10503388B2 (en) | 2013-09-03 | 2019-12-10 | Apple Inc. | Crown input for a wearable electronic device |
US11068128B2 (en) | 2013-09-03 | 2021-07-20 | Apple Inc. | User interface object manipulations in a user interface |
US9898642B2 (en) | 2013-09-09 | 2018-02-20 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
US9798443B1 (en) | 2013-09-10 | 2017-10-24 | Amazon Technologies, Inc. | Approaches for seamlessly launching applications |
KR102109407B1 (ko) | 2013-09-25 | 2020-05-12 | 엘지전자 주식회사 | 스마트 와치 및 제어 방법 |
US20150121224A1 (en) | 2013-10-28 | 2015-04-30 | At&T Intellectual Property I, L.P. | Method and System to Control a Seek Position of Multimedia Content Using a Rotatable Video Frame Graphic |
JP6393325B2 (ja) | 2013-10-30 | 2018-09-19 | アップル インコーポレイテッドApple Inc. | 関連するユーザインターフェースオブジェクトの表示 |
US9400630B2 (en) | 2013-12-20 | 2016-07-26 | Google Inc. | Systems and methods for enhanced speech recognition interface on mobile device |
US20150199012A1 (en) | 2014-01-16 | 2015-07-16 | Symbol Technologies, Inc. | Method and apparatus for providing a haptic feedback to a rotary knob |
CN103793138A (zh) | 2014-01-24 | 2014-05-14 | 宇龙计算机通信科技(深圳)有限公司 | 移动终端及后台应用程序的显示方法 |
US10048802B2 (en) | 2014-02-12 | 2018-08-14 | Apple Inc. | Rejection of false turns of rotary inputs for electronic devices |
EP2913738A1 (en) | 2014-02-27 | 2015-09-02 | Nokia Technologies OY | Performance of an operation based at least in part on tilt of a wrist worn apparatus |
CN103885596B (zh) | 2014-03-24 | 2017-05-24 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
KR101933289B1 (ko) | 2014-04-01 | 2018-12-27 | 애플 인크. | 링 컴퓨팅 디바이스를 위한 디바이스 및 방법 |
KR20150118813A (ko) | 2014-04-15 | 2015-10-23 | 삼성전자주식회사 | 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치 |
US9213941B2 (en) | 2014-04-22 | 2015-12-15 | Google Inc. | Automatic actions based on contextual replies |
US20150339018A1 (en) | 2014-05-23 | 2015-11-26 | Samsung Electronics Co., Ltd. | User terminal device and method for providing information thereof |
EP3105669B1 (en) | 2014-06-24 | 2021-05-26 | Apple Inc. | Application menu for video system |
US10474317B2 (en) | 2014-06-25 | 2019-11-12 | Oracle International Corporation | Dynamic node grouping in grid-based visualizations |
US20160011758A1 (en) | 2014-07-09 | 2016-01-14 | Selfie Inc. | System, apparatuses and methods for a video communications network |
US20160034153A1 (en) | 2014-07-31 | 2016-02-04 | Microsoft Corporation | Icon Resizing |
USD778912S1 (en) | 2014-08-11 | 2017-02-14 | Apple Inc. | Crown for electronic device |
CN104166458A (zh) | 2014-08-12 | 2014-11-26 | 广州华多网络科技有限公司 | 控制多媒体播放器的方法及装置 |
KR102418119B1 (ko) | 2014-08-25 | 2022-07-07 | 삼성전자 주식회사 | 시계 화면 구성 방법 및 이를 구현한 웨어러블 전자장치 |
WO2016036509A1 (en) | 2014-09-02 | 2016-03-10 | Apple Inc. | Electronic mail user interface |
WO2016036415A1 (en) | 2014-09-02 | 2016-03-10 | Apple Inc. | Electronic message user interface |
US20160062571A1 (en) | 2014-09-02 | 2016-03-03 | Apple Inc. | Reduced size user interface |
CN113824998A (zh) | 2014-09-02 | 2021-12-21 | 苹果公司 | 音乐用户界面 |
US9659482B2 (en) | 2014-09-02 | 2017-05-23 | Apple Inc. | Context-based alerts for an electronic device |
CN115756154A (zh) | 2014-09-02 | 2023-03-07 | 苹果公司 | 用于可变触觉输出的语义框架 |
TWI582641B (zh) | 2014-09-02 | 2017-05-11 | 蘋果公司 | 按鈕功能性 |
US10304163B2 (en) | 2014-09-08 | 2019-05-28 | Apple Inc. | Landscape springboard |
FR3029308B1 (fr) | 2014-12-02 | 2017-12-22 | Commissariat Energie Atomique | Interface haptique a rendu haptique ameliore, notamment dans la reproduction d'une butee |
EP3035167B1 (en) | 2014-12-18 | 2018-07-04 | Société Civile "GALILEO 2011" | Computer input device with smart scroll |
US10466883B2 (en) | 2015-03-02 | 2019-11-05 | Apple Inc. | Screenreader user interface |
US10365807B2 (en) | 2015-03-02 | 2019-07-30 | Apple Inc. | Control of system zoom magnification using a rotatable input mechanism |
US20160259416A1 (en) | 2015-03-03 | 2016-09-08 | Immersion Corporation | Wearable device surface haptics interaction |
WO2016144563A1 (en) | 2015-03-08 | 2016-09-15 | Apple Inc. | User interface using a rotatable input mechanism |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
AU2016101431B4 (en) | 2015-03-08 | 2017-05-04 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
WO2016144385A1 (en) | 2015-03-08 | 2016-09-15 | Apple Inc. | Sharing user-configurable graphical constructs |
KR20160131275A (ko) | 2015-05-06 | 2016-11-16 | 엘지전자 주식회사 | 와치 타입 단말기 |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
EP4327731A3 (en) | 2015-08-20 | 2024-05-15 | Apple Inc. | Exercise-based watch face |
US10444040B2 (en) | 2015-09-25 | 2019-10-15 | Apple Inc. | Crown with three-dimensional input |
US9646471B2 (en) | 2015-09-30 | 2017-05-09 | Apple Inc. | User interface using tactile output |
KR102459243B1 (ko) | 2015-10-08 | 2022-10-26 | 삼성전자 주식회사 | 전자 장치 및 전자 장치의 촬영 방법 |
JP2017078697A (ja) | 2015-10-22 | 2017-04-27 | セイコーエプソン株式会社 | ウェアラブル端末装置及びウェアラブル端末装置の制御方法 |
US20170357427A1 (en) | 2016-06-10 | 2017-12-14 | Apple Inc. | Context-specific user interfaces |
DK201670737A1 (en) * | 2016-06-12 | 2018-01-22 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback |
DK179823B1 (en) * | 2016-06-12 | 2019-07-12 | Apple Inc. | DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK |
DK201670580A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | Wrist-based tactile time feedback for non-sighted users |
US10019097B2 (en) | 2016-07-25 | 2018-07-10 | Apple Inc. | Force-detecting input structure |
US10289218B1 (en) | 2016-08-31 | 2019-05-14 | Rockwell Collins, Inc. | Enhanced video system control and yoke integration |
AU2017101092A4 (en) | 2016-09-06 | 2017-09-07 | Apple Inc. | Devices, methods, and graphical user interfaces for providing haptic feedback |
WO2018048632A1 (en) | 2016-09-06 | 2018-03-15 | Apple Inc. | Devices, methods, and graphical user interfaces for providing feedback during interaction with an intensity-sensitive button |
US10324620B2 (en) | 2016-09-06 | 2019-06-18 | Apple Inc. | Processing capacitive touch gestures implemented on an electronic device |
DK201670728A1 (en) | 2016-09-06 | 2018-03-19 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button |
CN111414081B (zh) | 2016-09-06 | 2022-03-22 | 苹果公司 | 用于提供触觉反馈的设备、方法和图形用户界面 |
DK201670720A1 (en) | 2016-09-06 | 2018-03-26 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs |
US11782531B2 (en) | 2016-09-19 | 2023-10-10 | Apple Inc. | Gesture detection, list navigation, and item selection using a crown and sensors |
KR102507252B1 (ko) | 2016-09-23 | 2023-03-07 | 애플 인크. | 워치 극장 모드 |
US20180164996A1 (en) | 2016-12-12 | 2018-06-14 | Logitech Europe S.A. | Contextually-based functional assignment for a user-manipulable element on an input device |
US10324531B2 (en) | 2016-12-27 | 2019-06-18 | Immersion Corporation | Haptic feedback using a field of view |
DK179412B1 (en) | 2017-05-12 | 2018-06-06 | Apple Inc | Context-Specific User Interfaces |
DK179932B1 (en) * | 2017-05-16 | 2019-10-11 | Apple Inc. | DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR NAVIGATING, DISPLAYING, AND EDITING MEDIA ITEMS WITH MULTIPLE DISPLAY MODES |
DK179555B1 (en) | 2017-05-16 | 2019-02-13 | Apple Inc. | USER INTERFACE FOR A FLASHLIGHT MODE ON AN ELECTRONIC DEVICE |
WO2019023322A1 (en) | 2017-07-27 | 2019-01-31 | SkyRyse, Inc. | SYSTEM AND METHOD FOR SITUATION APPRAISAL, VEHICLE CONTROL AND / OR IMPREVUS PLANNING |
EP4252632A3 (en) | 2017-09-05 | 2024-05-01 | Apple Inc. | Wearable electronic device with electrodes for sensing biological parameters |
KR102185854B1 (ko) | 2017-09-09 | 2020-12-02 | 애플 인크. | 생체측정 인증의 구현 |
JP6736686B1 (ja) | 2017-09-09 | 2020-08-05 | アップル インコーポレイテッドApple Inc. | 生体認証の実施 |
DK201870347A1 (en) | 2018-01-24 | 2019-10-08 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
DK201870599A1 (en) | 2018-03-12 | 2019-10-16 | Apple Inc. | USER INTERFACES FOR HEALTH MONITORING |
DK179896B1 (en) | 2018-09-11 | 2019-08-30 | Apple Inc. | CONTENT-BASED TACTILE OUTPUTS |
-
2018
- 2018-09-27 DK DKPA201870632A patent/DK179896B1/en not_active IP Right Cessation
- 2018-09-27 US US16/144,950 patent/US10712824B2/en active Active
- 2018-09-27 DK DKPA201870631A patent/DK179888B1/en not_active IP Right Cessation
- 2018-09-28 US US16/147,413 patent/US10928907B2/en active Active
- 2018-09-28 CN CN201910443317.5A patent/CN110888523A/zh active Pending
-
2019
- 2019-05-08 EP EP19173371.6A patent/EP3623909A1/en active Pending
- 2019-05-10 EP EP19173886.3A patent/EP3623910A1/en active Pending
- 2019-08-30 KR KR1020217039120A patent/KR102482382B1/ko not_active Application Discontinuation
- 2019-08-30 WO PCT/US2019/049237 patent/WO2020055618A1/en active Application Filing
- 2019-08-30 KR KR1020227045500A patent/KR20230007540A/ko not_active Application Discontinuation
- 2019-08-30 JP JP2021510409A patent/JP7158566B2/ja active Active
- 2019-08-30 KR KR1020217005523A patent/KR102334401B1/ko active IP Right Grant
- 2019-08-30 AU AU2019337519A patent/AU2019337519B2/en active Active
- 2019-08-30 KR KR1020247010161A patent/KR20240046285A/ko active Application Filing
-
2022
- 2022-03-24 AU AU2022202044A patent/AU2022202044B2/en active Active
- 2022-08-08 JP JP2022126562A patent/JP7373623B2/ja active Active
- 2022-09-23 AU AU2022235609A patent/AU2022235609B2/en active Active
-
2023
- 2023-10-23 JP JP2023182016A patent/JP2024020232A/ja active Pending
-
2024
- 2024-01-18 AU AU2024200347A patent/AU2024200347B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3623910A1 (en) | 2020-03-18 |
US10928907B2 (en) | 2021-02-23 |
JP7158566B2 (ja) | 2022-10-21 |
AU2024200347B2 (en) | 2024-02-15 |
DK179896B1 (en) | 2019-08-30 |
CN110888523A (zh) | 2020-03-17 |
DK201870631A1 (en) | 2019-08-27 |
DK179888B1 (en) | 2019-08-27 |
AU2019337519B2 (en) | 2022-01-06 |
AU2019337519A1 (en) | 2021-03-18 |
WO2020055618A1 (en) | 2020-03-19 |
KR102482382B1 (ko) | 2022-12-29 |
KR20210151235A (ko) | 2021-12-13 |
KR20230007540A (ko) | 2023-01-12 |
DK201870632A1 (en) | 2019-08-30 |
AU2022202044B2 (en) | 2022-08-18 |
AU2022235609A1 (en) | 2022-10-13 |
US20200081538A1 (en) | 2020-03-12 |
JP2022169614A (ja) | 2022-11-09 |
AU2022235609B2 (en) | 2023-11-23 |
KR102334401B1 (ko) | 2021-12-03 |
KR20240046285A (ko) | 2024-04-08 |
AU2022202044A1 (en) | 2022-04-14 |
KR20210031752A (ko) | 2021-03-22 |
EP3623909A1 (en) | 2020-03-18 |
AU2024200347A1 (en) | 2024-02-08 |
JP2021527281A (ja) | 2021-10-11 |
US10712824B2 (en) | 2020-07-14 |
US20200081539A1 (en) | 2020-03-12 |
WO2020055618A4 (en) | 2020-05-14 |
JP7373623B2 (ja) | 2023-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7373623B2 (ja) | コンテンツベースの触知出力 | |
US11921926B2 (en) | Content-based tactile outputs | |
US11861077B2 (en) | Interacting with an electronic device through physical movement | |
US20200341610A1 (en) | Presenting user interfaces that update in response to detection of a hovering object | |
CN110096157B (zh) | 基于内容的触觉输出 | |
DK180678B1 (en) | Indholds-baserede taktile outputs | |
CN115826750A (zh) | 基于内容的触觉输出 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231121 |