CN115968464A - 使用手部手势导航用户界面 - Google Patents
使用手部手势导航用户界面 Download PDFInfo
- Publication number
- CN115968464A CN115968464A CN202280005772.7A CN202280005772A CN115968464A CN 115968464 A CN115968464 A CN 115968464A CN 202280005772 A CN202280005772 A CN 202280005772A CN 115968464 A CN115968464 A CN 115968464A
- Authority
- CN
- China
- Prior art keywords
- user interface
- computer system
- gesture
- interface object
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004044 response Effects 0.000 claims description 221
- 238000000034 method Methods 0.000 claims description 190
- 230000003287 optical effect Effects 0.000 claims description 102
- 238000004891 communication Methods 0.000 claims description 67
- 230000015654 memory Effects 0.000 claims description 50
- 230000000007 visual effect Effects 0.000 claims description 43
- 238000003860 storage Methods 0.000 claims description 33
- 230000007704 transition Effects 0.000 claims description 22
- 230000009471 action Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 14
- 230000033001 locomotion Effects 0.000 description 76
- 230000008569 process Effects 0.000 description 29
- 230000007246 mechanism Effects 0.000 description 26
- 230000002093 peripheral effect Effects 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 17
- 230000007935 neutral effect Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 230000004913 activation Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 241000699666 Mus <mouse, genus> Species 0.000 description 12
- 230000003993 interaction Effects 0.000 description 12
- 238000007726 management method Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 230000003213 activating effect Effects 0.000 description 9
- 230000036541 health Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 5
- 210000000707 wrist Anatomy 0.000 description 5
- 230000001149 cognitive effect Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000021317 sensory perception Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 3
- 241001422033 Thestylus Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000010420 art technique Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013503 de-identification Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- PCLIRWBVOVZTOK-UHFFFAOYSA-M 2-(1-methylpyrrolidin-1-ium-1-yl)ethyl 2-hydroxy-2,2-diphenylacetate;iodide Chemical compound [I-].C=1C=CC=CC=1C(O)(C=1C=CC=CC=1)C(=O)OCC[N+]1(C)CCCC1 PCLIRWBVOVZTOK-UHFFFAOYSA-M 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- WYTGDNHDOZPMIW-RCBQFDQVSA-N alstonine Natural products C1=CC2=C3C=CC=CC3=NC2=C2N1C[C@H]1[C@H](C)OC=C(C(=O)OC)[C@H]1C2 WYTGDNHDOZPMIW-RCBQFDQVSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000002407 reforming Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000009528 vital sign measurement Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0362—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
Abstract
本公开整体涉及使用手部手势导航用户界面。
Description
交叉引用申请
本申请要求于2021年5月19日提交的名称为“NAVIGATING USER INTERFACESUSING HAND GESTURES”的美国临时专利申请序列号63/190,783;于2021年7月13日提交的名称为“NAVIGATING USER INTERFACES USING HAND GESTURES”的美国临时专利申请序列号63/221,331;以及于2022年5月18日提交的名称为“NAVIGATING USER INTERFACES USINGHAND GESTURES”的美国专利申请序列号17/747,613的优先权。这些专利申请的内容据此全文以引用方式并入本文。
技术领域
本公开整体涉及计算机用户界面,并且更具体地涉及用于使用手部手势导航用户界面的技术。
背景技术
智能电话和其他个人电子设备的用户正在更频繁地使用他们的设备。一些现有技术允许用户在他们的设备上导航用户界面。
发明内容
然而,用于利用电子设备使用手部手势来导航用户界面的一些技术通常很麻烦且效率低下。例如,一些现有技术使用复杂且耗时的用户界面,该用户界面可包括多次按键或击键。现有技术需要很多的时间,这导致浪费用户的时间和设备能量。这后一考虑在电池驱动的设备中是特别重要的。
因此,本技术为电子设备的用户提供了用于使用手部手势导航用户界面的更快、更有效的方法和界面。此类方法和界面任选地补充或替换用于使用手部手势导航用户界面的其他方法。此类方法和界面减少对用户所造成的认知负担,并且产生更有效的人机界面。对于电池驱动的计算设备,此类方法和界面节省功率,并且增大电池充电之间的时间间隔。
根据一些实施方案,描述了一种方法。该方法在与显示生成部件和光学传感器通信的计算机系统处执行。该方法包括:经由显示生成部件显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示;在显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示时,至少经由光学传感器检测手部手势;以及响应于至少经由光学传感器检测到手部手势:根据确定手部手势是第一类型的手势,经由显示生成部件显示第二用户界面对象被选择的指示;以及根据确定手部手势是与第一类型的手势不同的第二类型的手势,经由显示生成部件显示第三用户界面对象被选择的指示。
根据一些实施方案,描述了一种非暂态计算机可读存储介质。该非暂态计算机可读存储介质存储被配置为由与显示生成部件和光学传感器通信的计算机系统的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由显示生成部件显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示;在显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示时,至少经由光学传感器检测手部手势;以及响应于至少经由光学传感器检测到手部手势:根据确定手部手势是第一类型的手势,经由显示生成部件显示第二用户界面对象被选择的指示;以及根据确定手部手势是与第一类型的手势不同的第二类型的手势,经由显示生成部件显示第三用户界面对象被选择的指示。
根据一些实施方案,描述了一种暂态计算机可读存储介质。该暂态计算机可读存储介质存储被配置为由与显示生成部件和光学传感器通信的计算机系统的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由显示生成部件显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示;在显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示时,至少经由光学传感器检测手部手势;以及响应于至少经由光学传感器检测到手部手势:根据确定手部手势是第一类型的手势,经由显示生成部件显示第二用户界面对象被选择的指示;以及根据确定手部手势是与第一类型的手势不同的第二类型的手势,经由显示生成部件显示第三用户界面对象被选择的指示。
根据一些实施方案,描述了一种计算机系统。该计算机系统包括:显示生成部件;光学传感器;一个或多个处理器;以及存储器,该存储器存储被配置为由一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由显示生成部件显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示;在显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示时,至少经由光学传感器检测手部手势;以及响应于至少经由光学传感器检测到手部手势:根据确定手部手势是第一类型的手势,经由显示生成部件显示第二用户界面对象被选择的指示;以及根据确定手部手势是与第一类型的手势不同的第二类型的手势,经由显示生成部件显示第三用户界面对象被选择的指示。
根据一些实施方案,描述了一种计算机系统。该计算机系统包括:显示生成部件;光学传感器;一个或多个处理器;以及存储器,该存储器存储被配置为由一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于以下各项的指令:用于经由显示生成部件显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示的装置;用于在显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示时,至少经由光学传感器检测手部手势的装置;以及用于进行以下操作的装置:响应于至少经由光学传感器检测到手部手势:根据确定手部手势是第一类型的手势,经由显示生成部件显示第二用户界面对象被选择的指示;以及根据确定手部手势是与第一类型的手势不同的第二类型的手势,经由显示生成部件显示第三用户界面对象被选择的指示。
根据一些实施方案,描述了一种计算机程序产品。该计算机程序产品包括被配置为由与显示生成部件和光学传感器通信的计算机系统的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由显示生成部件显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示;在显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及第一用户界面对象被选择的指示时,至少经由光学传感器检测手部手势;以及响应于至少经由光学传感器检测到手部手势:根据确定手部手势是第一类型的手势,经由显示生成部件显示第二用户界面对象被选择的指示;以及根据确定手部手势是与第一类型的手势不同的第二类型的手势,经由显示生成部件显示第三用户界面对象被选择的指示。
根据一些实施方案,描述了一种方法。该方法在与显示生成部件通信的计算机系统处执行。该方法包括:经由显示生成部件显示包括可选用户界面对象的用户界面以及在用户界面上的第一位置处显示的光标;当显示可选用户界面对象以及在用户界面上的第一位置处的光标时,检测将光标从用户界面上的第一位置移动到第二位置的请求;以及响应于检测到将光标从第一位置移动到第二位置的请求:显示在第二位置处的光标;根据确定第二位置对应于可选用户界面对象的位置,显示提供光标需要在第二位置处定位多长时间来执行操作的视觉指示的动画,其中在一定时间段内更新视觉指示;以及根据确定第二位置不对应于可选用户界面对象的位置,放弃显示动画。
根据一些实施方案,描述了一种非暂态计算机可读存储介质。该非暂态计算机可读存储介质存储被配置为由与显示生成部件通信的计算机系统的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由显示生成部件显示包括可选用户界面对象的用户界面以及在用户界面上的第一位置处显示的光标;当显示可选用户界面对象以及在用户界面上的第一位置处的光标时,检测将光标从用户界面上的第一位置移动到第二位置的请求;以及响应于检测到将光标从第一位置移动到第二位置的请求:显示在第二位置处的光标;根据确定第二位置对应于可选用户界面对象的位置,显示提供光标需要在第二位置处定位多长时间来执行操作的视觉指示的动画,其中在一定时间段内更新视觉指示;以及根据确定第二位置不对应于可选用户界面对象的位置,放弃显示动画。
根据一些实施方案,描述了一种暂态计算机可读存储介质。该暂态计算机可读存储介质存储被配置为由与显示生成部件通信的计算机系统的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由显示生成部件显示包括可选用户界面对象的用户界面以及在用户界面上的第一位置处显示的光标;当显示可选用户界面对象以及在用户界面上的第一位置处的光标时,检测将光标从用户界面上的第一位置移动到第二位置的请求;以及响应于检测到将光标从第一位置移动到第二位置的请求:显示在第二位置处的光标;根据确定第二位置对应于可选用户界面对象的位置,显示提供光标需要在第二位置处定位多长时间来执行操作的视觉指示的动画,其中在一定时间段内更新视觉指示;以及根据确定第二位置不对应于可选用户界面对象的位置,放弃显示动画。
根据一些实施方案,描述了一种计算机系统。该计算机系统包括:显示生成部件;一个或多个处理器;以及存储器,该存储器存储被配置为由一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由显示生成部件显示包括可选用户界面对象的用户界面以及在用户界面上的第一位置处显示的光标;当显示可选用户界面对象以及在用户界面上的第一位置处的光标时,检测将光标从用户界面上的第一位置移动到第二位置的请求;以及响应于检测到将光标从第一位置移动到第二位置的请求:显示在第二位置处的光标;根据确定第二位置对应于可选用户界面对象的位置,显示提供光标需要在第二位置处定位多长时间来执行操作的视觉指示的动画,其中在一定时间段内更新视觉指示;以及根据确定第二位置不对应于可选用户界面对象的位置,放弃显示动画。
根据一些实施方案,描述了一种计算机系统。该计算机系统包括:显示生成部件;一个或多个处理器;以及存储器,该存储器存储被配置为由一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于以下各项的指令:用于经由显示生成部件显示包括可选用户界面对象的用户界面以及在用户界面上的第一位置处显示的光标的装置;用于当显示可选用户界面对象以及在用户界面上的第一位置处的光标时,检测将光标从用户界面上的第一位置移动到第二位置的请求的装置;以及用于进行以下操作的装置:响应于检测到将光标从第一位置移动到第二位置的请求:显示在第二位置处的光标;根据确定第二位置对应于可选用户界面对象的位置,显示提供光标需要在第二位置处定位多长时间来执行操作的视觉指示的动画,其中在一定时间段内更新视觉指示;以及根据确定第二位置不对应于可选用户界面对象的位置,放弃显示动画。
根据一些实施方案,描述了一种计算机程序产品。该计算机程序产品包括被配置为由与显示生成部件通信的计算机系统的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由显示生成部件显示包括可选用户界面对象的用户界面以及在用户界面上的第一位置处显示的光标;当显示可选用户界面对象以及在用户界面上的第一位置处的光标时,检测将光标从用户界面上的第一位置移动到第二位置的请求;以及响应于检测到将光标从第一位置移动到第二位置的请求:显示在第二位置处的光标;根据确定第二位置对应于可选用户界面对象的位置,显示提供光标需要在第二位置处定位多长时间来执行操作的视觉指示的动画,其中在一定时间段内更新视觉指示;以及根据确定第二位置不对应于可选用户界面对象的位置,放弃显示动画。
用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的非暂态计算机可读存储介质或其他计算机程序产品中。用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的暂态计算机可读存储介质或其他计算机程序产品中。
因此,为设备提供了用于使用手部手势导航用户界面的更快、更高效的方法和界面,从而提高了此类设备的有效性、效率和用户满意度。此类方法和界面可补充或替换用于使用手部手势导航用户界面的其他方法。
附图说明
为了更好地理解各种所述实施方案,应结合以下附图参考下面的具体实施方式,其中类似的附图标号在所有附图中指示对应的部分。
图1A是示出根据一些实施方案的具有触敏显示器的便携式多功能设备的框图。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框图。
图2示出了根据一些实施方案的具有触摸屏的便携式多功能设备。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。
图4A示出了根据一些实施方案的针对便携式多功能设备上应用程序的菜单的示例性用户界面。
图4B示出了根据一些实施方案的针对具有与显示器分开的触敏表面的多功能设备的示例性用户界面。
图5A示出了根据一些实施方案的个人电子设备。
图5B是示出根据一些实施方案的个人电子设备的框图。
图6示出了根据一些实施方案的一组示例性手部手势。
图7A至图7AA示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。
图8A至图8J示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。
图9A至图9H示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。
图10A至图10F示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。
图11A至图11H示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。
图12A至图12J示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。
图13A至图13G示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。
图14示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。
图15是示出了根据一些实施方案的用于使用手部手势导航用户界面的方法的流程图。
图16是示出了根据一些实施方案的用于使用手部手势导航用户界面的方法的流程图。
具体实施方式
以下描述阐述了示例性方法、参数等。然而,应当认识到,此类描述并非意在限制本公开的范围,而是作为对示例性实施方案的描述来提供。
需要提供用于使用手部手势导航用户界面的高效方法和界面的电子设备。例如,用户可能想要在不触摸其设备的显示器的情况下导航用户界面。此类技术可减少对导航用户界面的用户的认知和/或物理负担,从而提高生产率。此外,此类技术可减少以其他方式浪费在冗余用户输入上的处理器功率和电池功率。
下面图1A至图1B、图2、图3、图4A至图4B和图5A至图5B提供了对用于执行用于使用手部手势导航用户界面的技术的示例性设备的描述。图6示出了根据一些实施方案的一组示例性手部手势。图7A至图7AA示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。图8A至图8J示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。图9A至图9H示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。图10A至图10F示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。图11A至图11H示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。图12A至图12J示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。图13A至图13G示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。图14示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。图15是示出了根据一些实施方案的用于使用手部手势导航用户界面的方法的流程图。图16是示出了根据一些实施方案的用于使用手部手势导航用户界面的方法的流程图。图6、图7A至图7AA、图8A至图8J、图9A至图9H、图10A至图10F、图11A至图11H、图12A至图12J、图13A至图13G和图14中的用户界面用于示出下文描述的过程,包括图15和图16中的过程。
此外,在本文所述的其中一个或多个步骤取决于已满足一个或多个条件的方法中,应当理解,所述方法可在多次重复中重复,使得在重复的过程中,在方法的不同重复中已满足决定方法中的步骤的所有条件。例如,如果方法需要执行第一步骤(如果满足条件),以及执行第二步骤(如果不满足条件),则普通技术人员将会知道,重复所声明的步骤,直到满足条件和不满足条件两者(不分先后)。因此,可将被描述为具有取决于已满足一个或多个条件的一个或多个步骤的方法重写为重复直到已满足该方法中所述的每个条件的方法。然而,这不需要系统或计算机可读介质声明该系统或计算机可读介质包含用于基于对应的一个或多个条件的满足来执行视情况而定的操作的指令,并且因此能够确定是否已满足可能的情况,而无需明确地重复方法的步骤直到已满足决定方法中的步骤的所有条件。本领域的普通技术人员还将理解,类似于具有视情况而定的步骤的方法,系统或计算机可读存储介质可根据需要多次重复方法的步骤,以确保已执行所有视情况而定的步骤。
尽管以下描述使用术语“第一”、“第二”等来描述各种元件,但这些元件不应受术语的限制。这些术语只是用于将一个元件与另一元件区分开。例如,第一触摸可被命名为第二触摸并且类似地第二触摸可被命名为第一触摸,而不脱离各种所述实施方案的范围。第一触摸和第二触摸两者均为触摸,但是它们不是同一触摸。
在本文中对各种所述实施方案的描述中所使用的术语只是为了描述特定实施方案的目的,而并非旨在进行限制。如在对各种所述实施方案中的描述和所附权利要求书中所使用的那样,单数形式“一个”和“该”旨在也包括复数形式,除非上下文另外明确地指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”(“includes”、“including”、“comprises”和/或“comprising”)在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件和/或其分组。
根据上下文,术语“如果”任选地被解释为意指“当......时”、“在......时”或“响应于确定”或“响应于检测到”。类似地,根据上下文,短语“如果确定……”或“如果检测到[所陈述的条件或事件]”任选地被解释为是指“在确定……时”或“响应于确定……”或“在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
本文描述了电子设备、此类设备的用户界面和使用此类设备的相关过程的实施方案。在一些实施方案中,该设备为还包含其他功能诸如PDA和/或音乐播放器功能的便携式通信设备,诸如移动电话。便携式多功能设备的示例性实施方案包括但不限于来自AppleInc.(Cupertino,California)的设备、iPod设备、和设备。任选地使用其他便携式电子设备,诸如具有触敏表面(例如,触摸屏显示器和/或触摸板)的膝上型电脑或平板电脑。还应当理解的是,在一些实施方案中,该设备并非便携式通信设备,而是具有触敏表面(例如,触摸屏显示器和/或触摸板)的台式计算机。在一些实施方案中,电子设备是(例如,经由无线通信、经由有线通信)与显示生成部件进行通信的计算机系统。显示生成部件被配置为提供视觉输出,诸如经由CRT显示器的显示、经由LED显示器的显示或者经由图像投影的显示。在一些实施方案中,显示生成部件与该计算机系统集成。在一些实施方案中,显示生成部件与该计算机系统分开。如本文所用,“显示”内容包括通过经由有线或无线连接向集成或外部显示生成部件传输数据(例如,图像数据或视频数据)以在视觉上产生内容来显示内容(例如,由显示控制器156渲染或解码的视频数据)。
在下面的讨论中,描述了一种包括显示器和触敏表面的电子设备。然而,应当理解,该电子设备任选地包括一个或多个其他物理用户界面设备,诸如物理键盘、鼠标和/或操纵杆。
该设备通常支持各种应用程序,诸如以下中的一者或多者:绘图应用程序、呈现应用程序、文字处理应用程序、网站创建应用程序、盘编辑应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息应用程序、健身支持应用程序、照片管理应用程序、数字相机应用程序、数字视频摄像机应用程序、网页浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
在设备上执行的各种应用程序任选地使用至少一个通用的物理用户界面设备,诸如触敏表面。触敏表面的一种或多种功能以及被显示在设备上的对应信息任选地对于不同应用程序被调整和/或变化,和/或在相应应用程序内被调整和/或变化。这样,设备的共用物理架构(诸如触敏表面)任选地利用对于用户而言直观且清楚的用户界面来支持各种应用程序。
现在将注意力转到具有触敏显示器的便携式设备的实施方案。图1A是示出了根据一些实施方案的具有触敏显示器系统112的便携式多功能设备100的框图。触敏显示器112有时为了方便被叫做“触摸屏”,并且有时被称为或被叫做“触敏显示器系统”。设备100包括存储器102(其任选地包括一个或多个计算机可读存储介质)、存储器控制器122、一个或多个处理单元(CPU)120、外围设备接口118、RF电路108、音频电路110、扬声器111、麦克风113、输入/输出(I/O)子系统106、其他输入控制设备116和外部端口124。设备100任选地包括一个或多个光学传感器164。设备100任选地包括用于检测设备100(例如,触敏表面,诸如设备100的触敏显示器系统112)上的接触的强度的一个或多个接触强度传感器165。设备100任选地包括用于在设备100上生成触觉输出的一个或多个触觉输出发生器167(例如,在触敏表面(诸如设备100的触敏显示器系统112或设备300的触摸板355)上生成触觉输出)。这些部件任选地通过一个或多个通信总线或信号线103进行通信。
如在本说明书和权利要求书中所使用的,术语触敏表面上的接触的“强度”是指触敏表面上的接触(例如,手指接触)的力或压力(每单位面积的力),或是指触敏表面上的接触的力或压力的替代物(代用物)。接触的强度具有值范围,该值范围包括至少四个不同的值并且更典型地包括上百个不同的值(例如,至少256个)。接触的强度任选地使用各种方法和各种传感器或传感器的组合来确定(或测量)。例如,在触敏表面下方或相邻于触敏表面的一个或多个力传感器任选地用于测量触敏表面上的不同点处的力。在一些具体实施中,来自多个力传感器的力测量值被组合(例如,加权平均)以确定所估计的接触力。类似地,触控笔的压敏顶端任选地用于确定触控笔在触敏表面上的压力。另选地,在触敏表面上检测到的接触区域的尺寸和/或其变化、接触附近的触敏表面的电容和/或其变化以及/或者接触附近的触敏表面的电阻和/或其变化任选地被用作触敏表面上的接触的力或压力的替代物。在一些具体实施中,接触力或压力的替代物测量直接用于确定是否已经超过强度阈值(例如,强度阈值以对应于替代物测量的单位来描述)。在一些具体实施中,接触力或压力的替代物测量被转换成估计的力或压力,并且估计的力或压力用于确定是否已超过强度阈值(例如,强度阈值是以压力的单位进行测量的压力阈值)。使用接触的强度作为用户输入的属性,从而允许用户访问用户在实地面积有限的尺寸更小的设备上本来不可访问的附加设备功能,该尺寸更小的设备用于(例如,在触敏显示器上)显示示能表示和/或接收用户输入(例如,经由触敏显示器、触敏表面或物理控件/机械控件,诸如旋钮或按钮)。
如本说明书和权利要求书中所使用的,术语“触觉输出”是指将由用户利用用户的触感检测到的设备相对于设备的先前位置的物理位移、设备的部件(例如,触敏表面)相对于设备的另一个部件(例如,外壳)的物理位移、或部件相对于设备的质心的位移。例如,在设备或设备的部件与用户对触摸敏感的表面(例如,手指、手掌或用户手部的其他部分)接触的情况下,通过物理位移生成的触觉输出将由用户解释为触感,该触感对应于设备或设备的部件的物理特征的所感知的变化。例如,触敏表面(例如,触敏显示器或触控板)的移动任选地由用户解释为对物理致动按钮的“按下点击”或“松开点击”。在一些情况下,用户将感觉到触感,诸如“按下点击”或“松开点击”,即使在通过用户的移动而物理地被按压(例如,被移位)的与触敏表面相关联的物理致动按钮没有移动时。又如,即使在触敏表面的光滑度无变化时,触敏表面的移动也会任选地由用户解释或感测为触敏表面的“粗糙度”。虽然用户对触摸的此类解释将受到用户的个体化感官知觉的限制,但是对触摸的许多感官知觉是大多数用户共有的。因此,当触觉输出被描述为对应于用户的特定感官知觉(例如,“按下点击”、“松开点击”、“粗糙度”)时,除非另外陈述,否则所生成的触觉输出对应于设备或其部件的物理位移,该物理位移将会生成典型(或普通)用户的所述感官知觉。
应当理解,设备100仅仅是便携式多功能设备的一个示例,并且设备100任选地具有比所示出的部件更多或更少的部件,任选地组合两个或更多个部件,或者任选地具有这些部件的不同配置或布置。图1A中所示的各种部件以硬件、软件、或硬件与软件两者的组合来实现,包括一个或多个信号处理和/或专用集成电路。
存储器102任选地包括高速随机存取存储器,并且还任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、闪存存储器设备、或其他非易失性固态存储器设备。存储器控制器122任选地控制设备100的其他部件访问存储器102。
外围设备接口118可用于将设备的输入外围设备和输出外围设备耦接到CPU 120和存储器102。该一个或多个处理器120运行或执行存储器102中所存储的各种软件程序(诸如计算机程序(例如,包括指令))和/或指令集以执行设备100的各种功能并处理数据。在一些实施方案中,外围设备接口118、CPU 120和存储器控制器122任选地被实现在单个芯片诸如芯片104上。在一些其他实施方案中,它们任选地在独立的芯片上实现。
RF(射频)电路108接收和发送也被称作电磁信号的RF信号。RF电路108将电信号转换为电磁信号/将电磁信号转换为电信号,并且经由电磁信号与通信网络及其他通信设备进行通信。RF电路108任选地包括用于执行这些功能的熟知的电路,包括但不限于天线系统、RF收发器、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、编解码芯片组、用户身份模块(SIM)卡、存储器等等。RF电路108任选地通过无线通信来与网络和其他设备进行通信,这些网络为诸如互联网(也被称为万维网(WWW))、内联网和/或无线网络(诸如,蜂窝电话网络、无线局域网(LAN)和/或城域网(MAN))。RF电路108任选地包括用于诸如通过近程通信无线电部件来检测近场通信(NFC)场的熟知的电路。无线通信任选地使用多种通信标准、协议和技术中的任一者,包括但不限于全球移动通信系统(GSM)、增强型数据GSM环境(EDGE)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、演进、纯数据(EV-DO)、HSPA、HSPA+、双单元HSPA(DC-HSPDA)、长期演进(LTE)、近场通信(NFC)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时分多址(TDMA)、蓝牙、蓝牙低功耗(BTLE)、无线保真(Wi-Fi)(例如,IEEE 802.11a、IEEE802.11b、IEEE 802.11g、IEEE 802.11n和/或IEEE802.11ac)、互联网协议语音(VoIP)、Wi-MAX、电子邮件协议(例如,互联网消息访问协议(IMAP)和/或邮局协议(POP))、即时消息(例如,可扩展消息处理和存在协议(XMPP)、用于即时消息和存在利用扩展的会话发起协议(SIMPLE)、即时消息和存在服务(IMPS))、和/或短消息服务(SMS),或者包括在本文档提交日期时还未开发出的通信协议的任何其他适当的通信协议。
音频电路110、扬声器111和麦克风113提供用户与设备100之间的音频接口。音频电路110从外围设备接口118接收音频数据,将音频数据转换为电信号,并将电信号传输到扬声器111。扬声器111将电信号转换为人类可听到的声波。音频电路110还接收由麦克风113从声波转换的电信号。音频电路110将电信号转换为音频数据,并且将音频数据传输到外围设备接口118以用于处理。音频数据任选地由外围设备接口118检索自和/或传输至存储器102和/或RF电路108。在一些实施方案中,音频电路110还包括耳麦插孔(例如,图2中的212)。耳麦插孔提供音频电路110与可移除音频输入/输出外围设备之间的接口,该外围设备为诸如仅输出的耳机或者具有输出(例如,单耳耳机或双耳耳机)和输入(例如,麦克风)两者的耳麦。
I/O子系统106将设备100上的输入/输出外围设备诸如触摸屏112和其他输入控制设备116耦接到外围设备接口118。I/O子系统106任选地包括显示控制器156、光学传感器控制器158、深度相机控制器169、强度传感器控制器159、触觉反馈控制器161,以及用于其他输入或控制设备的一个或多个输入控制器160。该一个或多个输入控制器160从其他输入控制设备116接收电信号/将电信号发送到该其他输入控制设备。该其他输入控制设备116任选地包括物理按钮(例如,下压按钮、摇臂按钮等)、拨号盘、滑动开关、操纵杆、点击式转盘等。在一些实施方案中,输入控制器160任选地耦接到以下各项中的任一者(或不耦接到以下各项中的任一者):键盘、红外线端口、USB端口,以及指向设备诸如鼠标。一个或多个按钮(例如,图2中的208)任选地包括用于扬声器111和/或麦克风113音量控制的增大/减小按钮。该一个或多个按钮任选地包括下压按钮(例如,图2中的206)。在一些实施方案中,电子设备是(例如,经由无线通信、经由有线通信)与一个或多个输入设备进行通信的计算机系统。在一些实施方案中,该一个或多个输入设备包括触敏表面(例如,触控板,作为触敏显示器的一部分)。在一些实施方案中,一个或多个输入设备包括一个或多个相机传感器(例如,一个或多个光学传感器164和/或一个或多个深度相机传感器175),诸如用于跟踪用户的手势(例如,手部手势和/或空中手势)作为输入。在一些实施方案中,一个或多个输入设备与该计算机系统集成。在一些实施方案中,一个或多个输入设备与该计算机系统分开。在一些实施方案中,空中手势是在用户不触摸作为设备的一部分的输入元件(或独立于作为设备的一部分的输入元件)的情况下检测到的并且基于所检测到的用户身体的一部分穿过空中的运动(包括用户的身体相对于绝对参考的运动(例如,用户的手臂相对于地面的角度或用户的手部相对于地面的距离)、相对于用户身体的另一部分的运动(例如,用户的手部相对于用户的肩部的移动、用户的一只手相对于用户的另一只手的移动、和/或用户的手指相对于用户的另一手指或手部的一部分的移动)、和/或用户身体的一部分的绝对运动(例如,包括手以预定姿势将移动预定量和/或速度的轻击手势、或包括用户身体的一部分的预定速度或旋转量的摇动手势))的手势。
快速按下下压按钮任选地脱离触摸屏112的锁定或者任选地开始使用触摸屏上的手势来对设备进行解锁的过程,如在2005年12月23日提交的名称为“Unlocking a Deviceby Performing Gestures on an Unlock Image”的美国专利申请11/322,549(即,美国专利No.7,657,849)中所述的,该美国专利申请据此全文以引用方式并入本文。长按下压按钮(例如206)任选地使设备100开机或关机。一个或多个按钮的功能任选地为用户可定制的。触摸屏112用于实现虚拟按钮或软按钮以及一个或多个软键盘。
触敏显示器112提供设备和用户之间的输入接口和输出接口。显示控制器156从触摸屏112接收电信号和/或将电信号发送到触摸屏112。触摸屏112向用户显示视觉输出。视觉输出任选地包括图形、文本、图标、视频以及它们的任何组合(统称为“图形”)。在一些实施方案中,一些视觉输出或全部的视觉输出任选地与用户界面对象对应。
触摸屏112具有基于触觉和/或触感接触来接受来自用户的输入的触敏表面、传感器、或传感器组。触摸屏112和显示控制器156(与存储器102中的任何相关联的模块和/或指令集一起)检测触摸屏112上的接触(和该接触的任何移动或中断),并且将所检测到的接触转换为与被显示在触摸屏112上的用户界面对象(例如,一个或多个软键、图标、网页或图像)的交互。在示例性实施方案中,触摸屏112与用户之间的接触点对应于用户的手指。
触摸屏112任选地使用LCD(液晶显示器)技术、LPD(发光聚合物显示器)技术或LED(发光二极管)技术,但是在其他实施方案中使用其他显示技术。触摸屏112和显示控制器156任选地使用现在已知的或以后将开发出的多种触摸感测技术中的任何技术以及其他接近传感器阵列或用于确定与触摸屏112接触的一个或多个点的其他元件来检测接触及其任何移动或中断,该多种触摸感测技术包括但不限于电容性的、电阻性的、红外线的、和表面声波技术。在示例性实施方案中,使用投射式互电容感测技术,诸如在来自Apple Inc.(Cupertino,California)的和iPod中使用的技术。
触摸屏112的一些实施方案中的触敏显示器任选地类似于以下美国专利中描述的多点触敏触摸板:6,323,846(Westerman等人)、6,570,557(Westerman等人)和/或6,677,932(Westerman等人)和/或美国专利公开2002/0015024A1,该每个专利据此全文以引用方式并入。然而,触摸屏112显示来自设备100的视觉输出,而触敏触摸板不提供视觉输出。
触摸屏112的一些实施方案中的触敏显示器在以下申请中有所描述:(1)2006年5月2日提交的美国专利申请11/381,313,“Multipoint Touch Surface Controller”;(2)2004年5月6日提交的美国专利申请10/840,862,“Multipoint Touchscreen”;(3)2004年7月30日提交的美国专利申请10/903,964,“Gestures For Touch Sensitive InputDevices”;(4)2005年1月31日提交的美国专利申请11/048,264,“Gestures For TouchSensitive Input Devices”;(5)2005年1月18日提交的美国专利申请11/038,590,“Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices”;(6)2005年9月16日提交的美国专利申请11/228,758,“Virtual Input Device Placement On A TouchScreen User Interface”;(7)2005年9月16日提交的美国专利申请11/228,700,“Operation Of A Computer With A Touch Screen Interface”;(8)2005年9月16日提交的美国专利申请11/228,737,“Activating Virtual Keys Of A Touch-Screen VirtualKeyboard”;以及(9)2006年3月3日提交的美国专利申请11/367,749,“Multi-FunctionalHand-Held Device”。所有这些申请全文以引用方式并入本文。
触摸屏112任选地具有超过100dpi的视频分辨率。在一些实施方案中,触摸屏具有约160dpi的视频分辨率。用户任选地使用任何合适的物体或附加物诸如触控笔、手指等等来与触摸屏112接触。在一些实施方案中,将用户界面设计为主要通过基于手指的接触和手势来工作,由于手指在触摸屏上的接触区域较大,因此这可能不如基于触控笔的输入精确。在一些实施方案中,设备将基于手指的粗略输入转化为精确的指针/光标位置或命令以用于执行用户所期望的动作。
在一些实施方案中,除了触摸屏之外,设备100任选地还包括用于激活或去激活特定功能的触控板。在一些实施方案中,触摸板是设备的触敏区域,与触摸屏不同,该触敏区域不显示视觉输出。触摸板任选地是与触摸屏112分开的触敏表面,或者是由触摸屏形成的触敏表面的延伸部分。
设备100还包括用于为各种部件供电的电力系统162。电力系统162任选地包括电力管理系统、一个或多个电源(例如,电池、交流电(AC))、再充电系统、电力故障检测电路、功率转换器或逆变器、电源状态指示符(例如,发光二极管(LED))以及与便携式设备中的电力的生成、管理和分配相关联的任何其他部件。
设备100任选地还包括一个或多个光学传感器164。图1A示出了耦接到I/O子系统106中的光学传感器控制器158的光学传感器。光学传感器164任选地包括电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)光电晶体管。光学传感器164从环境接收通过一个或多个透镜而投射的光,并且将光转换为表示图像的数据。结合成像模块143(也叫做相机模块),光学传感器164任选地捕获静态图像或视频。在一些实施方案中,光学传感器位于设备100的后部上,与设备前部上的触摸屏显示器112相背对,使得触摸屏显示器能够用作用于静态图像和/或视频图像采集的取景器。在一些实施方案中,光学传感器位于设备的前部上,使得在用户在触摸屏显示器上查看其他视频会议参与者的同时任选地获取该用户的图像以用于视频会议。在一些实施方案中,光学传感器164的位置可由用户改变(例如,通过旋转设备外壳中的透镜和传感器),使得单个光学传感器164与触摸屏显示器一起使用,以用于视频会议和静态图像和/或视频图像采集两者。
设备100任选地还包括一个或多个深度相机传感器175。图1A示出了耦接到I/O子系统106中的深度相机控制器169的深度相机传感器。深度相机传感器175从环境接收数据以从视点(例如,深度相机传感器)创建场景内的对象(例如,面部)的三维模型。在一些实施方案中,结合成像模块143(也称为相机模块),深度相机传感器175可选地用于确定由成像模块143捕获的图像的不同部分的深度图。在一些实施方案中,深度相机传感器位于设备100的前部,使得在用户在触摸屏显示器上查看其他视频会议参与者的同时任选地获取具有深度信息的用户图像以用于视频会议,并且捕捉具有深度图数据的自拍。在一些实施方案中,深度相机传感器175位于设备的后部,或者设备100的后部和前部。在一些实施方案中,深度相机传感器175的位置可由用户改变(例如,通过旋转设备外壳中的透镜和传感器),使得深度相机传感器175与触摸屏显示器一起使用以用于视频会议和静态图像和/或视频图像采集两者。
设备100任选地还包括一个或多个接触强度传感器165。图1A示出了耦接到I/O子系统106中的强度传感器控制器159的接触强度传感器。接触强度传感器165任选地包括一个或多个压阻应变仪、电容式力传感器、电气力传感器、压电力传感器、光学力传感器、电容式触敏表面或其他强度传感器(例如,用于测量触敏表面上的接触的力(或压力)的传感器)。接触强度传感器165从环境接收接触强度信息(例如,压力信息或压力信息的代用物)。在一些实施方案中,至少一个接触强度传感器与触敏表面(例如,触敏显示器系统112)并置排列或邻近。在一些实施方案中,至少一个接触强度传感器位于设备100的后部上,与位于设备100的前部上的触摸屏显示器112相背对。
设备100任选地还包括一个或多个接近传感器166。图1A示出了耦接到外围设备接口118的接近传感器166。另选地,接近传感器166任选地耦接到I/O子系统106中的输入控制器160。接近传感器166任选地如以下美国专利申请中所述的那样执行:No.11/241,839,名称为“Proximity Detector In Handheld Device”;No.11/240,788,名称为“ProximityDetector In Handheld Device”;No.11/620,702,名称为“Using Ambient Light SensorTo Augment Proximity Sensor Output”;No.11/586,862,名称为“Automated ResponseTo And Sensing Of User Activity In Portable Devices”;以及No.11/638,251,名称为“Methods And Systems For Automatic Configuration Of Peripherals”,这些美国专利申请据此全文以引用方式并入本文。在一些实施方案中,当多功能设备被置于用户的耳朵附近时(例如,当用户正在进行电话呼叫时),接近传感器关闭并且禁用触摸屏112。
设备100任选地还包括一个或多个触觉输出发生器167。图1A示出了耦接到I/O子系统106中的触觉反馈控制器161的触觉输出发生器。触觉输出发生器167任选地包括一个或多个电声设备诸如扬声器或其他音频部件;和/或用于将能量转换成线性运动的机电设备诸如电机、螺线管、电活性聚合物、压电致动器、静电致动器或其他触觉输出生成部件(例如,用于将电信号转换成设备上的触觉输出的部件)。接触强度传感器165从触觉反馈模块133接收触觉反馈生成指令,并且在设备100上生成能够由设备100的用户感觉到的触觉输出。在一些实施方案中,至少一个触觉输出发生器与触敏表面(例如,触敏显示器系统112)并置排列或邻近,并且任选地通过竖直地(例如,向设备100的表面内/外)或侧向地(例如,在与设备100的表面相同的平面中向后和向前)移动触敏表面来生成触觉输出。在一些实施方案中,至少一个触觉输出发生器传感器位于设备100的后部上,与位于设备100的前部上的触摸屏显示器112相背对。
设备100任选地还包括一个或多个加速度计168。图1A示出了耦接到外围设备接口118的加速度计168。另选地,加速度计168任选地耦接到I/O子系统106中的输入控制器160。加速度计168任选地如以下美国专利公开中所述的那样执行:美国专利公开No.20050190059,名称为“Acceleration-based Theft Detection System for PortableElectronic Devices”和美国专利公开No.20060017692,名称为“Methods AndApparatuses For Operating A Portable Device Based On An Accelerometer”,这两个美国专利公开均全文以引用方式并入本文。在一些实施方案中,基于对从一个或多个加速度计接收的数据的分析来在触摸屏显示器上以纵向视图或横向视图显示信息。设备100任选地除了加速度计168之外还包括磁力仪和GPS(或GLONASS或其他全球导航系统)接收器,以用于获取关于设备100的位置和取向(例如,纵向或横向)的信息。
在一些实施方案中,存储于存储器102中的软件部件包括操作系统126、通信模块(或指令集)128、接触/运动模块(或指令集)130、图形模块(或指令集)132、文本输入模块(或指令集)134、全球定位系统(GPS)模块(或指令集)135以及应用程序(或指令集)136。此外,在一些实施方案中,存储器102(图1A)或370(图3)存储设备/全局内部状态157,如图1A和图3中所示。设备/全局内部状态157包括以下中的一者或多者:活动应用程序状态,其指示哪些应用程序(如果有的话)当前是活动的;显示状态,指示什么应用、视图或其他信息占据了触摸屏显示器112的各个区域;传感器状态,包括从设备的各个传感器和输入控制设备116获得的信息;以及涉及设备位置和/或姿态的位置信息。
操作系统126(例如,Darwin、RTXC、LINUX、UNIX、OS X、iOS、WINDOWS或嵌入式操作系统诸如VxWorks)包括用于控制和管理一般系统任务(例如,存储器管理、存储设备控制、功率管理等)的各种软件部件和/或驱动器,并且促进各种硬件部件和软件部件之间的通信。
通信模块128有利于通过一个或多个外部端口124来与其他设备进行通信,并且还包括用于处理由RF电路108和/或外部端口124所接收的数据的各种软件组件。外部端口124(例如,通用串行总线(USB)、火线等)适于直接耦接到其他设备,或间接地通过网络(例如,互联网、无线LAN等)进行耦接。在一些实施方案中,外部端口是与(Apple Inc.的商标)设备上所使用的30针连接器相同的或类似的和/或与其兼容的多针(例如,30针)连接器。
接触/运动模块130任选地检测与触摸屏112(结合显示控制器156)和其他触敏设备(例如,触摸板或物理点击式转盘)的接触。接触/运动模块130包括各种软件部件以用于执行与接触检测相关的各种操作,诸如确定是否已经发生了接触(例如,检测手指按下事件)、确定接触强度(例如,接触的力或压力,或者接触的力或压力的替代物)、确定是否存在接触的移动并跟踪在触敏表面上的移动(例如,检测一个或多个手指拖动事件),以及确定接触是否已经停止(例如,检测手指抬起事件或者接触断开)。接触/运动模块130从触敏表面接收接触数据。确定接触点的移动任选地包括确定接触点的速率(量值)、速度(量值和方向)和/或加速度(量值和/或方向的改变),所述接触点的移动由一系列接触数据表示。这些操作任选地被应用于单点接触(例如,单指接触)或者多点同时接触(例如,“多点触摸”/多个手指接触)。在一些实施方案中,接触/运动模块130和显示控制器156检测触摸板上的接触。
在一些实施方案中,接触/运动模块130使用一组一个或多个强度阈值来确定操作是否已由用户执行(例如,确定用户是否已“点击”图标)。在一些实施方案中,根据软件参数来确定强度阈值的至少一个子集(例如,强度阈值不是由特定物理致动器的激活阈值来确定的,并且可在不改变设备100的物理硬件的情况下被调节)。例如,在不改变触控板或触摸屏显示器硬件的情况下,触控板或触摸屏的鼠标“点击”阈值可被设定成预定义的阈值的大范围中的任一个阈值。另外,在一些具体实施中,向设备的用户提供用于调节一组强度阈值中的一个或多个强度阈值(例如,通过调节各个强度阈值和/或通过利用对“强度”参数的系统级点击来一次调节多个强度阈值)的软件设置。
接触/运动模块130任选地检测由用户进行的手势输入。触敏表面上的不同手势具有不同的接触模式(例如,所检测到的接触的不同运动、计时和/或强度)。因此,任选地通过检测特定接触模式来检测手势。例如,检测手指轻击手势包括检测手指按下事件,然后在与手指按下事件相同的位置(或基本上相同的位置)处(例如,在图标的位置处)检测手指抬起(抬离)事件。作为另一个示例,在触敏表面上检测手指轻扫手势包括检测手指按下事件,然后检测一个或多个手指拖动事件,并且随后检测手指抬起(抬离)事件。
图形模块132包括用于在触摸屏112或其他显示器上呈现和显示图形的各种已知的软件部件,包括用于改变所显示的图形的视觉冲击(例如,亮度、透明度、饱和度、对比度或其他视觉属性)的部件。如本文所用,术语“图形”包括可被显示给用户的任何对象,包括但不限于文本、网页、图标(诸如,包括软键的用户界面对象)、数字图像、视频、动画等。
在一些实施方案中,图形模块132存储表示待使用的图形的数据。每个图形任选地被分配有对应的代码。图形模块132从应用程序等接收用于指定待显示的图形的一个或多个代码,在必要的情况下还一起接收坐标数据和其他图形属性数据,并且然后生成屏幕图像数据,以输出至显示控制器156。
触觉反馈模块133包括用于生成指令的各种软件部件,该指令由触觉输出发生器167用于响应于用户与设备100的交互而在设备100上的一个或多个位置处产生触觉输出。
任选地为图形模块132的部件的文本输入模块134提供用于在各种应用程序(例如,联系人137、电子邮件140、IM 141、浏览器147和需要文本输入的任何其他应用程序)中输入文本的软键盘。
GPS模块135确定设备的位置,并提供该信息以供在各种应用程序中使用(例如提供给电话138以供在基于位置的拨号中使用;提供给相机143作为图片/视频元数据;以及提供给提供基于位置的服务的应用程序,诸如天气小组件、本地黄页小组件和地图/导航小组件)。
应用程序136任选地包括以下模块(或指令集)或者其子集或超集:
·联系人模块137(有时称为通讯录或联系人列表);
·电话模块138;
·视频会议模块139;
·电子邮件客户端模块140;
·即时消息(IM)模块141;
·健身支持模块142;
·用于静态图像和/或视频图像的相机模块143;
·图像管理模块144;
·视频播放器模块;
·音乐播放器模块;
·浏览器模块147;
·日历模块148;
·小组件模块149,其任选地包括以下各项中的一者或多者:天气小组件149-1、股市小组件149-2、计算器小组件149-3、闹钟小组件149-4、词典小组件149-5、和由用户获取的其他小组件、以及用户创建的小组件149-6;
·用于形成用户创建的小组件149-6的小组件创建器模块150;
·搜索模块151;
·视频和音乐播放器模块152,其合并视频播放器模块和音乐播放器模块;
·笔记模块153;
·地图模块154;和/或
·在线视频模块155。
任选地存储在存储器102中的其他应用程序136的示例包括其他文字处理应用程序、其他图像编辑应用程序、绘图应用程序、呈现应用程序、支持JAVA的应用程序、加密、数字权益管理、语音识别和语音复制。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、和文本输入模块134,联系人模块137任选地用于管理通讯录或联系人列表(例如,存储在存储器102或存储器370中的联系人模块137的应用程序内部状态192中),包括:向通讯录添加一个或多个姓名;从通讯录删除姓名;将电话号码、电子邮件地址、物理地址或其他信息与姓名关联;将图像与姓名关联;对姓名进行归类和分类;提供电话号码或电子邮件地址来发起和/或促进通过电话138、视频会议模块139、电子邮件140或IM 141进行的通信;等等。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电话模块138任选地用于输入与电话号码对应的字符序列、访问联系人模块137中的一个或多个电话号码、修改已输入的电话号码、拨打相应的电话号码、进行会话,以及当会话完成时断开或挂断。如上所述,无线通信任选地使用多种通信标准、协议和技术中的任一种。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132、文本输入模块134、联系人模块137和电话模块138,视频会议模块139包括根据用户指令来发起、进行和终止用户与一个或多个其他参与方之间的视频会议的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电子邮件客户端模块140包括响应于用户指令来创建、发送、接收和管理电子邮件的可执行指令。结合图像管理模块144,电子邮件客户端模块140使得非常容易创建和发送具有由相机模块143拍摄的静态图像或视频图像的电子邮件。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,即时消息模块141包括用于以下操作的可执行指令:输入与即时消息对应的字符序列、修改先前输入的字符、传输相应即时消息(例如,使用短消息服务(SMS)或多媒体消息服务(MMS)协议以用于基于电话的即时消息或者使用XMPP、SIMPLE、或IMPS以用于基于互联网的即时消息)、接收即时消息以及查看所接收的即时消息。在一些实施方案中,所传输和/或接收的即时消息任选地包括图形、照片、音频文件、视频文件和/或MMS和/或增强消息服务(EMS)中所支持的其他附件。如本文所用,“即时消息”是指基于电话的消息(例如,使用SMS或MMS发送的消息)和基于互联网的消息(例如,使用XMPP、SIMPLE或IMPS发送的消息)两者。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135、地图模块154和音乐播放器模块,健身支持模块142包括用于创建健身(例如,具有时间、距离和/或卡路里燃烧目标)的可执行指令;与健身传感器(运动设备)进行通信;接收健身传感器数据;校准用于监视健身的传感器;为健身选择和播放音乐;以及显示、存储和传输健身数据。
结合触摸屏112、显示控制器156、光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132和图像管理模块144,相机模块143包括用于以下操作的可执行指令:捕获静态图像或视频(包括视频流)并且将它们存储到存储器102中、修改静态图像或视频的特征,或从存储器102删除静态图像或视频。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、和相机模块143,图像管理模块144包括用于排列、修改(例如,编辑)、或以其他方式操控、加标签、删除、呈现(例如,在数字幻灯片或专辑中)、以及存储静态图像和/或视频图像的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,浏览器模块147包括用于根据用户指令来浏览互联网,包括搜索、链接至、接收和显示网页或其部分,以及链接至网页的附件和其他文件的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、电子邮件客户端模块140和浏览器模块147,日历模块148包括根据用户指令来创建、显示、修改和存储日历以及与日历相关联的数据(例如,日历条目、待办事项等)的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,小组件模块149是任选地由用户下载和使用的微型应用程序(例如,天气小组件149-1、股市小组件149-2、计算器小组件149-3、闹钟小组件149-4和词典小组件149-5)或由用户创建的微型应用程序(例如,用户创建的小组件149-6)。在一些实施方案中,小组件包括HTML(超文本标记语言)文件、CSS(层叠样式表)文件和JavaScript文件。在一些实施方案中,小组件包括XML(可扩展标记语言)文件和JavaScript文件(例如,Yahoo!小组件)。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,小组件创建器模块150任选地被用户用于创建小组件(例如,将网页的用户指定部分转变为小组件)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,搜索模块151包括用于根据用户指令来搜索存储器102中与一个或多个搜索条件(例如,一个或多个用户指定的搜索词)匹配的文本、音乐、声音、图像、视频和/或其他文件的可执行指令。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108、和浏览器模块147,视频和音乐播放器模块152包括允许用户下载和回放以一种或多种文件格式诸如MP3或AAC文件存储的所记录的音乐和其他声音文件的可执行指令,以及用于显示、呈现或以其他方式回放视频(例如,在触摸屏112上或在经由外部端口124连接的外部显示器上)的可执行指令。在一些实施方案中,设备100任选地包括MP3播放器诸如iPod(Apple Inc.的商标)的功能。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,笔记模块153包括用于根据用户指令来创建和管理笔记、待办事项等的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135和浏览器模块147,地图模块154任选地用于根据用户指令接收、显示、修改和存储地图以及与地图相关联的数据(例如,驾驶方向、与特定位置处或附近的商店及其他兴趣点有关的数据,以及其他基于位置的数据)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108、文本输入模块134、电子邮件客户端模块140和浏览器模块147,在线视频模块155包括用于执行以下操作的指令:允许用户访问、浏览、接收(例如,通过流式传输和/或下载)、回放(例如在触摸屏上或在经由外部端口124所连接的外部显示器上)、发送具有至特定在线视频的链接的电子邮件,以及以其他方式管理一种或多种文件格式诸如H.264的在线视频。在一些实施方案中,使用即时消息模块141而不是电子邮件客户端模块140来发送特定在线视频的链接。在线视频应用程序的其他描述可见于2007年6月20日提交的名称为“Portable Multifunction Device,Method,and Graphical User Interfacefor Playing Online Videos”的美国临时专利申请No.60/936,562和2007年12月31日提交的名称为“Portable Multifunction Device,Method,and Graphical User Interfacefor Playing Online Videos”的美国专利申请No.11/968,067,这两个专利申请的内容据此全文以引用方式并入本文。
上述每个模块和应用程序对应于用于执行上述一种或多种功能以及在本专利申请中所述的方法(例如,本文所述的计算机实现的方法和其他信息处理方法)的可执行指令集。这些模块(例如,指令集)不必以独立的软件程序(诸如计算机程序(例如,包括指令))、过程或模块实现,因此这些模块的各种子集任选地在各种实施方案中组合或以其他方式重新布置。例如,视频播放器模块任选地与音乐播放器模块组合成单个模块(例如,图1A中的视频和音乐播放器模块152)。在一些实施方案中,存储器102任选地存储上述模块和数据结构的子组。此外,存储器102任选地存储上文未描述的另外的模块和数据结构。
在一些实施方案中,设备100是该设备上的预定义的一组功能的操作唯一地通过触摸屏和/或触摸板来执行的设备。通过使用触摸屏和/或触摸板作为用于操作设备100的主要输入控制设备,任选地减少设备100上的物理输入控制设备(例如,下压按钮、拨盘等等)的数量。
唯一地通过触摸屏和/或触摸板来执行的预定义的一组功能任选地包括在用户界面之间的导航。在一些实施方案中,触摸板在被用户触摸时将设备100从设备100上显示的任何用户界面导航到主菜单、home菜单或根菜单。在此类实施方案中,使用触摸板来实现“菜单按钮”。在一些其他实施方案中,菜单按钮是物理下压按钮或者其他物理输入控制设备,而不是触摸板。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框图。在一些实施方案中,存储器102(图1A)或存储器370(图3)包括事件分类器170(例如,在操作系统126中)以及相应的应用程序136-1(例如,前述应用程序137至151、155、380至390中的任一个应用程序)。
事件分类器170接收事件信息并确定要将事件信息递送到的应用程序136-1和应用程序136-1的应用程序视图191。事件分类器170包括事件监视器171和事件分配器模块174。在一些实施方案中,应用程序136-1包括应用程序内部状态192,该应用程序内部状态指示当应用程序是活动的或正在执行时被显示在触敏显示器112上的一个或多个当前应用程序视图。在一些实施方案中,设备/全局内部状态157被事件分类器170用来确定哪个(哪些)应用程序当前是活动的,并且应用程序内部状态192被事件分类器170用来确定要将事件信息递送到的应用程序视图191。
在一些实施方案中,应用程序内部状态192包括附加信息,诸如以下各项中的一者或多者:当应用程序136-1恢复执行时将被使用的恢复信息、指示信息正被显示或准备好用于被应用程序136-1显示的用户界面状态信息、用于使得用户能够返回到应用程序136-1的前一状态或视图的状态队列,以及用户采取的先前动作的重复/撤销队列。
事件监视器171从外围设备接口118接收事件信息。事件信息包括关于子事件(例如,触敏显示器112上的用户触摸,作为多点触摸手势的一部分)的信息。外围设备接口118传输其从I/O子系统106或传感器诸如接近传感器166、一个或多个加速度计168和/或麦克风113(通过音频电路110)接收的信息。外围设备接口118从I/O子系统106接收的信息包括来自触敏显示器112或触敏表面的信息。
在一些实施方案中,事件监视器171以预先确定的间隔将请求发送至外围设备接口118。作为响应,外围设备接口118传输事件信息。在其他实施方案中,外围设备接口118仅当存在显著事件(例如,接收到高于预先确定的噪声阈值和/或接收到超过预先确定的持续时间的输入)时才传输事件信息。
在一些实施方案中,事件分类器170还包括命中视图确定模块172和/或活动事件识别器确定模块173。
当触敏显示器112显示多于一个视图时,命中视图确定模块172提供用于确定子事件已在一个或多个视图内的什么地方发生的软件过程。视图由用户能够在显示器上看到的控件和其他元素构成。
与应用程序相关联的用户界面的另一方面是一组视图,本文中有时也称为应用程序视图或用户界面窗口,在其中显示信息并且发生基于触摸的手势。在其中检测到触摸的(相应应用程序的)应用程序视图任选地对应于在应用程序的程序化或视图分级结构内的程序化水平。例如,在其中检测到触摸的最低水平视图任选地被称为命中视图,并且被辨别为正确输入的事件集任选地至少部分地基于初始触摸的命中视图来确定,所述初始触摸开始基于触摸的手势。
命中视图确定模块172接收与基于触摸的手势的子事件相关的信息。当应用程序具有以分级结构组织的多个视图时,命中视图确定模块172将命中视图识别为应当对子事件进行处理的分级结构中的最低视图。在大多数情况下,命中视图是发起子事件(例如,形成事件或潜在事件的子事件序列中的第一子事件)在其中发生的最低水平视图。一旦命中视图被命中视图确定模块172识别,命中视图便通常接收与其被识别为命中视图所针对的同一触摸或输入源相关的所有子事件。
活动事件识别器确定模块173确定视图分级结构内的哪个或哪些视图应接收特定子事件序列。在一些实施方案中,活动事件识别器确定模块173确定仅命中视图应接收特定子事件序列。在其他实施方案中,活动事件识别器确定模块173确定包括子事件的物理位置的所有视图是活跃参与的视图,并因此确定所有活跃参与的视图都应接收特定子事件序列。在其他实施方案中,即使触摸子事件完全被局限到与一个特定视图相关联的区域,分级结构中的较高视图将仍然保持为活跃参与的视图。
事件分配器模块174将事件信息分配到事件识别器(例如,事件识别器180)。在包括活动事件识别器确定模块173的实施方案中,事件分配器模块174将事件信息递送到由活动事件识别器确定模块173确定的事件识别器。在一些实施方案中,事件分配器模块174在事件队列中存储事件信息,该事件信息由相应事件接收器182进行检索。
在一些实施方案中,操作系统126包括事件分类器170。另选地,应用程序136-1包括事件分类器170。在又一个实施方案中,事件分类器170是独立模块,或者是存储在存储器102中的另一个模块(诸如,接触/运动模块130)的一部分。
在一些实施方案中,应用程序136-1包括多个事件处理程序190和一个或多个应用程序视图191,其中的每一个都包括用于处理发生在应用程序的用户界面的相应视图内的触摸事件的指令。应用程序136-1的每个应用程序视图191包括一个或多个事件识别器180。通常,相应应用程序视图191包括多个事件识别器180。在其他实施方案中,事件识别器180中的一个或多个事件识别器是独立模块的一部分,该独立模块为诸如用户界面工具包或应用程序136-1从中继承方法和其他属性的更高级别的对象。在一些实施方案中,相应事件处理程序190包括以下各项中的一者或多者:数据更新器176、对象更新器177、GUI更新器178、和/或从事件分类器170接收的事件数据179。事件处理程序190任选地利用或调用数据更新器176、对象更新器177或GUI更新器178来更新应用程序内部状态192。另选地,应用程序视图191中的一个或多个应用程序视图包括一个或多个相应事件处理程序190。另外,在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178中的一者或多者被包括在相应应用程序视图191中。
相应的事件识别器180从事件分类器170接收事件信息(例如,事件数据179),并且根据事件信息识别事件。事件识别器180包括事件接收器182和事件比较器184。在一些实施方案中,事件识别器180还包括元数据183和事件传递指令188(其任选地包括子事件递送指令)的至少一个子集。
事件接收器182从事件分类器170接收事件信息。事件信息包括关于子事件例如触摸或触摸移动的信息。根据子事件,事件信息还包括附加信息,诸如子事件的位置。当子事件涉及触摸的运动时,事件信息任选地还包括子事件的速率和方向。在一些实施方案中,事件包括设备从一个取向旋转到另一取向(例如,从纵向取向旋转到横向取向,或反之亦然),并且事件信息包括关于设备的当前取向(也被称为设备姿态)的对应信息。
事件比较器184将事件信息与预定义的事件或子事件定义进行比较,并且基于该比较来确定事件或子事件,或者确定或更新事件或子事件的状态。在一些实施方案中,事件比较器184包括事件定义186。事件定义186包含事件的定义(例如,预定义的子事件序列),例如事件1(187-1)、事件2(187-2)以及其他。在一些实施方案中,事件(187)中的子事件例如包括触摸开始、触摸结束、触摸移动、触摸取消和多点触摸。在一个示例中,事件1(187-1)的定义是被显示对象上的双击。例如,双击包括被显示对象上的预先确定时长的第一触摸(触摸开始)、预先确定时长的第一抬离(触摸结束)、被显示对象上的预先确定时长的第二触摸(触摸开始)以及预先确定时长的第二抬离(触摸结束)。在另一个示例中,事件2(187-2)的定义是被显示对象上的拖动。例如,拖动包括被显示对象上的预先确定时长的触摸(或接触)、触摸在触敏显示器112上的移动、以及触摸的抬离(触摸结束)。在一些实施方案中,事件还包括用于一个或多个相关联的事件处理程序190的信息。
在一些实施方案中,事件定义187包括对用于相应用户界面对象的事件的定义。在一些实施方案中,事件比较器184执行命中测试以确定哪个用户界面对象与子事件相关联。例如,在触敏显示器112上显示三个用户界面对象的应用程序视图中,当在触敏显示器112上检测到触摸时,事件比较器184执行命中测试以确定这三个用户界面对象中的哪一个用户界面对象与该触摸(子事件)相关联。如果每个所显示对象与相应事件处理程序190相关联,则事件比较器使用该命中测试的结果来确定哪个事件处理程序190应当被激活。例如,事件比较器184选择与子事件和触发该命中测试的对象相关联的事件处理程序。
在一些实施方案中,相应事件(187)的定义还包括延迟动作,该延迟动作延迟事件信息的递送,直到已确定子事件序列确实对应于或不对应于事件识别器的事件类型。
当相应事件识别器180确定子事件序列不与事件定义186中的任何事件匹配时,该相应事件识别器180进入事件不可能、事件失败或事件结束状态,在此之后忽略基于触摸的手势的后续子事件。在这种情况下,对于命中视图保持活动的其他事件识别器(如果有的话)继续跟踪并处理持续进行的基于触摸的手势的子事件。
在一些实施方案中,相应事件识别器180包括具有指示事件递送系统应当如何执行对活跃参与的事件识别器的子事件递送的可配置属性、标记和/或列表的元数据183。在一些实施方案中,元数据183包括指示事件识别器彼此如何交互或如何能够交互的可配置属性、标志和/或列表。在一些实施方案中,元数据183包括指示子事件是否递送到视图或程序化分级结构中的不同层级的可配置属性、标志和/或列表。
在一些实施方案中,当事件的一个或多个特定子事件被识别时,相应事件识别器180激活与事件相关联的事件处理程序190。在一些实施方案中,相应事件识别器180将与事件相关联的事件信息递送到事件处理程序190。激活事件处理程序190不同于将子事件发送(和延期发送)到相应命中视图。在一些实施方案中,事件识别器180抛出与所辨别出的事件相关联的标记,并且与该标记相关联的事件处理程序190获取该标记并执行预定义过程。
在一些实施方案中,事件递送指令188包括递送关于子事件的事件信息而不激活事件处理程序的子事件递送指令。相反,子事件递送指令将事件信息递送到与子事件序列相关联的事件处理程序或者递送到活跃参与的视图。与子事件序列或与活跃参与的视图相关联的事件处理程序接收事件信息并执行预先确定的过程。
在一些实施方案中,数据更新器176创建并更新在应用程序136-1中使用的数据。例如,数据更新器176对联系人模块137中所使用的电话号码进行更新,或者对视频播放器模块中所使用的视频文件进行存储。在一些实施方案中,对象更新器177创建并更新在应用程序136-1中使用的对象。例如,对象更新器177创建新的用户界面对象或更新用户界面对象的位置。GUI更新器178更新GUI。例如,GUI更新器178准备显示信息,并且将显示信息发送到图形模块132用以显示在触敏显示器上。
在一些实施方案中,事件处理程序190包括数据更新器176、对象更新器177和GUI更新器178,或具有对该数据更新器、该对象更新器和该GUI更新器的访问权限。在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178被包括在相应应用程序136-1或应用程序视图191的单个模块中。在其他实施方案中,它们被包括在两个或更多个软件模块中。
应当理解,关于触敏显示器上的用户触摸的事件处理的上述论述还适用于利用输入设备来操作多功能设备100的其他形式的用户输入,并不是所有用户输入都是在触摸屏上发起的。例如,任选地与单次或多次键盘按下或按住协作的鼠标移动和鼠标按钮按下;触摸板上的接触移动,诸如轻击、拖动、滚动等;触控笔输入;设备的移动;口头指令;检测到的眼睛移动;生物特征输入;和/或它们的任何组合任选地被用作对应于限定要辨别的事件的子事件的输入。
图2示出了根据一些实施方案的具有触摸屏112的便携式多功能设备100。触摸屏任选地在用户界面(UI)200内显示一个或多个图形。在本实施方案以及下文所述的其他实施方案中,用户能够通过例如利用一根或多根手指202(在图中未按比例绘制)或一支或多支触控笔203(在图中未按比例绘制)在图形上作出手势来选择这些图形中的一个或多个图形。在一些实施方案中,当用户中断与一个或多个图形的接触时,将发生对一个或多个图形的选择。在一些实施方案中,手势任选地包括一次或多次轻击、一次或多次轻扫(从左向右、从右向左、向上和/或向下)和/或已与设备100发生接触的手指的滚动(从右向左、从左向右、向上和/或向下)。在一些具体实施中或在一些情况下,不经意地与图形接触不会选择图形。例如,当与选择对应的手势是轻击时,在应用程序图标上方扫动的轻扫手势任选地不会选择对应的应用程序。
设备100任选地还包括一个或多个物理按钮,诸如“home”或菜单按钮204。如前所述,菜单按钮204任选地用于导航到任选地在设备100上被执行的一组应用程序中的任何应用程序136。另选地,在一些实施方案中,菜单按钮被实现为被显示在触摸屏112上的GUI中的软键。
在一些实施方案中,设备100包括触摸屏112、菜单按钮204、用于使设备开机/关机和用于锁定设备的下压按钮206、一个或多个音量调节按钮208、用户身份模块(SIM)卡槽210、耳麦插孔212和对接/充电外部端口124。下压按钮206任选地用于通过压下该按钮并且将该按钮保持在压下状态持续预定义的时间间隔来对设备进行开/关机;通过压下该按钮并在该预定义的时间间隔过去之前释放该按钮来锁定设备;和/或对设备进行解锁或发起解锁过程。在另选的实施方案中,设备100还通过麦克风113接受用于激活或去激活某些功能的语音输入。设备100还任选地包括用于检测触摸屏112上的接触的强度的一个或多个接触强度传感器165,和/或用于为设备100的用户生成触觉输出的一个或多个触觉输出发生器167。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。设备300不必是便携式的。在一些实施方案中,设备300是膝上型电脑、台式计算机、平板电脑、多媒体播放器设备、导航设备、教育设备(诸如儿童学习玩具)、游戏系统或控制设备(例如,家用控制器或工业用控制器)。设备300通常包括一个或多个处理单元(CPU)310、一个或多个网络或其他通信接口360、存储器370和用于使这些部件互连的一条或多条通信总线320。通信总线320任选地包括使系统部件互连并且控制系统部件之间的通信的电路(有时称作芯片组)。设备300包括具有显示器340的输入/输出(I/O)接口330,该显示器通常是触摸屏显示器。I/O接口330还任选地包括键盘和/或鼠标(或其他指向设备)350和触摸板355、用于在设备300上生成触觉输出的触觉输出发生器357(例如,类似于上文参考图1A所述的触觉输出发生器167)、传感器359(例如,光学传感器、加速度传感器、接近传感器、触敏传感器和/或接触强度传感器(类似于上文参考图1A所述的接触强度传感器165))。存储器370包括高速随机存取存储器,诸如DRAM、SRAM、DDRRAM,或其他随机存取固态存储器设备;并且任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器370任选地包括远离CPU 310定位的一个或多个存储设备。在一些实施方案中,存储器370存储与便携式多功能设备100(图1A)的存储器102中存储的程序、模块和数据结构类似的程序、模块和数据结构或其子集。此外,存储器370任选地存储在便携式多功能设备100的存储器102中不存在的附加程序、模块和数据结构。例如,设备300的存储器370任选地存储绘图模块380、呈现模块382、文字处理模块384、网站创建模块386、盘编辑模块388、和/或电子表格模块390,而便携式多功能设备100(图1A)的存储器102任选地不存储这些模块。
图3中的上述元素中的每个元素任选地存储于先前提到的存储器设备的一个或多个存储器设备中。上述模块中的每个模块对应于用于执行上述功能的指令集。上述模块或计算机程序(例如,指令集或包括指令)不必以单独的软件程序(诸如计算机程序(例如,包括指令))、过程或模块实现,并且因此这些模块的各种子集任选地在各种实施方案中被组合或以其他方式重新布置。在一些实施方案中,存储器370任选地存储上述模块和数据结构的子组。此外,存储器370任选地存储上文未描述的附加模块和数据结构。
现在将注意力转到任选地在例如便携式多功能设备100上实现的用户界面的实施方案。
图4A示出了根据一些实施方案的便携式多功能设备100上的应用程序菜单的示例性用户界面。类似的用户界面任选地在设备300上实现。在一些实施方案中,用户界面400包括以下元件或者其子集或超集:
·无线通信诸如蜂窝信号和Wi-Fi信号的信号强度指示符402;
·时间404;
·蓝牙指示符405;
·电池状态指示符406;
·具有针对常用应用程序的图标的托盘408,该图标诸如:
o电话模块138的被标记为“电话”的图标416,该图标416任选地包括未接来电或语音信箱的数量的指示符414;
o电子邮件客户端模块140的被标记为“邮件”的图标418,该图标418任选地包括未读电子邮件的数量的指示符410;
o浏览器模块147的标记为“浏览器”的图标420;以及
o视频和音乐播放器模块152(也称为iPod(苹果公司(AppleInc.)的商标)模块152)的被标记为“iPod”的图标422;以及
·其他应用程序的图标,诸如:
o IM模块141的被标记为“消息”的图标424;
o日历模块148的被标记为“日历”的图标426;
o图像管理模块144的被标记为“照片”的图标428;
o相机模块143的被标记为“相机”的图标430;
o在线视频模块155的被标记为“在线视频”的图标432;
o股市小组件149-2的被标记为“股市”的图标434;
o地图模块154的被标记为“地图”的图标436;
o天气小组件149-1的被标记为“天气”的图标438;
o闹钟小组件149-4的被标记为“时钟”的图标440;
o健身支持模块142的被标记为“健身支持”的图标442;
o笔记模块153的标记为“笔记”的图标444;以及
o设置应用程序或模块的被标记为“设置”的图标446,该图标提供对设备100及其各种应用程序136的设置的访问。
应当指出的是,图4A中示出的图标标签仅仅是示例性的。例如,视频和音乐播放器模块152的图标422被标记“音乐”或“音乐播放器”。对于各种应用程序图标任选地使用其他标签。在一些实施方案中,相应应用程序图标的标签包括与该相应应用程序图标对应的应用程序的名称。在一些实施方案中,特定应用程序图标的标签不同于与该特定应用程序图标对应的应用程序的名称。
图4B示出了具有与显示器450(例如,触摸屏显示器112)分开的触敏表面451(例如,图3的平板电脑或触摸板355)的设备(例如,图3的设备300)上的示例性用户界面。设备300还任选地包括用于检测触敏表面451上的接触的强度的一个或多个接触强度传感器(例如,传感器359中的一个或多个传感器)和/或用于为设备300的用户生成触觉输出的一个或多个触觉输出发生器357。
尽管将参考触摸屏显示器112(其中组合了触敏表面和显示器)上的输入给出以下示例中的一些示例,但是在一些实施方案中,设备检测与显示器分开的触敏表面上的输入,如图4B中所示。在一些实施方案中,触敏表面(例如,图4B中的451)具有与显示器(例如,450)上的主轴(例如,图4B中的453)对应的主轴(例如,图4B中的452)。根据这些实施方案,设备检测在与显示器上的相应位置对应的位置(例如,在图4B中,460对应于468并且462对应于470)处与触敏表面451的接触(例如,图4B中的460和462)。这样,当触敏表面(例如,图4B中的451)与多功能设备的显示器(例如,图4B中的450)分开时,由设备在该触敏表面上检测到的用户输入(例如,接触460和462以及它们的移动)被该设备用于操纵该显示器上的用户界面。应当理解,类似的方法任选地用于本文所述的其他用户界面。
另外,虽然主要是参考手指输入(例如,手指接触、单指轻击手势、手指轻扫手势)来给出下面的示例,但是应当理解的是,在一些实施方案中,这些手指输入中的一个或多个手指输入由来自另一输入设备的输入(例如,基于鼠标的输入或触控笔输入)替代。例如,轻扫手势任选地由鼠标点击(例如,而不是接触),之后是光标沿着轻扫的路径的移动(例如,而不是接触的移动)替代。又如,轻击手势任选地由在光标位于轻击手势的位置上方时的鼠标点击(例如,代替对接触的检测,之后是停止检测接触)替代。类似地,当同时检测到多个用户输入时,应当理解的是,多个计算机鼠标任选地被同时使用,或鼠标和手指接触任选地被同时使用。
图5A示出了示例性个人电子设备500。设备500包括主体502。在一些实施方案中,设备500可包括相对于设备100和300(例如,图1A至图4B)所述的特征中的一些或全部特征。在一些实施方案中,设备500具有在下文中称为触摸屏504的触敏显示屏504。作为触摸屏504的替代或补充,设备500具有显示器和触敏表面。与设备100和300的情况一样,在一些实施方案中,触摸屏504(或触敏表面)任选地包括用于检测所施加的接触(例如,触摸)强度的一个或多个强度传感器。触摸屏504(或触敏表面)的一个或多个强度传感器可提供表示触摸的强度的输出数据。设备500的用户界面可基于触摸的强度来对触摸作出响应,这意味着不同强度的触摸可调用设备500上的不同用户界面操作。
用于检测和处理触摸强度的示例性技术见于例如以下相关专利申请中:2013年5月8日提交的名称为“Device,Method,and Graphical User Interface for DisplayingUser Interface Objects Corresponding to an Application”的国际专利申请序列No.PCT/US2013/040061,发布为WIPO专利公开No.WO/2013/169849;以及2013年11月11日提交的名称为“Device,Method,and Graphical User Interface for TransitioningBetween Touch Input to Display Output Relationships”的国际专利申请序列No.PCT/US2013/069483,发布为WIPO专利公开No.WO/2014/105276,该每个专利申请据此全文以引用方式并入。
在一些实施方案中,设备500具有一个或多个输入机构506和508。输入机构506和508(如果包括的话)可以是物理形式的。物理输入机构的示例包括下压按钮和可旋转机构。在一些实施方案中,设备500具有一个或多个附接机构。此类附接机构(如果包括的话)可允许将设备500与例如帽子、眼镜、耳环、项链、衬衣、夹克、手镯、表带、手链、裤子、皮带、鞋子、钱包、背包等附接。这些附接机构允许用户穿戴设备500。
图5B描绘了示例性个人电子设备500。在一些实施方案中,设备500可包括参考图1A、图1B和图3所述的部件中的一些或全部部件。设备500具有总线512,该总线将I/O部分514与一个或多个计算机处理器516和存储器518操作性地耦接。I/O部分514可连接到显示器504,该显示器可具有触敏部件522并且任选地具有强度传感器524(例如,接触强度传感器)。此外,I/O部分514可与通信单元530连接,用于使用Wi-Fi、蓝牙、近场通信(NFC)、蜂窝和/或其他无线通信技术来接收应用程序和操作系统数据。设备500可包括输入机构506和/或508。例如,输入机构506任选地是可旋转输入设备或者可按压输入设备以及可旋转输入设备。在一些示例中,输入机构508任选地是按钮。
在一些示例中,输入机构508任选地是麦克风。个人电子设备500任选地包括各种传感器,诸如GPS传感器532、加速度计534、定向传感器540(例如,罗盘)、陀螺仪536、运动传感器538和/或其组合,所有这些设备均可操作地连接到I/O部分514。
个人电子设备500的存储器518可包括用于存储计算机可执行指令的一个或多个非暂态计算机可读存储介质,该可执行指令当由一个或多个计算机处理器516执行时例如可致使计算机处理器执行下文所述技术,包括过程1500和1600(图15至图16)。计算机可读存储介质可以是可有形地包含或存储计算机可执行指令以供指令执行系统、装置和设备使用或与其结合的任何介质。在一些示例中,存储介质是暂态计算机可读存储介质。在一些示例中,存储介质是非暂态计算机可读存储介质。非暂态计算机可读存储介质可包括但不限于磁存储装置、光学存储装置、和/或半导体存储装置。此类存储装置的示例包括磁盘、基于CD、DVD或蓝光技术的光盘,以及持久性固态存储器诸如闪存、固态驱动器等。个人电子设备500不限于图5B的部件和配置,而是可包括多种配置中的其他部件或附加部件。
如本文所用,术语“示能表示”是指任选地在设备100、300和/或500(图1A、图3和图5A至图5B)的显示屏上显示的用户交互式图形用户界面对象。例如,图像(例如,图标)、按钮和文本(例如,超链接)任选地各自构成示能表示。
如本文所用,术语“焦点选择器”是指用于指示用户正与之进行交互的用户界面的当前部分的输入元素。在包括光标或其他位置标记的一些具体实施中,光标充当“焦点选择器”,使得当光标在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)上方时在触敏表面(例如,图3中的触摸板355或图4B中的触敏表面451)上检测到输入(例如,按压输入)的情况下,该特定用户界面元素根据所检测到的输入而被调节。在包括能够实现与触摸屏显示器上的用户界面元素的直接交互的触摸屏显示器(例如,图1A中的触敏显示器系统112或图4A中的触摸屏112)的一些具体实施中,在触摸屏上所检测到的接触充当“焦点选择器”,使得当在触摸屏显示器上在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)的位置处检测到输入(例如,由接触进行的按压输入)时,该特定用户界面元素根据所检测到的输入而被调节。在一些具体实施中,焦点从用户界面的一个区域移动到用户界面的另一个区域,而无需光标的对应移动或触摸屏显示器上的接触的移动(例如,通过使用制表键或箭头键将焦点从一个按钮移动到另一个按钮);在这些具体实施中,焦点选择器根据焦点在用户界面的不同区域之间的移动来移动。不考虑焦点选择器所采取的具体形式,焦点选择器通常是由用户控制的以便递送与用户界面的用户预期的交互(例如,通过向设备指示用户界面的用户期望与其进行交互的元素)的用户界面元素(或触摸屏显示器上的接触)。例如,在触敏表面(例如,触摸板或触摸屏)上检测到按压输入时,焦点选择器(例如,光标、接触或选择框)在相应按钮上方的位置将指示用户期望激活相应按钮(而不是设备显示器上示出的其他用户界面元素)。
如说明书和权利要求中所使用的,接触的“特征强度”这一术语是指基于接触的一个或多个强度的接触的特征。在一些实施方案中,特征强度基于多个强度样本。特征强度任选地基于相对于预定义事件(例如,在检测到接触之后,在检测到接触抬离之前,在检测到接触开始移动之前或之后,在检测到接触结束之前,在检测到接触的强度增大之前或之后和/或在检测到接触的强度减小之前或之后)而言在预先确定的时间段(例如,0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒)期间采集的预定义数量的强度样本或一组强度样本。接触的特征强度任选地基于以下各项中的一者或多者:接触的强度的最大值、接触的强度的均值、接触的强度的平均值、接触的强度的前10%处的值、接触的强度的半最大值、接触的强度的90%最大值等。在一些实施方案中,在确定特征强度时使用接触的持续时间(例如,在特征强度是接触的强度在时间上的平均值时)。在一些实施方案中,将特征强度与一组一个或多个强度阈值进行比较,以确定用户是否已执行操作。例如,该组一个或多个强度阈值任选地包括第一强度阈值和第二强度阈值。在该示例中,特征强度未超过第一阈值的接触导致第一操作,特征强度超过第一强度阈值但未超过第二强度阈值的接触导致第二操作,而特征强度超过第二阈值的接触导致第三操作。在一些实施方案中,使用特征强度与一个或多个阈值之间的比较来确定是否要执行一个或多个操作(例如,是执行相应操作还是放弃执行相应操作)而不是用于确定执行第一操作还是第二操作。
图6示出了根据一些实施方案的一组示例性手部手势。这些附图中的用户界面用于示出包括图15至图16中的过程的下文描述的过程。
图6示出了可由计算机系统600检测的一组示例性手部手势。计算机系统600包括输入机构602a(例如,手表的表冠)、输入机构602b(例如,侧边键)和显示屏602c。在一些实施方案中,计算机系统600包括设备100、300和/或500的一个或多个部件。在一些实施方案中,计算机系统600是可穿戴设备,诸如手表。在一些实施方案中,输入机构602a和602b可包括上文关于图5A描述的输入机构506和608的一个或多个部件和/或特性。在一些实施方案中,显示屏602c是触敏显示器,并且包括如上关于触摸屏504所述的一个或多个部件和/或特性。
如图6中所示,计算机系统600被佩戴在用户的腕部周围并且远离手部622。计算机系统600包括一个或多个加速度计、陀螺仪和/或生物识别传感器以检测计算机系统600的各种手部手势和/或移动(例如,诸如倾斜)。在图6处,生物识别传感器中的一个或多个生物识别传感器包括计算机系统600用来检测各种手部手势的光学传感器和/或心率传感器。在一些实施方案中,计算机系统600可以使用与光学传感器/心率传感器不同的一个或多个传感器来检测手部手势。
图6示出了可由计算机系统600(例如,经由光学传感器/心率传感器)检测的示例性手部手势。如图6所示,手部手势包括中立手势/位置610、攥紧手势620、双攥紧手势630、夹紧手势640和双夹紧手势650。虽然贯穿本申请讨论了这些手部手势(例如,610、620、630、640和650),但是手部手势(例如,多手指轻击手部手势和/或三(四、五)攥紧/夹紧手势)以及这些手部手势的一个或多个组合被设想为可由计算机系统600(例如,经由光学传感器/心率传感器)检测和/或用于执行如下所述的一个或多个操作。因此,本文中所提供的手部手势仅用于示例性目的,并且本文中描述的实施方案不限于这些特定手部手势。此外,本文中描述的手部手势不针对计算机系统600的一个或多个相机(例如,不由其捕获)。此外,本文中描述的手部手势不接触显示屏602c和/或不在显示屏602c的前面执行(例如,以便由计算机系统600检测手部手势)。
如图6中所示,中立手部手势/位置610是其中手部622的指尖都不触摸手部622的任何部分的手部手势/位置。攥紧手势620是手部手势,其中手部622的手指中的一个或多个手指正在触摸用户的手的另一部分,使得当用户形成拳头时用户的手部的手掌。双攥紧手势630是中立手势/位置610和攥紧手势620的组合(和/或序列),其中手部622的手指闭合以形成第一攥紧手势(例如,第一部分630a),打开以形成中立手势/位置(例如,第二部分630b),并且再次闭合以形成第二攥紧手势(例如,第三部分630c)。因此,双攥紧手势是包括在预定时间段(例如,0秒-2秒)内检测到的攥紧手势的多个(例如,两个)实例(例如,第一部分630a和第三部分630c)的手势。夹紧手势640是手部手势,其中手部622的手指中的一个或多个手指正在触摸彼此(例如,两个手指)。夹紧手势不同于攥紧手势,因为当做出夹紧手势时不形成拳头,而当做出攥紧手势时形成拳头。双夹紧手势650是中立手势/位置610和夹紧手势640的组合(和/或序列),其中手部622的手指触摸以形成第一夹紧手势(例如,第一部分650a),打开以形成中立手势/位置(例如,第二部分650b),并且再次闭合以形成第二夹紧手势(例如,第三部分650c)。因此,双夹紧手势是包括以在预定时间段(例如,0秒-2秒)内检测到的周期检测到的夹紧手势的多个(例如,两个)实例(例如,第一部分650a和第三部分650c)的手势。如图6中所示,双攥紧手势630和攥紧手势620不包括夹紧手势640的多个实例,并且双夹紧手势650和夹紧手势640不包括攥紧手势620的多个实例。在一些实施方案中,当在预定时间段内检测到两个夹紧手势时,计算机系统600将这两个手势注册(或检测)为双夹紧手势。在一些实施方案中,当在预定时间段内未检测到两个夹紧手势时,计算机系统600将这两个手势注册(或检测)为两个单独的夹紧手势(例如,不注册双夹紧手势)。在一些实施方案中,当在预定时间段内检测到两个攥紧手势时,计算机系统600将这两个手势注册(或检测)为双攥紧手势。在一些实施方案中,当在预定时间段内未检测到两个攥紧手势时,计算机系统600将这两个手势注册(或检测)为两个单独的攥紧手势(例如,不注册双攥紧手势)。
图7A至图7AA示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。这些附图中的用户界面用于示出包括图15至图16中的过程的下文描述的过程。
图7A至图7G示出了用于使用手部手势对传入警报(例如,定时器警报)进行响应的示例性用户界面。图7A示出了计算机系统600在显示屏602c上显示时钟用户界面710,其包括当前时间(例如,10:09)。当计算机系统600正在显示时钟用户界面710时,手部622处于中立位置(例如,图6中的610)。在图7A处,计算机系统600从(例如,安装在计算机系统600上的)定时器应用程序接收传入警报。如图7B所示,响应于从定时器应用程序接收到传入警报,计算机系统600显示定时器用户界面712。定时器用户界面712包括停止控件712a(例如,当被激活时,其使计算机系统600停止输出与传入警报相关的可听声音)和重复控件712b(例如,当被激活时,其使计算机系统600重复与传入警报相关的定时器)以及定时器已完成的指示(例如,“定时器完成”)。在图7C处,计算机系统600检测夹紧手势750c。然而,如图7D中所示,计算机系统600保持定时器用户界面712的显示并且不会响应于夹紧手势750c而执行任何操作,因为计算机系统600不在手部手势导航模式(例如,和/或可访问性模式)下操作。在一些实施方案中,计算机系统600不检测夹紧手势750c,因为计算机系统600不在手部手势导航模式中操作。
在图7D处,计算机系统600检测双攥紧手势750d。在图7E处,响应于检测到双攥紧手势750d,计算机系统600开始在手部手势导航模式中操作。在图7E处,计算机系统600检测夹紧手势750e(例如,第二夹紧手势)。如图7F所示,响应于检测到夹紧手势750e,计算机系统600在停止控件712a周围显示焦点指示符,因为计算机系统600正在手部手势导航模式中操作。计算机系统600在停止控件712a周围显示焦点指示符以指示可响应于计算机系统600检测到特定手部手势而激活停止控件712a。相反,计算机系统600不在图7F中的重复控件712b周围显示焦点指示符。因此,重复控件712b不能响应于计算机系统600检测到特定手部手势而被激活(例如,在重复控件712b与焦点指示符一起显示之前)。在图7F处,计算机系统600检测攥紧手势750f。在图7G处,响应于检测到攥紧手势750f,计算机系统600激活停止控件712a。在激活停止控件712a后,计算机系统600停止显示定时器用户界面712,停止输出与传入警报相关的可听声音,并且重新显示时钟用户界面710(例如,如图7G中所示)。
图7G至图7J示出了用于使用手部手势对传入警报(例如,传入呼叫)进行响应的示例性用户界面。如上文所讨论,图7G示出了计算机系统600在以手部手势导航模式操作时显示时钟用户界面710。在图7G处,计算机系统600接收对应于传入电话呼叫的警报。如图7H所示,响应于接收到警报,计算机系统600显示包括呼叫标识符714a(例如,“JOHN APPLESEED传入呼叫”)的电话用户界面714,该呼叫标识符指示计算机系统600正在接收来自JohnAppleseed的传入呼叫。电话用户界面714还包括拒绝控件714b(例如,当被激活时,其使计算机系统600拒绝电话呼叫)、应答控件714c(例如,当被激活时,其使计算机系统600应答该电话呼叫)、以及附加选项控件714d(例如,当被激活时,其使计算机系统600显示用于响应传入电话呼叫的附加选项)。如图7H所示,计算机系统600显示手部手势通知716,其指示用户可以通过提供双攥紧手势来应答电话呼叫(例如,代替提供多个手势(例如,使用如关于图7C至图7G讨论的一种或多种技术,导航到应答控件714c的一个或多个夹紧手势和导航到应答控件714c的攥紧手势)来应答电话呼叫)。在一些实施方案中,计算机系统600显示手部手势通知716,因为确定计算机系统600正在手部手势导航模式中操作和/或计算机系统600正在使用情境中操作,其中特定类型的操作(例如,应答电话呼叫、停止警报和/或回复文本消息)可经由单个手部手势(例如,预定手部手势)完成。在一些实施方案中,计算机系统600显示其他和/或不同的手部手势通知(例如,来自手部手势716)以通知用户可以使用一个或多个其他手势来执行操作。
在图7I处,计算机系统600检测双攥紧手势750i。如图7J所示,响应于检测到双攥紧手势750i,计算机系统600将呼叫标识符714a替换为逝去时间指示符714e(其指示传入电话呼叫已被应答)以及显示音量控件714f(例如,当被激活时,其使计算机系统600的一个或多个扬声器的音量级被调整)。换句话说,响应于检测到双攥紧手势750i,计算机系统600应答传入电话呼叫。在一些实施方案中,计算机系统600响应于在传入警报未被接收(和/或在预定时间段内未被接收)时检测到双攥紧手势而执行与在传入警报正被接收(例如,和/或在预定时间段内已被接收)时执行的操作(例如,如关于图7I至图7L所讨论的)不同的操作(例如,如关于图7D至图7E和图7L至图7M所讨论的)。
图7I至图7U示出了用于使用手部手势和移动光标来导航用户界面的示例性用户界面。具体地,图7I至图7U示出了使用手部手势和移动光标来结束健身跟踪器的示例性场景。图7K示出了显示包括健身度量列表的健身用户界面718的计算机系统600。当显示健身用户界面718时,计算机系统600检测图7L处的双攥紧手势750l。如图7M所示,响应于检测到双攥紧手势750l,计算机系统600显示包括数字硬件操作控件732a、移动光标控件732b、交互控件732c和附加选项控件732d的菜单732。菜单732包括标识当前聚焦的控件(例如,图7M中的数字硬件操作控件732a周围的黑框)的控件标识符708(“数字表冠”)。响应于检测到数字硬件操作控件732a的激活,计算机系统600开始在数字硬件操作模式(例如,不同的手部手势导航模式)中操作。响应于检测到交互控件732c的激活,计算机系统600用具有控件的菜单来替换菜单732,该菜单在被激活时使计算机系统600执行与在计算机系统600上的位置处检测到的各种手势相对应的不同操作(例如,如下文关于图7Z所讨论的)。响应于检测到附加选项控件732d的激活,计算机系统600用包括附加控件的菜单来替换菜单732(例如,如下文关于图7Z所讨论的)。
如图7M所示,响应于检测到双攥紧手势750l,计算机系统600在数字硬件操作控件732a周围显示焦点指示符,以指示数字硬件操作控件732a可以响应于计算机系统600检测到一个或多个手部手势而被激活。在图7M处,计算机系统600检测夹紧手势750m。如图7N所示,响应于检测到夹紧手势750m,计算机系统600将焦点指示符向右移动,使得焦点指示符围绕移动光标控件732b而不再围绕数字硬件操作控件732a。值得注意的是,响应于检测到夹紧手势750m,计算机系统600在用户界面上将焦点指示符从一个控件移动到下一个控件(例如,就位置而言)。在图7N处,计算机系统600检测攥紧手势750n,同时在移动光标控件732b周围显示焦点指示符。
如图7O所示,响应于检测到攥紧手势750n,计算机系统600停止显示菜单732并且显示在健身用户界面718上的位置处的光标742。在图7O处,响应于检测到攥紧手势750n,计算机系统600开始在移动光标操作模式(例如,另一手部手势操作模式)中操作。在图7P处,计算机系统600检测(例如,经由一个或多个加速度计和/或陀螺仪,经由不同于光学传感器/心率传感器的传感器,和/或经由不同于检测一个或多个手部手势的传感器的传感器)计算机系统600正在向左倾斜(例如,移动)(例如,750p)。在图7P处,响应于检测到计算机系统600正在向左倾斜,计算机系统600基于由计算机系统600检测到的倾斜量和/或倾斜速度将光标742向左移动。如图7P所示,光标742朝向健身用户界面718的左边缘移动。在图7P处,确定光标742被定位在健身用户界面718的左边缘处(例如,和/或附近)(例如,持续预定时间段)。如图7Q至图7R所示,因为确定光标742被定位在健身用户界面718的左边缘上,所以计算机系统600显示将健身用户界面718滑动离开显示屏602c的右边缘并且将健身控制用户界面从显示屏的左边缘滑动到显示屏602c上(例如,向右滑动)的动画。因此,因为确定光标742被定位在处(例如,和/或附近),所以计算机系统600将当前显示的用户界面替换为另一用户界面。
如图7R所示,健身控制用户界面720包括锁定控件720a(例如,当被激活时,其使计算机系统600忽略在计算机系统600上检测到的触摸输入)、新控件720b(例如,当被激活时,其使计算机系统600发起新的健身跟踪器)、结束控件720c(例如,当被激活时,其使计算机系统600停止当前跟踪健身活动的健身跟踪器)以及暂停控件730d(例如,当被激活时,其使计算机系统600暂停当前跟踪健身活动的健身跟踪器)。如图7R所示,手部622处于中立位置(例如,图6中的610),并且光标742被定位在结束控件720c上方。在图7S处,自从光标742被首次定位在结束控件720c上方(和/或在光标742的当前位置处)(例如,并且手部622已经保持在中立位置)以来已经过去了一定时间段。如图7S所示,计算机系统600显示具有指示744的光标742。指示744指示在将执行对应于光标742的位置的操作(例如,激活操作)之前的时间量,诸如激活结束控件720c和/或显示包括用以执行对应于光标742的位置的操作的一个或多个控件的菜单(例如,图7M的菜单732)。因此,当光标742被显示在与诸如控件之类的用户界面对象相对应的位置处时,计算机系统600显示指示744的大小的动画和/或在一定时间段(例如,指示操作将被执行之前的剩余时间的时间段)内填满光标742。在图7S处,填满光标742的大致一半的指示744指示在计算机系统600可以执行与光标742的位置相对应的操作之前已经过去了大致一半的时间(例如,自从光标742已被定位在结束控件720c上方)。回顾图7Q至图7R,计算机系统600不显示具有光标742的指示,同时计算机系统600不显示在用户界面上和/或显示器的边缘处,而不管计算机系统600在特定位置处显示多长时间。因此,在一些实施方案中,计算机系统600仅在移动光标742在用户界面对象(例如,可选择和/或(能够被激活的)用户界面对象、可经由在显示屏602c上检测到的一个或多个手势激活的用户界面对象)上方时显示包括指示744的动画。
在图7S处,自从光标742首次定位在结束控件720c上方(例如,并且手部622已经保持在中立位置)以来,已经过去了更多时间。如图7T所示,计算机系统600已更新指示744,使得指示744已填满所有光标742。在图7T处,确定光标742已经定位在结束控件720c上方持续预定时间段(例如,1秒-5秒)。在图7U处,因为确定光标742已经定位在结束控件720c上方持续预定时间段,所以计算机系统600激活结束控件720c。一旦激活结束控件720c,计算机系统600就显示指示健身跟踪器已结束的完成用户界面770。
图7U至图7AA示出了用于使用手部手势和移动光标来导航用户界面的示例性用户界面。具体地,图7U至图7AA示出了计算机系统600响应于检测到摇动手势而进入移动光标操作模式(例如,代替经由一个或多个手部手势来激活菜单732上的移动光标控件732b,如上关于图7N所述)的示例性场景。图7U示出了计算机系统600显示时钟用户界面710,其包括当前时间(例如,10:09)。在图7W处,计算机系统600检测到它正在(或已经)被摇动(例如,经由一个或多个加速度计和/或陀螺仪)(例如,750w)。在图7X处,响应于检测到计算机系统600正在(或已经)被摇动,计算机系统600开始在移动光标模式中操作(例如,从不在移动光标模式中操作转变到在移动光标模式中操作)。响应于检测到计算机系统600正在(或已经)被摇动,计算机系统600显示光标742。在图7Y处,计算机系统600检测到计算机系统600正在向右倾斜(例如,移动)(例如,750y)。在图7Y处,响应于检测到计算机系统600正在向右倾斜,计算机系统600基于由计算机系统600检测到的倾斜量和/或倾斜速度将光标742向右移动。如图7Y所示,光标742朝向时钟用户界面710的右边缘移动。在图7Y处,确定光标742被定位在时钟用户界面710的右边缘处(例如,和/或附近)。如图7Z至如7AA所示,因为确定光标742被定位在健身用户界面718的左边缘上,所以计算机系统600显示将时钟用户界面滑动离开显示屏602c的左边缘(例如,远离光标742被定位在其上的边缘)的动画,并且显示模拟时钟用户界面780从显示屏602c的右侧滑动并且朝向显示屏602c的左边缘移动。
图8A至图8J示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。这些附图中的用户界面用于示出包括图15至图16中的过程的下文描述的过程。
具体地,图8A至图8J示出了计算机系统600响应于光标742被定位(例如,显示)在用户界面对象上方而显示菜单732(例如,代替激活用户界面对象,如上文关于图7I至图7U所述)的示例性场景。图8A示出了显示时钟用户界面810的计算机系统600,该时钟用户界面包括应用程序控件810a-810d(例如,当被激活时,各自使计算机系统600启动应用程序)。在图8A处,计算机系统600检测到它正在(或已经)被摇动(例如,850a)(例如,使用如上文关于图7U至图7AA所述的一种或多种技术)。在图8B处,响应于检测到计算机系统600正在(或已经)被摇动,计算机系统600开始在移动光标模式中操作并且在时钟用户界面810上显示光标742。
在图8C处,光标742已经在相同位置(例如,其在图8B中显示的位置)处显示持续预定时间段。然而,在图8C处,计算机系统600不显示光标742填满的动画,因为光标742不位于对应于用户界面对象(例如,当计算机系统600检测到用户界面对象上的一个或多个输入时,并且在一些实施方案中,当计算机系统在正常操作模式中操作和/或不检测手部手势时,可被激活的可选择的和/或用户界面对象和/或被激活的用户界面对象)的位置处(例如,使用关于图7I至图7U所述的一种或多种技术)。在图8C处,计算机系统600检测到它正在向下倾斜(例如,850c)(例如,使用关于图7I至图7U描述的一种或多种技术)。如图8D所示,响应于检测到计算机系统600正在向下倾斜,计算机系统600在应用程序图标810d上方移动光标742。
如图8E至图8G所示,计算机系统600在一定时间段内显示填满光标742的指示744的动画光标,因为光标742被显示在应用程序图标810d(例如,可选用户界面对象)上方(例如,使用如上关于图7I至图7U所讨论的一种或多种技术)。如图8G中所示,指示744已经完全填满光标742。在图8G处,确定光标742已被显示在应用程序图标810d上方,确定光标742已被定位在应用程序图标810d上方持续预定时间段(例如,1秒-5秒)。
如图8H所示,因为确定光标742已被定位在应用程序图标810d上方持续预定时间段,所以计算机系统600显示菜单732(例如,并且在一些实施方案中,选择应用程序图标810d和/或应用程序图标810d的位置(例如,使得可以使用应用程序图标810d和/或应用程序图标810d的位置来执行操作)而不激活应用程序图标810d)。此外,在图8H处,计算机系统600正在显示定位在交互控件732c上方的光标742。在一些实施方案中,一个或多个设置控制当确定光标742已被定位在相应用户界面对象上方持续预定时间段时计算机系统600是否将激活用户界面对象,当确定光标742已被定位在相应用户界面对象上方持续预定时间段时计算机系统600是否显示菜单,或者进行这两者。在一些实施方案中,计算机系统600在显示器上更远离光标742被定位在应用程序图标810d上方的位置的位置中显示菜单732(以便不覆盖光标742正悬停在其上的用户界面对象)。
如图8I所示,计算机系统600显示已经填满光标742的指示744(例如,使用如关于图8E至图8G讨论的一种或多种技术)。在图8I处,确定已经在交互控件732c上方检测到光标742持续预定时间段。在图8J处,因为确定已经在光标742上方检测到光标742持续预定时间段,所以计算机系统600激活交互控件732c。响应于交互控件732c的激活,计算机系统600显示包括轻击控件832a的附加控件。值得注意的是,当确定已在可选用户界面对象上方检测到光标742持续预定时间同时显示菜单732时,计算机系统600激活用户界面对象(并且不重新显示菜单732,而不管计算机系统600的一个或多个设置)。
在图8J处,计算机系统600在轻击控件832a上方显示光标。在一些实施方案中,当确定已经在轻击控件832a上方检测到光标742时,计算机系统600激活轻击控件832a。在一些实施方案中,响应于检测到轻击控件832a的激活,计算机系统600检测和/或执行如果在光标742被显示在使菜单732被显示的位置上的位置处检测到轻击手势则将被执行的操作(例如,在图8G至图8I中)。例如,在图8J处,响应于检测到轻击控件832a的激活,计算机系统600启动对应于应用程序图标810d(例如,图10F的用户界面)的应用程序。在一些实施方案中,可以显示和激活其他手势控件,其中计算机系统600执行如果在光标742被显示在使菜单732被显示的位置上的位置处检测到相应手势(例如,长按手势、拖动手势)则将被执行的操作(例如,如果已经检测到轻击手势的不同操作)(例如,使得时钟面菜单被显示的手势、使得应用程序图标从时钟用户界面810上的一个位置移动到另一位置的手势、使得应用程序图标从时钟用户界面810被删除的手势)。
图9A至图9H示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。这些附图中的用户界面用于示出包括图15至图16中的过程的下文描述的过程。
具体地,图9A至图9H示出了计算机系统600响应于检测到手部手势(例如,使用如上文关于图7A至图7G所述的类似技术)而导航通过用户界面的示例性场景。图9A示出了计算机系统600在不以手部手势导航模式操作时显示媒体用户界面910。媒体用户界面910包括后退控件910a(例如,当被激活时,其使计算机系统600显示先前显示的用户界面),反向控件910b(例如,当被激活时,其使计算机系统600被配置为回放媒体项目列表中的先前媒体项目),暂停控件910c(例如,当被激活时,其使计算机系统600暂停媒体项目的回放),前进控件910d(例如,当被激活时,其使计算机系统600被配置为回放媒体项目列表中的下一个媒体项目),附加选项控件910e(例如,当被激活时,其使计算机系统600显示当前未在图9A中显示的一个或多个附加控件),队列控件910f(例如,当被激活时,其使计算机系统600显示排队的媒体项目的列表),以及连接控件910g(例如,当被激活时,其使计算机系统600显示用于将计算机系统600连接到一个或多个外部计算机系统的用户界面)。在图9A处,计算机系统600检测双攥紧手势950a。
在图9B处,响应于检测到双攥紧手势950a,计算机系统600开始在手部手势导航模式中操作(例如,使用如上文关于图7D至图7E所述的一种或多种技术)。如图9B所示,响应于检测到双攥紧手势950a,计算机系统600在前进控件910d周围显示焦点指示符(例如,使用如上文关于图7D所讨论的一种或多种技术)。在一些实施方案中,计算机系统600响应于检测到双攥紧手势950a而在媒体用户界面910上的不同于和/或不是前进控件910d(例如,控件910a-910d或910e-910g)的控件周围显示焦点指示符。
在图9B处,计算机系统600检测到双夹紧手势950b。如图9C所示,响应于检测到双夹紧手势950b,计算机系统600将焦点指示符向左移动,使得焦点指示符显示在暂停控件910c周围而不显示在前进控件910d周围。在图9C处,响应于检测到双夹紧手势950b,计算机系统600相对于前进控件910d在计算机系统600已确定为媒体用户界面910上的先前控件的控件周围移动焦点指示符。在一些实施方案中,计算机系统600通过标识在媒体用户界面910上从前进控件910d的位置(例如,焦点指示符所围绕的先前控件)朝向媒体用户界面910上的起始行(例如,媒体用户界面910的顶部附近和/或顶部处的行上的位置和/或具有离媒体用户界面910的左侧/右侧最远和顶部附近的可选用户界面对象(例如,控件)的行上的位置)行进的方向上的控件来确定先前控件。在一些实施方案中,在图9C处,暂停控件910c被确定为前进控件910d的先前控件,因为暂停控件910c与前进控件910d相邻(例如,紧挨着或紧挨着而在两个控件之间没有另一控件)并且比前进控件910d(或者在一些实施方案中,其他相邻控件中的任何其他控件(例如,队列控件910f、附加选项控件910e))更靠近媒体用户界面910的起始行。在图9C处,计算机系统600检测攥紧手势950c。
在图9D处,响应于检测到攥紧手势950c,计算机系统600激活暂停控件910c并且暂停媒体的回放(例如,“流行歌手”的“WHAT MATTERS”)。如图9D所示,响应于检测到攥紧手势950c,暂停控件910c被播放控件910h替换(例如,当被激活时,其发起媒体项目的回放)。如图9D所示,响应于检测到攥紧手势950c,计算机系统600将焦点指示符保持在媒体用户界面910上的相同位置。因此,在一些实施方案中,当检测到攥紧手势950c时和/或当响应于检测到手部手势而激活控件时,计算机系统600不移动焦点控件,而不管该控件是否被另一控件替换。在图9E处,计算机系统600检测夹紧手势950e。
如图9F所示,响应于检测到夹紧手势950e,计算机系统600将焦点指示符向右移动,使得焦点指示符显示在前进控件910d周围而不显示在播放控件910h周围。在图9F处,响应于检测到夹紧手势950e,计算机系统600相对于播放控件910h在计算机系统600已确定为媒体用户界面910上的下一个控件的控件周围移动焦点指示符。在一些实施方案中,计算机系统600通过标识在媒体用户界面910上从前进控件910d的位置(例如,焦点指示符所围绕的先前控件)朝向媒体用户界面910上的结束行(例如,媒体用户界面910的顶部附近和/或顶部处的行上的位置和/或具有离媒体用户界面910的左侧/右侧最远和底部附近的可选用户界面对象(例如,控件)的行上的位置)行进的方向上的控件来确定下一个控件。在一些实施方案中,在图9F处,前进控件910d被确定为播放控件910h的下一个控件,因为前进控件910d与前进控件910d相邻(例如,紧挨着或紧挨着而在两个控件之间没有另一控件)并且比播放控件910h更靠近媒体用户界面910的起始行。
值得注意的是,图9B的双夹紧手势950b包括图9E的夹紧手势950e的多个实例。此外,计算机系统600响应于检测到双夹紧手势950b而执行与计算机系统600响应于检测到夹紧手势950e而执行的操作相反的操作(例如,导航到先前控件)。因此,在一些实施方案中,计算机系统600响应于检测到包括彼此的多个实例的手势而执行相反的操作。在一些实施方案中,由于不同手势的连通性(例如,不同手势之间的相似性),相反的手势帮助用户更容易地导航用户界面。返回到图9F,计算机系统600检测夹紧手势950f。
如图9G所示,响应于检测到夹紧手势950f,计算机系统600向下移动焦点指示符,使得焦点指示符显示在附加选项控件910e周围而不显示在前进控件910d周围。此处,计算机系统600向下移动焦点指示符,因为附加选项控件910e是下一个控件。在图9G处,计算机系统600不在连接控件910g周围显示焦点指示符,因为连接控件910g不与前进控件910d相邻(例如,因此连接控件910g不被确定为下一个控件)。在一些实施方案中,计算机系统600以基于特定用户界面上的控件的特定布局的模式在用户界面周围移动焦点。回顾图9A,在一些实施方案中,计算机系统600以控件的标识顺序(910a、910b、910c、910d、910e、910f和910g,连续地(或反向地))在媒体用户界面910周围移动焦点指示符。在一些实施方案中,当焦点指示符在上一个控件(例如,910g)周围时,计算机系统600响应于检测到夹紧手势(或移动下一个控件的手势)而在第一控件(例如,910a)周围移动焦点指示符。在一些实施方案中,当焦点指示符在第一控件(例如,910a)周围时,计算机系统600响应于检测到双夹紧手势(或移动先前控件的手势)而在上一个控件(例如,910g)周围移动焦点指示符。返回到图9G,计算机系统600在焦点指示符在附加选项控件950e周围时检测攥紧手势910g。
如图9H所示,响应于检测到攥紧手势950g,计算机系统600显示附加选项用户界面920并停止显示媒体用户界面910。如图9H所示,响应于检测到攥紧手势950g,计算机系统600在附加选项用户界面920的控件(例如,在开始行上的位置处的控件)周围显示焦点指示符。在一些实施方案中,响应于检测到在附加选项用户界面920周围移动焦点指示符的一个或多个手部手势(例如,夹紧和/或双夹紧手势),计算机系统600在包括在附加选项用户界面920中的不同控件周围移动焦点指示符。在一些实施方案中,计算机系统600以与计算机系统600在包括在媒体用户界面920中的控件周围移动焦点指示符的模式(例如,蜿蜒模式)不同的模式(例如,竖直模式)在包括在附加选项用户界面910中的不同控件周围移动焦点指示符(例如,如上文关于图9A至图9G所述)。
图10A至图10F示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。这些附图中的用户界面用于示出包括图15至图16中的过程的下文描述的过程。
具体地,图10A至图10F示出了计算机系统600响应于检测到手部手势(例如,使用如上文关于图7A至图7G所述的类似技术)而导航通过用户界面的示例性场景。图10A示出了计算机系统600在不以手部手势导航模式操作时显示媒体用户界面1010。媒体用户界面1010包括应用程序图标1010a-1010d(例如,当被激活时,其使计算机系统600显示用于被激活的相应应用程序图标的用户界面)。在图10A处,计算机系统600正在以手部导航操作模式操作(例如,如上文关于图7A至图7G以及图9A至图9H所讨论的)。在一些实施方案中,计算机系统600使用上文关于图7A至图7G和图9A至图9H描述的一种或多种技术导航通过媒体用户界面1010。在图10B处,计算机系统600检测双攥紧手势1050b。
如图10C所示,响应于检测到双攥紧手势1050b,计算机系统600显示包括控件732a-732d的菜单732(例如,如上文关于图7D所讨论的)。菜单732包括标识当前聚焦的控件(例如,图10C中的数字硬件操作控件732a周围的黑框)的控件标识符708(“数字表冠”)。如图10C所示,计算机系统600在数字硬件操作控件732a和应用程序图标1010c周围显示焦点指示符,因为应用程序图标1010c在双攥紧手势1050b被检测到之前被选择并且/或者计算机系统600可在应用程序图标1010c的位置处执行操作(例如,应用程序图标1010c的激活,如上文关于图8J所讨论的)。在图10C处,计算机系统检测到双攥紧手势1050c。
如图10D所示,响应于检测到双攥紧手势1050c,计算机系统600停止显示菜单732(例如,当计算机系统600已经继续在手部手势导航模式中操作时)。在图10D处,计算机系统600检测夹紧手势1050d。如图10E中所示,响应于检测到夹紧手势1050d,计算机系统600向下并且向左移动焦点指示符,使得焦点指示符显示在应用程序图标1010d周围而不显示在应用程序图标1010c周围。计算机系统600在应用程序图标1010d周围显示焦点指示符,因为确定应用程序图标1010d是下一个控件(例如,响应于检测到夹紧手势1050d)。在一些实施方案中,使用上文关于图9A至图9H所讨论的一或多种技术来作出该确定。在图10E处,计算机系统600检测攥紧手势1050e。在图10F处,响应于检测到攥紧手势1050e,计算机系统600激活应用程序图标1010d并且显示对应于应用程序图标1010d(例如,呼吸应用程序图标)的应用程序(例如,呼吸器应用程序)。
图11A至图11H示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。这些附图中的用户界面用于示出包括图15至图16中的过程的下文描述的过程。具体地,图11A至图11H示出了计算机系统600响应于检测到一个或多个手部手势而自动滚动通过用户界面并执行不同操作的示例性场景。在一些实施方案中,当计算机系统使用如关于图11A至图11H所述的一种或多种技术在数字硬件操作模式(例如,手部手势导航模式)中操作时,计算机系统600自动滚动通过用户界面。在一些实施方案中,计算机系统600响应于数字硬件操作控件732a的激活而开始在数字硬件操作模式中操作。在一些实施方案中,计算机系统600以与响应于计算机系统600检测到输入机构上的输入(例如,可旋转输入)而执行的操作类似的操作自动地滚动通过用户界面和/或执行相同的操作。在一些实施方案中,当计算机系统正在自动滚动模式中操作时(例如,如以下关于1412所讨论的),计算机系统600自动滚动通过用户界面。
图11A示出了计算机系统600显示文本消息用户界面1110。文本消息用户界面1110包括文本消息区域1120以及包括动画图像控件1110a的一个或多个控件。如图11A所示,文本消息区域1120包括文本消息1120a(“嘿,你在哪里?”)。如图11A所示,计算机系统600正在动画图像控件1110a周围显示焦点指示符,该焦点指示符显示在文本消息用户界面1110的底部处。在图11A处,计算机系统600检测双攥紧手势1150a。
如图11B所示,响应于检测到双攥紧手势1150a,计算机系统600显示包括数字硬件操作控件732a的菜单732。在图11B处,计算机系统600在文本消息用户界面1110的顶部处显示菜单732。在一些实施方案中,计算机系统600在文本消息用户界面1110的顶部处显示菜单732,因为焦点指示符被显示在动画图像控件1110a周围,并且动画图像控件1110a被显示在文本消息用户界面1110的底部处。在一些实施方案中,计算机系统600响应于确定所选控件(例如,在其周围具有焦点指示符的控件)未被显示在媒体用户界面1110的底部处而在底部(或用户界面的另一区域)处显示菜单732。在图11B处,计算机系统600检测双攥紧手势1150b,同时焦点指示符显示在数字硬件操作控件732a周围。
如图11C所示,响应于检测到双攥紧手势1150b,计算机系统600开始在数字硬件操作模式(例如,和/或自动滚动模式)中操作。当在数字硬件操作模式中操作时,计算机系统600执行操作,如同在计算机系统600的输入机构处接收到一个或多个输入(例如,旋转输入、按压输入、滑动输入)一样。在显示图11C的用户界面之后的某个时间,计算机系统600执行与在输入机构602a上检测到一个或多个输入一致的操作,而没有检测到输入和/或手部手势(例如,手部622处于中立位置)。如图11D所示,当执行操作时,计算机系统600将焦点指示符从动画图像控件1110a周围移动到语言控件1110b周围(例如,没有在输入机构602a上检测到输入),这是与在输入机构602a上检测到的输入一致的操作。在显示图11D的用户界面之后的某个时间,计算机系统600执行与在输入机构602a上检测到一个或多个输入一致的另一个操作,而没有检测到输入和/或手部手势(例如,手部622处于中立位置)。如图11E所示,当执行操作时,计算机系统600滚动文本消息用户界面1110,并且将焦点指示符从语言控件1110b周围移动到回复控件1110c周围。在显示图11E的用户界面之后的某个时间,计算机系统600执行与在输入机构602a上检测到一个或多个输入一致的另一个操作,而没有检测到输入和/或手部手势(例如,手部622处于中立位置),计算机系统600滚动文本消息用户界面1110(例如,显示新控件)并将焦点指示符从回复控件1110c周围移动到回复控件1110e周围。在图11F处,计算机系统600检测到夹紧手势1150f,同时焦点指示符显示在回复控件1110e周围。如图11G所示,响应于检测到夹紧手势1150f,计算机系统600停止自动执行与在输入机构602a上检测到的一个或多个输入一致的操作(例如,和/或暂停滚动)。在一些实施方案中,响应于检测到附加夹紧手势,计算机系统600恢复执行与在输入机构602a上检测到的一个或多个输入一致的操作。
在图11G处,计算机系统600检测到攥紧手势1150g,同时焦点指示符显示在回复控件1110e周围。如图11G所示,响应于检测到攥紧手势1150g,激活回复控件1110e。在图11G处,响应于检测到攥紧手势1150g,计算机系统600在文本消息区域1120中插入对应于回复控件1110e的回复消息1120b(“在路途中”)。在一些实施方案中,计算机系统600向作为文本消息会话的一部分的一个或多个外部计算机系统发送回复消息1120b。
图12A至图12J示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。这些附图中的用户界面用于示出包括图15至图16中的过程的下文描述的过程。
具体地,图12A至图12J示出了计算机系统600响应于检测到一个或多个手部手势而自动滚动通过用户界面并执行不同操作的示例性场景。在一些实施方案中,当计算机系统使用如关于图12A至图12J所述的一种或多种技术在数字硬件操作模式(例如,手部手势导航模式)中操作时,计算机系统600自动滚动通过用户界面。在一些实施方案中,计算机系统600响应于数字硬件操作控件732a的激活而开始在数字硬件操作模式中操作。在一些实施方案中,计算机系统600以与响应于计算机系统600检测到输入机构上的输入(例如,可旋转输入)而执行的操作类似的操作自动地滚动通过用户界面和/或执行相同的操作。在一些实施方案中,当计算机系统正在自动滚动模式中操作时(例如,如以下关于1412所讨论的),计算机系统600自动滚动通过用户界面。
图12A示出了计算机系统600显示时钟面用户界面1210。时钟面用户界面1210包括可选控件1210a-1210e。在图12A处,计算机系统600正在自动滚动模式中操作。如图12A至图12C所示,计算机系统600自动地(例如,如由手部622处于中立位置所指示的)在可选控件1210a-1210c之间移动焦点指示符(例如,计算机系统600没有检测到输入)(例如,以第一速度)。在图12C处,计算机系统600检测夹紧手势1250c,同时焦点指示符显示在可选控件1210c周围。如图12D所示,响应于检测到夹紧手势1250c,计算机系统600停止自动地在可选控件之间移动焦点指示符,并且继续在可选控件1210c周围显示焦点指示符(例如,如由手部622处于中立位置所指示的)。在图12E处,计算机系统600检测夹紧手势1250e,同时焦点指示符显示在可选控件1210c周围。如图12F至图12G所示,响应于检测到夹紧手势1250e,计算机系统600恢复移动焦点指示符(例如,在可选控件1210d周围,并且然后在可选控件1210e周围显示焦点指示符)。
在图12H处,计算机系统600将焦点指示符向左移动,使得焦点指示符显示在可选控件1210d周围而不显示在1210e周围。在图12H处,计算机系统600将焦点指示符从可选控件1210e移动到可选控件1210d,因为1210e被确定为时钟面用户界面1210上的上一个可选控件。因此,在图12H处,计算机系统600在时钟面用户界面1210的可选用户界面对象周围反转焦点指示符的移动方向。在一些实施方案中,当已经过去预定量的时间时,计算机系统600在可选控件1210c周围显示焦点指示符。在图12H处,计算机系统600检测双夹紧手势1250h。在图12G处,响应于检测到双夹紧手势1250h,计算机系统600在时钟面用户界面1210的可选用户界面对象周围反转焦点指示符的移动方向。如图12I所示,响应于检测到双夹紧手势1250h,计算机系统600在可选控件1210e周围显示焦点指示符(例如,代替在可选控件1210c周围显示焦点指示符,如果未检测到双捏紧手势1250h,则计算机系统600将已在该可选控件周围显示焦点指示符)。在图12I处,计算机系统600检测攥紧手势1250i,同时在可选控件1210e周围显示焦点指示符。如图12J所示,响应于检测到攥紧手势1250j,计算机系统600激活可选控件1210e。如图12J所示,响应于检测到攥紧手势1250j,计算机系统600显示日历应用程序用户界面1220,该应用程序的用户界面对应于可选控件1210e。
图13A至图13G示出了根据一些实施方案的用于使用手部手势导航用户界面的示例性用户界面。这些附图中的用户界面用于示出包括图15至图16中的过程的下文描述的过程。
具体地,图13A至图13G示出了用于控制一个或多个手部手势导航模式的一个或多个示例性设置(例如,如上文关于图7A至图7AA、图8A至图8J、图9A至图9H、图10A至图10F、图11A至图11H和图12A至图12J所述)。图13A示出了计算机系统600显示包括可访问性设置控件1312a、1312b和1312c的一个或多个设置。在一些实施方案中,响应于检测到可访问性设置控件1312a上的输入,计算机系统600显示可访问性设置1322a-1322f中的一者或多者(例如,如图13B所示)。
如图13B所示,可访问性设置1312a-1312f包括手部手势导航控件1322h。在一些实施方案中,当手部手势导航控件1322h关闭(例如,不活动)时,计算机系统600不响应于检测到手部手势而执行操作。在一些实施方案中,当手部手势导航控件1322h打开(例如,活动)时,计算机系统600响应于检测到手部手势而执行操作。在一些实施方案中,响应于检测到针对手部手势导航控件1322h的手势,计算机系统600显示图13C的用户界面。
如图13C所示,计算机系统600显示手部手势导航控件1314a-1314h。手部手势导航控件包括主设置控件1314a、手部手势控件1314b、移动光标控件1314c、移动样式控件1314d、以及一个或多个外观设置控件1314e-1314g、以及用手部手势确认控件1314h。响应于检测到针对主设置控件1314a的输入,计算机系统600接通/关断手部手势导航模式(例如,如上文关于手部手势导航控件1322h所描述的)。响应于检测到针对手部手势控件1314b的输入,计算机系统600切换手部手势控件1314b的开/关。当手部手势控件1314b打开时,计算机系统600被配置为响应于检测到手部手势而执行一个或多个操作。当手部手势控件1314b关闭时,计算机系统600不被配置为响应于检测到手部手势而执行一个或多个操作。响应于检测到针对移动光标控件1314c的输入,计算机系统600切换移动光标控件的开/关。当移动光标控件1314c开启时,计算机系统600可被配置为在移动光标模式中操作(例如,如上文关于图7I至图7U和图8A至图8J所描述的)。当移动光标控件1314c关闭时,计算机系统600不能被配置为在移动光标模式中操作(例如,响应于摇动手势和/或响应于检测到图7N中菜单732的移动光标控件732b上的输入)。响应于检测到针对移动样式控件1314d的输入,计算机系统600在不同移动选项之间切换移动样式控件1314d。不同的移动选项包括(例如,在显示的用户界面上的焦点指示符的)自动移动和手动移动中的一者或多者。响应于检测到针对一个或多个外观设置控件1314e-1314g的输入,计算机系统600改变菜单732(例如,如关于图7N所述)、光标742(例如,如关于图7A至图7AA所述)以及指示744(例如,如关于图7A至图7AA所述)的一个或多个外观,诸如所显示的一个或多个用户界面对象的颜色和/或控件。响应于针对检测用手部手势确认控件1314h的输入,计算机系统600切换用手部手势确认控件1314h的开/关。当用手部手势确认控件1314h打开时,计算机系统600被配置为响应于检测到一个或多个手部手势而确认一个或多个操作(例如,支付交易)。当用手部手势确认控件1314h关闭时,计算机系统600不被配置为响应于检测到一个或多个手部手势而确认一个或多个操作。
如图13D所示,计算机系统600显示用于改变计算机系统600响应于检测到相应手部手势而执行的一个或多个操作的一个或多个设置控件(例如,设置控件1316a-1313e)。在一些实施方案中,响应于检测到针对学习控件1316e的一个或多个手势,计算机系统600显示图13E的用户界面。
如图13E所示,计算机系统600显示用户界面1318。用户界面1318可包括指示用户可如何执行一个或多个手势的一个或多个指令(例如,具有图形表示)。在一些实施方案中,在图13C处,计算机系统600响应于检测到针对移动光标控件1314c的手势而显示图13F的用户界面。在一些实施方案中,当显示用户界面1318时,计算机系统600将提供关于用户在学习模式会话期间是否正确地和/或不正确地执行手势的反馈。
如图13F所示,计算机系统1300显示用于控制移动光标模式的一个或多个方面的一个或多个控件,诸如灵敏度(例如,1322b)(例如,移动光标响应于检测到计算机系统600的移动(例如,倾斜)而移动的方式和/或量)、活动时间(例如,1322c)(例如,移动光标必须位于用户界面对象上方以便执行操作的预定时间量和/或指示(例如,图7N的指示744)表示的时间量)、移动公差(例如,1322d)(例如,在移动光标已经从对应于用户界面对象的位置移动之后,在指示744被重置和/或动画停止显示之前需要执行的移动的量)、以及停留控件(例如,1322e)(例如,移动用户必须位于用户界面对象上方以便执行操作的预定时间量和/或计算机系统是否可以经由一个或多个摇动输入在移动光标模式中开始操作)。在图13G处,计算机系统600显示用于改变移动光标的颜色的一个或多个设置(例如,1324a-1324c)。
图14示出了可在菜单732上显示的多个菜单控件(例如,如上文关于图7N所述的)。菜单732可包括控件的分级结构,诸如关于图14所述的控件分级结构。在一些实施方案中,响应于检测到针对交互控件1410的输入,计算机系统600显示轻击控制手势1410a(例如,如上文关于832a所述)、移动光标控件1410b(例如,如上文关于移动光标控件732b所述)、数字硬件操作控件1410(例如,如上文关于数字硬件操作732a所述)中的一者或多者。在一些实施方案中,响应于检测到针对系统控件1414的输入,计算机系统600显示图标网格1414a(例如,当被激活时,其显示包括多个应用程序图标的网格)、控制中心1414b(例如,当被激活时,其显示一个或多个设备控件,诸如用于切换Wi-Fi设置的Wi-Fi控件、用于切换蓝牙设置的蓝牙控件、用于切换声音输出开/关的静音控件)、设置1414c(例如,当被激活时,其显示用于配置计算机系统的一个或多个设置,如上文关于图13A至图13G所述)以及基座控件1414d(例如,当被激活时,其显示用于导航到一个或多个应用程序(例如,打开应用程序和/或在后台运行的应用程序)的一个或多个控件)中的一者或多者。在一些实施方案中,响应于检测到针对附加选项控件1416(例如,732d)的输入,计算机系统600显示钱包控件1416a(例如,当被激活时,其使计算机系统600显示用于发起支付交易的一个或多个用户界面对象)、侧边键1416b(例如,当被激活时,其使计算机系统600执行与输入机构602b被按压一致的一个或多个操作,诸如关断计算机系统600)、以及手势模式1416c(例如,当被激活时,其使计算机系统60开始在手势模式中操作)。在一些实施方案中,响应于检测到针对自动滚动控件1412的输入,计算机系统600开始在自动滚动模式中操作(例如,如上文关于图11A至图11H和图12A至图12J所述的)。在一些实施方案中,响应于检测到针对退出控件1418的输入,计算机系统600停止显示菜单732(例如,如上文关于图7N所述的)。在一些实施方案中,菜单732包括图14中未示出的一个或多个控件。在一些实施方案中,菜单732的控件处于与图14中所述的分级结构不同的分级结构中。
图15是示出了根据一些实施方案的用于使用计算机系统的1500的方法的流程图。方法1500在与显示生成部件(例如,显示控制器、触敏显示器系统)和光学传感器(例如,心率传感器)通信的计算机系统(例如,100、300、500)(例如,可穿戴设备(例如,智能手表))处执行。在一些实施方案中,计算机系统与一个或多个传感器(例如,一个或多个生物识别传感器(例如,光学传感器(例如,心率传感器)、相机)、陀螺仪、加速度计))通信。在一些实施方案中,计算机系统与一个或多个输入设备(例如,触敏表面、麦克风)通信。在一些实施方案中,计算机系统与一个或多个输出设备(例如,一个或多个扬声器、一个或多个麦克风)通信。方法1500中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下文所述,方法1500提供了使用手部手势导航用户界面的直观方式。该方法减少了用户使用手部手势导航用户界面的认知负担,从而创建更有效的人机界面。对于电池驱动的计算设备,使得用户能够更快地导航用户界面,并且更有效地节省电力,并且增加电池充电之间的时间间隔。
计算机系统经由显示生成部件显示(1502)包括第一用户界面对象(例如,712a-712b、910a-910h、或1010a-1010d)、第二用户界面对象(例如,712a-712b、910a-910h、或1010a-1010d)、第三用户界面对象(例如,712a-712b、910a-910h、或1010a-1010d)的用户界面,以及第一用户界面对象(例如,712a-712b、910a-910h、或1010a-1010d)被选择的指示(例如,焦点指示符,如在712a-712b、910a-910h或1010a-1010d周围讨论的)(例如,视觉指示(例如,加亮(例如,第一用户界面的边界),显示第一用户界面对象的文本,放大第一用户界面对象)(例如,不指示第二用户界面对象和第三用户界面对象被选择)。在一些实施方案中,第一用户界面对象、第二用户界面对象和第三用户界面对象彼此不同。在一些实施方案中,在第二用户界面对象和第三用户界面对象之间显示第一用户界面对象。在一些实施方案中,第一用户界面对象、第二用户界面对象和第三用户界面对象是不同的用户界面对象。
在一些实施方案中,在显示包括第一用户界面对象(例如,712a-712b、910a-910h或1010a-1010d)(例如,并且在计算机系统处于第一操作模式(例如,第一可访问性模式)时)、第二用户界面对象(例如,712a-712b、910a-910h或1010a-1010d)、第三用户界面对象(例如,712a-712b、910a-910h或1010a-1010d)的用户界面,以及第一用户界面对象被选择的指示(例如,焦点指示符,如在712a-712b、910a-910h或1010a-1010d周围讨论的)时,计算机系统至少经由(例如,使用)光学传感器(例如,和/或一个或多个其他传感器,诸如陀螺仪、加速度计)来检测(1504)手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)(例如,第一手部手势)(例如,其不接触设备(例如,不指向用户界面上的对象和/或与设备通信的任何设备))(例如,设备的一个或多个相机未检测到的手部手势)(例如,当用户的腕部位于单个位置处和/或不移动时发生的手部手势,当计算机系统被佩戴在腕部(例如,用户的腕部)上时检测到的手部手势)。
在一些实施方案中,响应于(1506)至少经由光学传感器检测到手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)(并且当显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面时)(例如,并且当计算机系统在第一操作模式中操作时),并且根据确定手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)是第一类型的手势(例如,610、620、630、640、650)(例如,手部手势的类型)(例如,手指轻击/夹紧手势(例如,其中两个或更多个手指触摸彼此的手势))(并且在一些实施方案中,第一类型的手势是非手指轻击/夹紧手势(例如,攥紧手势(例如,做出拳头的手势),多攥紧手势(例如,包括多个攥紧手势的手势),手指伸展手势(例如,一个或多个手指不触摸手的部分的手势),多手指伸展手势(例如,包括多个伸展手势的手势)和/或它们的任何组合),计算机系统经由显示生成部件显示(1508)第二用户界面对象(例如,712a-712b、910a-910h、或1010a-1010d)被选择(例如,选择的新用户界面对象)的指示(例如,焦点指示符,如在712a-712b、910a-910h或1010a-1010d周围讨论的)(例如,视觉指示(例如,加亮(例如,第二用户界面的边界),显示第二用户界面的文本,放大第二用户界面)(例如,停止显示第一用户界面对象被选择的指示和/或不显示第三用户界面对象被选择的指示)(例如,不指示第一用户界面对象和第三用户界面对象被选择)。在一些实施方案中,在显示第一用户界面对象的第一指示之前先前未显示第二用户界面对象的指示。在一些实施方案中,根据确定手部手势是第一类型的手势,计算机系统将指示从第一用户界面对象(例如,从在第一用户界面对象周围、附近(例如,上方、下方、旁边)显示)(例如,第一用户界面对象被选择的指示)移动到第二用户界面对象(例如,到在第二用户界面对象周围、附近(例如,上方、下方、旁边)显示)(例如,第二用户界面对象被选择的指示)。
在一些实施方案中,响应于(1506)至少经由光学传感器检测到手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)(并且当显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面时)(例如,并且当计算机系统在第一操作模式中操作时),并且根据确定手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)是与第一类型的手势不同的第二类型的手势(例如,610、620、630、640、650)(例如,手部手势的类型)(例如,多手指轻击/夹紧手势(例如,其中两个或更多个手指触摸彼此多次的手势))(并且在一些实施方案中,第一类型的手势是非手指轻击/夹紧手势(例如,攥紧手势(例如,做出拳头的手势),多攥紧手势(例如,包括多个攥紧手势的手势),手指伸展手势(例如,一个或多个手指不触摸手的部分的手势),多手指伸展手势(例如,包括多个伸展手势的手势)和/或它们的任何组合),计算机系统经由显示生成部件显示(1510)第三用户界面对象(例如,712a-712b、910a-910h、或1010a-1010d)被选择(例如,先前用户界面对象被选择)的指示(例如,焦点指示符,如在712a-712b、910a-910h或1010a-1010d周围讨论的)(例如,视觉指示(例如,加亮(例如,第三用户界面的边界),显示第三用户界面的文本,放大第三用户界面)(例如,不指示第一用户界面对象和第二用户界面对象被选择)(例如,停止显示第一用户界面对象被选择的指示和/或不显示第二用户界面对象被选择的指示)。在一些实施方案中,在显示第一用户界面对象的第一指示之前先前显示第三用户界面对象的指示。在一些实施方案中,根据确定手部手势是第二类型的手势,计算机系统将指示从第一用户界面对象(例如,从在第一用户界面对象周围、附近(例如,上方、下方、旁边)显示)(例如,第一用户界面对象被选择的指示)移动到第三用户界面对象(例如,到在第三用户界面对象周围、附近(例如,上方、下方、旁边)显示)(例如,第二用户界面对象被选择的指示)。在一些实施方案中,第一用户界面对象被选择的指示、第二用户界面对象被选择的指示和/或第三用户界面对象被选择的指示中的至少两者是不同大小的。基于检测到的手部手势的类型来选择是显示第二用户界面对象被选择的指示还是显示第三用户界面对象被选择的指示向用户提供了对系统的更多控制,并且帮助用户在不触摸计算机系统的情况下导航用户界面,这可以导致对于一些用户更有效地控制用户界面。
在一些实施方案中,手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)基于使用经由光学传感器检测到的数据确定的心率数据来检测。在一些实施方案中,第二类型的手势(例如,630或650)是第一类型的手势(例如,620或640)的多个实例(例如,多手指轻击/夹紧、多手指伸展手势和/或多攥紧手势)的手势类型。在一些实施方案中,第二类型的手势包括第一类型的手势的至少一个实例。基于检测到的手部手势的类型来选择是显示第二用户界面对象被选择的指示还是显示第三用户界面对象被选择的指示(其中第二类型的手势是作为第一类型的手势的多个实例的手势类型)向用户提供了对系统的更多控制并且帮助用户导航用户界面以使用类似手部手势(例如,其中一个手部手势包括另一个手部手势)而不触摸计算机系统来不同地执行类似动作(例如,选择向右的对象与选择向左的对象),这可以导致对于一些用户更有效地控制用户界面。
在一些实施方案中,响应于至少经由光学传感器检测到手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)并且根据确定手部手势是不同于第一类型的手势和第二类型的手势的第三类型的手势(例如,620、630、640或650)(例如,手部手势的类型),计算机系统执行(例如,经由显示生成部件)与对第一用户界面对象的选择相对应的操作(例如,动作)(例如,选择播放/暂停按钮、选择菜单上的交互、选择取消按钮、选择用于传入电话呼叫的应答/拒绝按钮)(例如,不显示包括一个或多个可选选项的菜单)。在一些实施方案中,响应于至少经由光学传感器检测到手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)并且根据确定手部手势是不同于第一类型的手势、第二类型的手势和第三类型的手势的第四类型的手势(例如,620、630、640或650)(例如,手部手势的类型),计算机系统经由显示生成部件显示包括一个或多个可选选项的菜单(例如,如下文关于方法1600所述的)(例如,不执行与对第一用户界面对象的选择相对应的选项)。基于检测到的手部手势的类型来选择是执行与对第一用户界面对象的选择相对应的操作还是显示包括一个或多个可选选项的菜单向用户提供了对系统的更多控制,并且帮助用户在不触摸计算机系统的情况下导航用户界面,这可以导致对于一些用户更有效地控制用户界面。
在一些实施方案中,在检测到手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)之前,计算机系统(例如,600)处于第一操作模式(例如,其中计算机系统响应于检测到第一类型的手势、第二类型的手势、第三类型的手势和/或第四类型的手势中的一者或多者而执行上文所述的操作(例如,操作)(例如,如上文关于图7A至图7I所述)的操作模式)。在一些实施方案中,作为执行与对第一用户界面对象(例如,1412或736a)的选择相对应的操作的一部分(例如,如上文关于图11A至图11H和图12A至图12J所述的),计算机系统将计算机系统从(例如,600)第一操作模式转变到第二操作模式(例如,如上文关于图7I至图7U所述的)(例如,其中光标在显示器上自动移动的模式,其中用户界面在方向上(例如,上、下、右、左、倾斜)自动滚动的模式,其中第一类型的手势、第二类型的手势、第三类型的手势和/或第四类型的手势中的一者或多者的检测使得计算机系统执行与当计算机系统在第一操作模式中操作时所执行的那些操作不同的操作的模式)。
在一些实施方案中,当计算机系统(例如,600)处于第二操作模式时,计算机系统至少经由光学传感器检测第二手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)。在一些实施方案中,响应于至少经由光学传感器检测到第二手部手势(例如,当计算机系统处于第二操作模式而不是第一操作模式时),并且根据确定第二手部手势是第一类型(例如,620、630、640或650)的手势,计算机系统在活动状态(例如,恢复状态)与非活动状态(例如,暂停状态)之间切换第一自动滚动操作(例如,如上文关于图12C至图12E所讨论的)(例如,不反转自动滚动操作的方向)(例如,其中按顺序自动选择一个或多个用户界面对象(例如,没有用户输入)的操作)(例如,在活动状态与非活动状态之间切换自动滚动操作是与显示第二用户界面对象被选择的指示不同的操作)。在一些实施方案中,根据确定手部手势是第一类型的手势并且根据确定滚动操作处于非活动状态(例如,暂停状态、滚动暂停状态、滚动关闭状态),计算机系统将自动滚动操作从非活动状态转变到活动状态(例如,恢复滚动操作)。在一些实施方案中,根据确定手部手势是第二类型的手势并且根据确定滚动操作处于活动状态(例如,滚动打开状态、恢复状态),计算机系统将自动滚动操作从活动状态转变到非活动状态(例如,暂停滚动操作)。在一些实施方案中,根据确定自动滚动操作是活动的,计算机系统显示指示自动滚动操作是活动的通知。在一些实施方案中,根据确定自动滚动操作不活动,计算机系统显示指示自动滚动操作不活动的通知和/或停止显示指示自动滚动操作活动的通知。在一些实施方案中,响应于至少经由光学传感器检测到第二手部手势(例如,当计算机系统处于第二操作模式而不是第一操作模式时)并且根据确定第二手部手势是第二类型的手势,计算机系统反转第一自动滚动操作的第一方向(例如,不在活动状态与非活动状态之间切换自动滚动操作)(例如,反转自动滚动操作的第一方向是与显示第三用户界面对象被选择的指示不同的操作)。在一些实施方案中,作为反转自动滚动操作的方向的一部分,计算机系统以与用户界面先前被选择的顺序相反的顺序选择用户界面对象和/或反转在一个方向上滚动的界面。基于检测到的手部手势的类型来选择是在活动状态与非活动状态之间切换第一自动滚动操作还是反转自动滚动操作的第一方向向用户提供了对系统的更多控制,并且帮助用户在不触摸计算机系统的情况下导航用户界面,这可以导致对于一些用户更有效地控制用户界面。
在一些实施方案中,响应于至少经由光学传感器检测到第二手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e):根据确定第二手部手势是第三类型的手势(例如,610、620、630、640或650),计算机系统执行第二操作(例如,改变自动滚动操作的速度);并且根据确定第二手部手势是第四类型的手势(例如,610、620、630、640或650),计算机系统执行不同于第二操作的第三操作(例如,当检测到第二手部手势时选择在通过滚动操作加亮的用户界面对象的当前位置处的用户界面,结束自动滚动模式)。基于检测到的手部手势的类型来选择是执行第一操作还是第二操作向用户提供了对系统的更多控制,并且帮助用户在不触摸计算机系统的情况下导航用户界面,这可以导致对于一些用户更有效地控制用户界面。
在一些实施方案中,当计算机系统(例如,600)处于第二操作模式时,计算机系统执行在第二方向上滚动多个界面对象的序列的第二自动滚动操作(例如,如上文关于图12G至图12H所讨论的)。在一些实施方案中,当执行第二自动滚动操作时,计算机系统检测多个用户界面对象的序列的结束(例如,检测到滚动位置在序列中的最后一个用户界面对象处或附近和/或检测到用户界面的边界(例如,如上文关于图12G至图12H所讨论的)。在一些实施方案中,响应于检测到多个用户界面对象的序列的结束,计算机系统执行第三自动滚动操作,该第三自动滚动操作在不同于(例如,相反于)第二方向的第三方向上滚动多个界面对象的序列(例如,如上文关于图12G至图12H所讨论的)。响应于检测到多个用户界面对象的序列的结束而自动执行在不同于第二方向的第三方向上滚动多个界面对象的序列的第三自动滚动操作允许计算机系统向用户提供用于自动导航用户界面的方法,而无需用户提供附加输入以在自动导航已经循环通过用户界面上的用户界面对象时重启/重置自动导航。
在一些实施方案中,响应于至少经由光学传感器检测到第二手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)并且根据确定第二手部手势是第四类型的手势(例如,610、620、630、640或650),计算机系统将计算机系统从第二操作模式转变到第三操作模式(和/或结束/退出第二操作模式)。在一些实施方案中,第三操作模式是第一操作模式。根据确定第二手部手势是第四类型的手势而将计算机系统从第二操作模式转变到第三操作模式向用户提供了对系统的更多控制并且帮助用户在不触摸计算机系统的情况下导航用户界面,这可以导致对于一些用户更有效地控制用户界面。
在一些实施方案中,根据确定第二手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)是第一类型的手势(例如,610、620、630、640或650),计算机系统显示指示自动滚动操作的状态(例如,滚动暂停、滚动停止)的通知(例如,716)。根据确定第二手部手势是第一类型的手势来显示指示自动滚动操作的状态的通知向用户提供响应于检测到手部手势已经执行操作的视觉反馈,这可以防止用户错误地执行可能导致计算机系统执行不必要的操作和/或无意的操作的多个手势。
在一些实施方案中,第三类型的手势(例如,610、620、630、640或650)是第四类型的手势(例如,610、620、630、640或650)的多个实例(例如,多手指轻击/夹紧、多手指伸展手势和/或多攥紧手势)的手势类型。在一些实施方案中,第三类型的手势包括第四类型的手势的至少一个实例。在一些实施方案中,第四类型的手势(例如,610、620、630、640或650)不包括第一类型的手势(例如,610、620、630、640或650)(和/或第二类型的手势)的多个实例,并且第三类型的手势(例如,610、620、630、640或650)不包括第二类型的手势(例如,610、620、630、640或650)(和/或第一类型的手势)的多个实例(例如,如上文关于图6所讨论的)。在一些实施方案中,第四类型的手势不包括第一类型的手势和/或第二类型的手势。在一些实施方案中,第三类型的手势不包括第一类型的手势和/或第二类型的手势。
在一些实施方案中,响应于至少经由光学传感器检测到第二手部手势(例如,750e、750f、750i、750l、750m、750n、950a、950b、950c、950e、950f、950g、1050b、1050c、1050d或1050e)并且根据确定在阈值时间段内接收到通知(例如,对应于电话呼叫、电子邮件、文本消息、语音邮件消息的通知)并且根据确定第二手部手势是第四类型的手势,计算机系统执行与通知有关的动作(例如,应答电话呼叫、响应/打开对应于通知的文本消息和/或电子邮件、播放语音邮件消息)(例如,如上文关于图7H所讨论的)。根据确定在阈值时间段内接收到通知并且根据确定第二手部手势是第四类型来执行与通知相关的动作向用户提供了对系统的更多控制并且帮助用户在不触摸计算机系统的情况下导航用户界面(例如,使计算机系统执行与通知相关的动作),这可以导致对于一些用户更有效地控制用户界面。
在一些实施方案中,一个或多个可选选项(例如,732a-732d、832a或1410-1418)包括用于改变一个或多个手部手势可使计算机系统执行的操作的第一可选用户界面对象(例如,732a-732d、832a或1410-1418)。在一些实施方案中,对第一可选用户界面对象的选择使计算机系统显示多个设置。在一些实施方案中,每个设置控制当一个或多个手部手势被计算机系统检测到时一个或多个手部手势可使计算机系统执行的操作(例如,如上文关于图8A至图8J所讨论的)。显示包括用于改变一个或多个手部手势可使计算机系统执行什么操作的第一可选用户界面对象的菜单允许计算机系统向用户提供执行操作而不需要更复杂的手部手势的选项,这减少了用于执行操作的手部手势的数量,并且允许用户定制使操作被执行的手部手势。
在一些实施方案中,一个或多个可选选项(例如,732a-732d、832a或1410-1418)包括用于将计算机系统转变到第四操作模式的第二可选选项以及用于将计算机系统转变到与第四操作模式不同的第五操作模式的第三可选选项。在一些实施方案中,对第二可选选项(例如,732a-732d、832a或1410-1418)的选择使计算机系统转变到第四操作模式(例如,自动滚动模式、光标模式(例如,如本文关于方法1600所讨论的)。在一些实施方案中,对第三可选选项(例如,732a-732d、832a或1410-1418)的选择使计算机系统转变到第五操作模式(例如,自动滚动模式、光标模式(例如,如本文关于方法1600所讨论的)。显示包括用于将计算机系统转变到第四操作模式的第二可选选项和用于将计算机系统转变到与第四操作模式不同的第五操作模式的第三可选选项的菜单通过允许用户使计算机系统转变到不同操作模式(例如,不提供更复杂的手部手势)来向用户提供对计算机系统的更多控制,并且还减少用于执行操作的手部手势的数量。
在一些实施方案中,一个或多个可选选项(例如,732a-732d、832a或1410-1418)包括用于显示一个或多个附加可选选项的第四可选选项(例如,1416)(例如,与执行操作的选项相对应的选项,该操作与当在可选用户界面对象的位置(例如,第二位置)处检测到输入时执行的操作相对应;执行操作的选项,诸如接通/关断计算机系统,显示不同菜单和/或用户界面;与响应于经由与计算机系统通信的一个或多个输入设备检测到输入而执行的操作相对应的选项)。在一些实施方案中,对第四可选选项的选择使计算机系统(例如,600)显示在对第四可选选项的选择之前先前未显示的一个或多个附加可选选项(例如,当被选择时,每个附加可选选项使计算机系统执行一个或多个操作(例如,不同操作))。在一些实施方案中,响应于检测到第四可选选项,计算机系统停止显示在检测到对第四可选选项的选择之前显示的一个或多个可选选项。显示包括用于显示一个或多个附加选项的第四可选选项的菜单通过允许用户选择显示先前未显示的附加可选选项来向用户提供对计算机系统的更多控制,减少用于执行附加操作的手部手势的数量,并且减少在初始显示菜单时显示的可选用户界面选项的数量,这清除了用户界面的杂乱。
在一些实施方案中,根据确定相应用户界面对象(例如,被选择的用户界面对象、被焦点指示符包围的用户界面对象)在用户界面上的第一位置处,菜单被显示在第一位置处(例如,如上文关于图11B所讨论的);并且确定根据相应用户界面对象不在用户界面上的第一位置处,菜单被显示在不同于第一位置的第二位置处(例如,如上文关于图11B所讨论的)。基于显示相应用户界面对象的位置来自动选择在一位置处显示菜单允许计算机系统避免在用户可能感兴趣的用户界面对象(例如,所选用户界面对象)的位置处显示菜单,并且还减少用户将需要进行以移动菜单而不影响用户界面对象的显示的输入的数量。
在一些实施方案中,当显示包括一个或多个可选选项(例如,1410a-732d、732a或832-1418)的第三菜单(例如,732)(例如,包括一个或多个可选选项的菜单、包括一个或多个可选选项的第二菜单)时,计算机系统至少经由光学传感器检测第三手部手势(例如,如上文关于图10A至图10E所讨论的)。在一些实施方案中,响应于至少经由光学传感器检测到第三手部手势(例如,如上文关于图10A至图10E所讨论的)并且根据确定第三手部手势是第四类型的手势,计算机系统停止显示包括一个或多个可选选项的第三菜单。根据确定第三手部手势是第四类型的手势而停止显示包括一个或多个可选选项的菜单向用户提供了对系统的更多控制并且帮助用户在不触摸计算机系统的情况下导航用户界面,这可以导致对于一些用户更有效地控制用户界面。
在一些实施方案中,在显示包括第一用户界面对象(例如,732a-732d、832a或1410-1418)的用户界面之后,计算机系统至少经由光学传感器检测第四手部手势。在一些实施方案中,响应于经由至少光学传感器检测到第四手部手势并且根据确定第四手部手势是不同于第一类型的手势和第二类型的手势(和/或第一类型的手势)的第五类型的手势(例如,并且在一些实施方案中,第五类型的手势是与第四类型的手势相同的手势),计算机系统将计算机系统从非活动状态(例如,睡眠状态、休眠状态、降低功率模式状态、显示生成部件比处于活动状态的显示生成部件亮度低的状态)转变到活动(例如,唤醒状态、全功率状态)状态(或将计算机系统从活动状态转变到非活动状态)(例如,如上文关于图14(例如,1416b)所讨论的)。根据确定第四手部手势是第五类型的手势将计算机系统从非活动状态转变到活动状态向用户提供对系统的更多控制而不触摸计算机系统,这可导致对于一些用户更有效地控制用户界面。
在一些实施方案中,在经由显示生成部件显示第二用户界面对象被选择的指示时,计算机系统至少经由光学传感器检测第五手部手势。在一些实施方案中,响应于至少经由光学传感器检测到第四手部手势:根据确定第五手部手势是第一类型的手势,计算机系统经由显示生成部件显示第四第一用户界面对象(例如,所选择的下一个用户界面对象)被选择的指示;并且根据确定第五手部手势是第二类型的手势,计算机系统经由显示生成部件显示第一用户界面对象(例如,被选择的先前用户界面对象)被选择的指示。在一些实施方案中,在经由显示生成部件显示第三用户界面对象被选择的指示时,计算机系统至少经由光学传感器检测相应手部手势。在一些实施方案中,响应于检测到相应手部手势并且根据确定相应手部手势是第一类型的手势,计算机系统显示不同于第一用户界面对象、第二用户界面对象和第三用户界面对象的第四用户界面对象被选择的指示。在一些实施方案中,响应于检测到相应手部手势并且根据确定相应手部手势是第二类型的手势,计算机系统显示第一用户界面对象被选择的指示。基于在第二用户界面对象被选择的指示的同时检测到的手部手势的类型来选择是显示第四第一用户界面对象被选择的指示还是显示第一用户界面对象被选择的指示向用户提供了对系统的更多控制并且帮助用户在不触摸计算机系统的情况下导航用户界面(例如,以相同方式一致地导航用户界面),这可以导致对于一些用户更有效地控制用户界面。
在一些实施方案中,在显示包括第一用户界面对象的用户界面时,计算机系统检测将计算机系统从第一操作模式转变到第四操作模式的请求(例如,如上文关于图13A至图13G和图14所讨论的)(例如,计算机系统不会响应于检测到手部手势而执行操作的操作模式和/或计算机系统未检测到一个或多个手部手势的模式)。在一些实施方案中,响应于检测到将计算机系统从第一操作模式转变到第四操作模式的请求,计算机系统将计算机系统从第一操作模式转变到第四操作模式(例如,如上文关于7A至7C所述的)。在一些实施方案中,在计算机系统处于第四操作模式时并且在显示包括第一用户界面对象、第二用户界面对象和第三用户界面对象的用户界面以及第一用户界面对象被选择的指示时,计算机系统至少经由光学传感器检测第六手部手势(例如,如上文关于7A至7C所述的)。在一些实施方案中,响应于至少经由光学传感器检测到第六手部手势(例如,并且在计算机系统处于第四操作模式时)(例如,如上文关于7A至7C所述的):根据确定手部手势是第一类型的手势,计算机系统继续显示第一用户界面对象被选择的指示(而不经由显示生成部件显示第二用户界面对象被选择的指示和/或第三用户界面对象被选择的指示并且/或者不执行操作)(例如,如上文关于7A至7C所述的);根据确定手部手势是第二类型的手势,计算机系统继续显示第一用户界面对象被选择的指示(而不经由显示生成部件显示第三用户界面对象被选择的指示和/或第二用户界面对象被选择的指示并且/或者不执行操作)(例如,如上文关于7A至7C所述的)。根据确定手部手势是第一类型的手势并且根据确定手部手势是第一类型的手势(例如,并且当计算机系统处于第四操作模式时)继续显示第一用户界面对象被选择的指示向用户提供对系统的更多控制以响应于检测到手部手势而控制手部手势的计算机系统检测和/或操作的执行。
需注意,上文相对于方法1500(例如,图15)所述的过程的详情也以类似的方式适用于本文所述的方法。例如,方法1500任选地包括本文参考方法1600所述的各种方法的特性中的一个或多个特性。例如,当计算机系统从以其中计算机系统使用方法1600的技术操作的操作模式进行操作切换时,可以执行方法1500。为了简明起见,这些详情在下文中不再重复。
图16是示出了根据一些实施方案的用于使用计算机系统导航的方法的流程图。方法1600在与显示生成部件(例如,显示控制器、触敏显示器系统)通信的计算机系统(例如,100、300、500)(例如,可穿戴设备(例如,智能手表))处执行。在一些实施方案中,计算机系统与一个或多个传感器(例如,一个或多个生物识别传感器(例如,心率传感器、相机)、陀螺仪、加速度计))通信。在一些实施方案中,计算机系统与一个或多个输入设备(例如,触敏表面、麦克风)通信。在一些实施方案中,计算机系统与一个或多个输出设备(例如,一个或多个扬声器、一个或多个麦克风)通信。方法1500中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下文所述,方法1600提供了使用手部手势导航用户界面的直观方式。该方法减少了用户使用手部手势导航用户界面的认知负担,从而创建更有效的人机界面。对于电池驱动的计算设备,使得用户能够更快地导航用户界面,并且更有效地节省电力,并且增加电池充电之间的时间间隔。
计算机系统经由显示生成部件显示(1602)用户界面(例如,710、720、810或780),该用户界面包括可选用户界面对象(例如,720c、732c、810d或832a)和显示在用户界面上的第一位置(例如,与用户界面对象的位置不同的位置)处的光标(例如,742)(例如,用户界面对象、不可选用户界面对象)。
当在用户界面(例如,710、720、810或780)上的第一位置处显示可选用户界面对象(例如,720c、732c、810d或832a)和光标(例如,742)时,计算机系统检测(1604)将光标(例如,742)从用户界面上的第一位置移动到第二位置(例如,不同于第一位置的位置)的请求(例如,经由手部手势(例如,腕部的倾斜和/或如上关于方法1500所述的一个或多个其他手部手势))。在一些实施方案中,移动光标的请求基于计算机系统的移动、与计算机系统相关联的一个或多个设备(例如,鼠标)的移动和/或在计算机系统的显示生成部件上检测到的一个或多个输入/手势(例如,轻扫手势)来检测。
响应于(1606)检测到将光标从第一位置移动到第二位置的请求(例如,750p、850c、850d或者图7Y或图7Z中的倾斜),计算机系统显示(1608)在第二位置处的光标(例如,将光标从第一位置移动到第二位置)。在一些实施方案中,作为显示第二位置处的光标的一部分,计算机系统将光标从第一位置移动到第二位置。在一些实施方案中,计算机系统根据计算机系统移动的方向来移动光标。
响应于(1606)检测到将光标从第一位置移动到第二位置的请求(例如,750p、850c、850d或者图7Y或图7Z中的倾斜),根据确定第二位置对应于可选用户界面对象(例如,720c、732c、810d或832a)的位置(和/或对应于显示器的区域(例如,边缘)),计算机系统显示(1610)提供光标(例如,742)需要位于第二位置多长时间来执行操作的视觉指示(例如,744)的动画(例如,视觉指示(例如,对象)填满、改变颜色、闪烁、向下计数/向上计数,尺寸增大/减小,淡入/淡出的动画),其中视觉指示(例如,742)在一定时间段(例如,小于或等于阈值时间段的时间段)内被更新(例如,当光标/视觉指示被显示在第二位置处时)(例如,不执行包括选择可选用户界面对象的操作)。在一些实施方案中,当显示动画时(例如,持续少于一定时间段),计算机系统检测移动光标的请求,并且响应于检测到第二请求,计算机系统停止显示动画。在一些实施方案中,在显示动画之后,计算机系统重新显示光标。在一些实施方案中,光标是视觉指示并且/或者包括视觉指示。
响应于(1606)检测到将光标从第一位置移动到第二位置的请求(例如,750p、850c、850d或者图7Y或图7Z中的倾斜),根据确定第二位置不对应于可选用户界面对象(例如,720c、732c、810d或832a)的位置(和/或不对应于显示器的区域(例如,边缘)),计算机系统放弃显示(1612)动画(例如,提供指示(例如,744)的动画)(并且继续显示光标)(例如,不执行包括选择可选用户界面对象的动作)。在一些实施方案中,作为显示提供视觉指示的动画的一部分,计算机系统用视觉指示替换光标的显示。在一些实施方案中,当显示动画时,计算机系统检测将光标从第二位置移动到第三位置的请求,并且响应于检测到将光标从第三位置移动到第二位置的请求,显示在第三位置处的光标(例如,不显示视觉指示和/或用光标替换视觉指示)。在一些实施方案中,第三位置不同于第二位置和/或第一位置。
在一些实施方案中,响应于检测到将光标(例如,742)从第一位置移动到第二位置的请求(例如,750p、850c、850d或者图7Y或图7Z中的倾斜)并且根据确定第二位置对应于可选用户界面对象(例如,720c、732c、810d或832a)的位置并且光标(例如,742)在第二位置处显示超过第一阈值时间段(例如,非零时间段(例如,1秒-5秒))(例如,长于或等于动画被显示的时间的时间段),计算机系统执行操作(例如,如关于图7I至图7U所讨论的,如上文关于图8A至图8J所讨论的)。在一些实施方案中,作为执行操作的一部分,计算机系统选择可选用户界面对象(例如,如关于图7I至图7U所讨论的,如上文关于图8A至图8J所讨论的)(例如,加亮可选用户界面对象、启动对应于可选用户界面对象的菜单、启动对应于可选用户界面对象的应用程序)。根据确定第二位置对应于可选用户界面对象的位置并且光标在第二位置处显示超过第一阈值时间段来自动执行包括选择可选用户界面对象的操作允许计算机系统在满足规定条件时自动选择用户界面对象。根据确定第二位置对应于可选用户界面对象的位置并且光标在第二位置处显示超过第一阈值时间段来执行包括选择可选用户界面对象的操作通过给予用户在光标已(例如,由用户)定位在某个位置经过某个时间段时选择用户界面对象的能力来向用户提供对计算机系统的更多控制。
在一些实施方案中,响应于检测到将光标(例如,742)从第一位置移动到第二位置的请求并且根据确定第二位置对应于可选用户界面对象(例如,720c、732c、810d或832a)的位置并且光标(例如,742)在第二位置处显示超过第二阈值时间段(例如,非零时间段(例如,1秒-5秒))(例如,长于或等于动画被显示的时间的时间段),计算机系统执行操作(例如,如关于图7I至图7U所讨论的)。在一些实施方案中,执行操作包括启动对应于可选用户界面对象的应用程序(例如,如关于图7I至图7U所讨论的)。根据确定第二位置对应于可选用户界面对象的位置并且光标在第二位置处显示超过第一阈值时间段来自动执行包括启动对应于可选用户界面对象的应用程序的操作允许计算机系统在满足规定条件时自动启动对应于可选用户界面对象的应用程序。根据确定第二位置对应于可选用户界面对象的位置并且光标在第二位置处显示超过第一阈值时间段来执行包括启动对应于可选用户界面对象的应用程序的操作通过给予用户在光标已(例如,由用户)定位在某个位置经过某个时间段时启动对应于可选用户界面对象的应用程序的能力来向用户提供对计算机系统的更多控制。
在一些实施方案中,响应于检测到将光标从第一位置移动到第二位置的请求并且根据确定第二位置不对应于可选用户界面对象(例如,720c、732c、810d或832a)的位置,放弃执行操作(例如,如上文关于图8C所述的)(例如,放弃经由显示生成部件显示包括一个或多个用户界面对象的菜单以在第二位置处执行一个或多个操作,放弃启动对应于可选用户界面对象的应用程序)。在一些实施方案中,根据确定第二位置不对应于可选用户界面对象的位置并且光标被显示和/或不被显示超过阈值时间段,计算机系统放弃执行操作。根据确定第二位置不对应于可选用户界面对象的位置来选择不执行操作给予计算机系统在规定条件未被满足时不执行操作的能力并且帮助计算机系统避免执行不必要的和/或非预期的操作。
在一些实施方案中,响应于检测到将光标(例如,742)从第一位置移动到第二位置的请求并且根据确定光标(例如,742)未在第二位置处显示超过第三阈值时间段(例如,非零时间段(例如,1秒-5秒))(例如,长于或等于动画被显示的时间的时间段),计算机系统放弃执行操作(例如,如图8D所示)。在一些实施方案中,根据确定第二位置对应于和/或不对应于可选用户界面对象的位置并且光标未在第二位置处显示超过阈值时间段,计算机系统放弃执行操作。根据确定光标未在第二位置处显示超过第三阈值时间段来选择不执行操作给予计算机系统在规定条件未被满足时不执行操作的能力并且帮助计算机系统避免执行不必要的和/或非预期的操作。
在一些实施方案中,响应于检测到将光标(例如,742)从第一位置移动到第二位置的请求并且根据确定第二位置对应于(例如,是)显示生成部件的区域中的位置(例如,图7Q中的742或图7Y中的742)(例如,边缘、左边缘、右边缘)并且光标在第二位置处显示超过第四阈值时间段(例如,非零时间段)(例如,1秒-5秒)(例如,长于或等于动画被显示的时间的时间段),计算机系统执行第二操作,该第二操作包括显示不同于用户界面(例如,710或718)的第二用户界面(例如,780或720)(并且停止显示用户界面)(同时继续显示光标)(不显示菜单)(例如,不同于操作(例如,选择用户界面对象))。在一些实施方案中,作为显示与用户界面不同的第二用户界面的一部分,计算机系统显示第二用户界面的动画(例如,滑动动画、淡化动画、渐隐动画和/或滑动动画)来代替用户界面。在一些实施方案中,动画包括将用户界面从屏幕滑向该区域和/或将屏幕上的第二用户界面对象滑向该区域。在一些实施方案中,根据确定第二位置对应于在显示器的区域中的位置并且光标未在第二位置处显示超过阈值时间段,计算机系统放弃执行包括显示第二用户界面的第二操作并且/或者继续显示用户界面。在一些实施方案中,第二阈值时间段是与阈值时间段相同的时间段。在一些实施方案中,第二阈值时间段是与阈值时间段不同的阈值时间段。在一些实施方案中,该区域不包括一个或多个可选用户界面对象。在一些实施方案中,根据确定第二位置对应于(例如,是)该区域中的位置,计算机系统显示动画。在一些实施方案中,根据确定第二位置对应于(例如,是)该区域中的位置,计算机系统放弃显示动画。在一些实施方案中,根据确定第二位置不对应于(例如,是)该区域中的位置,计算机系统显示动画。在一些实施方案中,根据确定第二位置不对应于(例如,是)该区域中的位置,计算机系统放弃显示动画。根据确定第二位置对应于在显示生成部件的区域中的位置并且光标在第二位置处显示超过第四阈值时间段来自动执行包括显示与用户界面不同的第二用户界面的第二操作允许计算机系统在光标在显示生成部件的特定区域中时显示另一用户界面。根据确定第二位置对应于在显示生成部件的区域中的位置并且光标在第二位置处显示超过第四阈值时间段来执行包括显示与用户界面不同的第二用户界面的第二操作通过给予用户在满足规定条件时显示另一用户界面的能力来向用户提供对计算机系统的更多控制。
在一些实施方案中,根据确定第二位置对应于可选用户界面对象(例如,720c、732c、810d或832a)的位置并且光标(例如,742)在第二位置处显示超过第五阈值时间段(例如,非零时间段)(例如,1秒-5秒)(例如,当显示第二位置处的光标时)(例如,长于或等于动画被显示的时间的时间段)(例如,长于或等于动画被显示的时间的时间段),计算机系统执行操作。在一些实施方案中,执行操作包括经由显示生成部件显示包括一个或多个可选选项(例如,1410a-732d和/或732-1418)的菜单(例如,732)(例如,用户界面对象)以在第二位置处执行一个或多个操作(例如,一个或多个不同操作)(例如,当在第二位置处检测到轻击输入(例如,和/或第一类型的输入)(例如,单轻击输入/多轻击输入)时执行的操作(例如,启动应用程序的操作),当在第二位置处检测到按压并保持输入(例如,和/或与第一类型的输入不同的第二类型的输入)时执行的操作(例如,调出用于删除用户界面对象的菜单的操作),当在第二位置处检测到轻扫输入(例如,与第一类型的输入和第二类型的输入不同的第三类型的输入)时执行的操作,在第二位置处开始自动滚动操作的操作)。在一些实施方案中,菜单与可选用户界面对象和/或光标同时显示。在一些实施方案中,当显示菜单时,用户界面的一个或多个部分(例如,不包括可选用户界面对象和/或光标)停止显示。在一些实施方案中,菜单被显示在用户界面上不包括可选用户界面对象和/或光标的位置处(例如,顶部/底部)。在一些实施方案中,根据确定可选用户界面对象和/或光标被显示在第一相应位置处,菜单被显示在第二相应位置处(例如,与第一位置不同,在显示器的与第一相应位置相对的一侧上)(不显示在第一相应位置处)。在一些实施方案中,根据确定可选用户界面对象和/或光标未显示在第一相应位置处,菜单被显示在第一相应位置处(不显示在第二相应位置处)。根据确定第二位置对应于可选用户界面对象的位置并且光标在第二位置处显示超过第一阈值时间段来自动执行包括显示菜单的操作允许计算机系统在满足规定条件时自动显示菜单,该菜单包括在第二位置处执行一个或多个操作的一个或多个可选选项。根据确定第二位置对应于可选用户界面对象的位置并且光标在第二位置处显示超过第一阈值时间段来执行包括显示包括执行一个或多个操作的一个或多个可选选项的菜单的操作通过给予用户在光标已(例如,由用户)定位在某个位置经过某个时间段后显示菜单以执行一个或多个操作的能力来向用户提供对计算机系统的更多控制。
在一些实施方案中,一个或多个可选选项(例如,732a-732d)包括用于执行选择操作的第一可选选项(例如,832a、1410a、1410b、1410c或1412),并且其中对第一可选选项的选择使计算机系统在第二位置处(例如,在可选用户界面对象上)执行选择操作(例如,当在第二位置处接收到轻击时执行的动作)。在一些实施方案中,响应于检测到对第一可选选项的选择,计算机系统执行包括启动与可选用户界面对象相关联的应用程序的选择操作。在一些实施方案中,响应于检测到对第一可选选项的选择,计算机系统执行选择操作,该选择操作包括强调(例如,加亮)在第二位置处显示的可选用户界面对象。显示包括用于执行选择操作的第一可选选项的菜单通过允许用户使计算机系统执行选择操作(例如,不提供更复杂的手部手势)来向用户提供对计算机系统的更多控制,并且还减少用于执行操作的手部手势的数量。
在一些实施方案中,一个或多个可选选项包括用于执行操作(例如,响应于输入(例如,轻击输入、按压并保持输入、轻扫输入)启动应用程序,响应于输入(例如,轻击输入、按压并保持输入、轻扫输入)移动在第二位置处显示的可选用户界面对象,显示与在第二位置处显示的可选用户界面对象相对应的通知(例如,弹出))的第二可选选项(例如,832a),该操作对应于(例如,作为)响应于在第二位置处(例如,由计算机系统)检测到的输入(例如,轻击输入、按压并保持输入、轻扫输入)(和/或手势)而执行(和/或将执行)的操作,并且其中对第二可选选项的选择使计算机系统执行与响应于在第二位置处检测到输入而执行的操作相对应的操作(例如,在第二位置处没有检测到输入)。显示包括用于执行与响应于在第二位置处检测到输入而执行的操作相对应的操作的第二可选选项的菜单通过允许用户使计算机系统执行响应于在第二位置处检测到输入而执行的操作来向用户提供对计算机系统的更多控制(例如,不提供更复杂的手部手势并且无需用户触摸计算机系统和/或显示生成部件),并且还减少用于执行操作的手部手势的数量。
在一些实施方案中,一个或多个可选选项包括用于执行自动滚动操作的第三可选选项(例如,732a、1410c或1412)(例如,如关于方法1500所述的),并且其中对第三可选选项的选择使计算机系统自动滚动通过包括可选用户界面对象的多个可选用户界面对象。在一些实施方案中,作为自动滚动通过包括可选用户界面对象的多个可选用户界面对象的一部分,计算机系统从第二位置(例如,从显示在第二位置处的可选用户界面对象)开始自动滚动。在一些实施方案中,作为自动滚动通过包括可选用户界面对象的多个可选用户界面对象一部分,计算机系统按顺序强调(例如,加亮)一个或多个可选用户界面对象(例如,如关于方法1500所描述的)。显示包括用于执行自动滚动操作的第三可选选项的菜单通过允许用户使计算机系统自动地滚动通过包括可选用户界面对象的多个可选用户界面对象(例如,不提供更复杂的手部手势)来向用户提供对计算机系统的更多控制,并且还减少用于执行操作的手部手势的数量。
在一些实施方案中,一个或多个可选选项包括用于显示一个或多个选项附加选项的第四可选选项(例如,1416)(例如,与执行操作的选项相对应的选项,该操作与当在可选用户界面对象的位置(例如,第二位置)处检测到输入时执行的操作相对应;执行操作的选项,诸如接通/关断计算机系统,显示不同菜单和/或用户界面;和/或与响应于经由与计算机系统通信的一个或多个输入设备检测到输入而执行的操作相对应的选项)。在一些实施方案中,对第四可选选项的选择使计算机系统显示在检测到对第四可选选项的选择之前先前未显示的一个或多个附加选项(例如,图8J中显示的832a和菜单)。在一些实施方案中,响应于检测到第四可选选项,计算机系统停止显示在检测到对第四可选选项的选择之前显示的一个或多个可选选项。显示包括用于显示一个或多个选项附加选项的第四可选选项的菜单通过允许用户选择显示先前未显示的附加可选选项来向用户提供对计算机系统的更多控制,减少用于执行附加操作的手部手势的数量,并且减少在检测到对第四可选选项的选择之前先前未显示的可选择用户界面选项的数量。
在一些实施方案中,在检测到对第四可选选项(例如,1414或1416)的选择之前先前未显示的一个或多个附加选项(例如,图8J中显示的832a和菜单)包括相应的附加选项(例如,1414a-1414d或1416a-1416c),其中对相应的附加选项的选择不会导致计算机系统执行在第二位置处未被执行的操作(例如,退出操作、关闭菜单操作)。在一些实施方案中,一个或多个可选选项不包括选择操作,该选择操作在被选择时使计算机系统执行不在第二位置处执行(例如,不在第二位置处发起、不在第二位置上执行和/或不涉及第二位置)的(例如,任何操作)操作。显示包括在检测到对第四可选选项的选择之前先前未显示的一个或多个附加选项的菜单包括相应附加选项,其通过允许用户选择选择执行未在第二位置处执行的操作的选项而向用户提供对计算机系统的更多控制,并且减少用以执行未在第二位置处执行的操作的手部手势的数量。
在一些实施方案中,计算机系统(例如,600)与一个或多个输入设备(例如,602a-602c)通信。在一些实施方案中,一个或多个可选选项包括用于执行操作的第五可选选项(例如,732a、1410c或1416b),该操作对应于(例如,作为)操作(例如,在硬件输入设备上的按压(例如,单次和/或多次按压)以显示菜单、发起支付操作、发起关断计算机系统、发起使用语音辅助;旋转硬件输入设备以将光标从一个位置移动到另一个位置;和/或旋转硬件输入设备以缩放、滚动和/或调整用户界面的一个或多个部件),该操作是(和/或将是)响应于经由一个或多个输入设备(例如,硬件按钮(例如,智能手表的表冠、可旋转的硬件按钮、可被按压/解除按压的硬件按钮)、硬件滑块)检测到输入而执行的。在一些实施方案中,对第五可选选项的选择使计算机系统执行与响应于经由一个或多个输入设备检测到输入(例如,没有检测到一个或多个输入设备处的输入)而执行的操作相对应的操作。显示包括用于执行与响应于经由一个或多个输入设备检测到输入而执行的操作相对应的操作的第五可选选项的菜单,通过允许用户选择执行与响应于经由一个或多个输入设备检测到输入而执行的操作相对应的操作(例如,不提供更复杂的手部手势并且无需用户触摸一个或多个输入设备)而向用户提供了对计算机系统的更多控制,并且还减少用于执行操作的手部手势的数量。
在一些实施方案中,一个或多个可选选项包括第六可选选项(例如,732a-732d或1410-1418)和第七可选选项(例如,732a-732d或1410-1418)(例如,不同于第六可选选项)。在一些实施方案中,当显示菜单(例如,732)时,计算机系统检测将光标从用户界面上的第二位置移动到第三位置的请求(例如,750p、850c、850d或者图7Y或图7Z中的倾斜)。在一些实施方案中,移动光标的第二请求基于计算机系统的移动、与计算机系统相关联的一个或多个设备(例如,鼠标)的移动和/或在计算机系统的显示生成部件上检测到的一个或多个输入/手势(例如,轻扫手势)来检测。在一些实施方案中,响应于检测到将光标从用户界面上的第二位置移动到第三位置的请求,计算机系统:根据确定第三位置对应于第六可选选项的位置并且光标在第三位置处显示超过第六阈值时间段(例如,非零时间段(例如,1秒-5秒))(例如,长于或等于动画被显示的时间的时间段),执行对应于第六可选选项的第一操作(例如,不执行第二操作);并且根据确定第三位置对应于第七可选选项的位置并且光标在第三位置处显示超过第六阈值时间段,执行与第一操作不同的第二操作(例如,不执行第一操作)。在一些实施方案中,根据确定第三位置对应于第六可选选项的位置并且光标不在第三位置处显示超过第三阈值时间段,计算机系统放弃执行第一操作。在一些实施方案中,根据确定第三位置对应于第七可选选项的位置并且光标不在第三位置处显示超过第三阈值时间段,计算机系统放弃执行第一操作。在一些实施方案中,第三阈值时间段是与阈值时间段相同的时间段。在一些实施方案中,第三阈值时间段是与阈值时间段不同的阈值时间段。基于在阈值时间段内显示光标的位置来执行不同操作向用户提供了对计算机系统的更多控制,以基于光标的位置来执行不同操作。
在一些实施方案中(例如,当显示在第二位置处的光标并且第二位置对应于可选用户界面对象时),一个或多个操作包括使计算机系统(例如,600)显示对应于可选用户界面对象(例如,720c、732c、810d或832a)的应用程序的用户界面的操作(例如,如上文关于图8J所讨论的)(例如,不退出第一模式)。
在一些实施方案中(例如,当显示在第二位置处的光标并且第二位置对应于可选用户界面对象时),一个或多个操作包括使计算机系统从第一操作模式转变到第二操作模式的操作(例如,如上文关于732a和/或1412所讨论的)(例如,其中操作(例如,自动滚动操作、运动指针操作)在第二位置处发起(和/或从第二位置开始)的操作模式)(例如,不启动对应于可选用户界面对象的应用程序)。
在一些实施方案中,在显示包括一个或多个可选选项的菜单(例如,732)之后(例如,当显示菜单时,显示一个或多个菜单对象),计算机系统检测显示与用户界面不同的第二用户界面的请求(例如,如上文关于图7I至图7U和图8A至图8J所示)。在一些实施方案中,响应于检测到显示第二用户界面的请求,计算机系统显示第二用户界面(并且当在第一操作模式中操作时)。在一些实施方案中,第二用户界面不包括菜单并且包括第二可选用户界面对象(例如,732a-732d或1410-1418)(例如,其不同于可选用户界面对象)和光标(例如,744)(例如,如上文关于图7I至图7U和图8A至图8J所示)。在一些实施方案中,当显示第二可选用户界面对象和光标时,计算机系统检测将光标从第二用户界面上的第四位置移动到第二用户界面上的第五位置的请求(例如,如上文关于图7I至图7U和图8A至图8J所示)。在一些实施方案中,移动光标的第三请求基于计算机系统的移动、与计算机系统相关联的一个或多个设备(例如,鼠标)的移动和/或在计算机系统的显示生成部件上检测到的一个或多个输入/手势(例如,轻扫手势)来检测。在一些实施方案中,响应于检测到将光标从第二用户界面上的第四位置移动到第二用户界面上的第五位置的请求,计算机系统显示在第二用户界面上的第五位置处的光标(例如,如上文关于图7I至图7U和图8A至图8J所示)。在一些实施方案中,响应于检测到将光标从第二用户界面上的第四位置移动到第二用户界面上的第五位置的请求,计算机系统就根据确定第五位置对应于第二可选用户界面对象的位置并且光标在第二位置处显示超过第七阈值时间段(例如,非零时间段(例如,1秒-5秒))(例如,长于或等于动画被显示的时间的时间段),计算机系统经由显示生成部件重新显示包括一个或多个可选选项的菜单(例如,732)(例如,如上文关于图7I至图7U和图8A至图8J所示)(例如,当显示菜单时,显示一个或多个菜单对象)。在一些实施方案中,根据确定第五位置不对应于第二可选用户界面对象的位置和/或光标不在第二位置处显示超过第七阈值时间段,放弃显示菜单。根据确定第五位置对应于第二可选用户界面对象的位置并且光标在第二位置处显示超过第七阈值时间段来自动选择重新显示菜单,允许计算机系统在针对不同可选用户界面对象满足同一组规定条件时向用户提供一致的菜单。
在一些实施方案中,当确定计算机系统(例如,600)已在相应方向上倾斜(例如,750p、850c、850d或者图7Y或图7Z中的倾斜)(例如,计算机系统的一侧(例如,右侧、左侧)比计算机系统的另一侧高/低)时,检测到将光标(例如,742)从第一位置移动到第二位置的请求。在一些实施方案中,使用经由与计算机系统通信的一个或多个陀螺仪检测到的数据来进行确定。在一些实施方案中,相应方向是从计算机系统的较高侧到计算机的较低侧的方向。在一些实施方案中,光标(例如,742)在对应于相应方向的方向上移动。
在一些实施方案中,在显示包括可选用户界面对象(例如,720c、732c、810d或832a)和在用户界面上的第一位置处显示的光标(例如,742)的用户界面之前,计算机系统显示第三用户界面。在一些实施方案中,当显示第三用户界面(例如,710、720、810或780)时(并且在一些实施方案中,用户界面包括可选用户界面对象),计算机系统检测进入第一操作模式的请求(例如,750w、850a)。在一些实施方案中,响应于检测到进入第一操作模式的请求,计算机系统将计算机系统(例如,600)从第二操作模式(例如,不同于第一操作模式)转变到第一操作模式。在一些实施方案中,响应于检测到进入第一操作模式的请求,计算机系统显示光标(例如,在第一位置处)(例如,以及/或者包括可选用户界面对象和在用户界面上的第一位置处显示的光标的用户界面)。响应于检测到进入第一操作模式的请求而显示光标向用户提供计算机系统在第一操作模式中操作的反馈(例如,或者一个或多个用户动作可使计算机系统执行一个或多个特定操作,因为计算机系统处于第一操作模式)。
在一些实施方案中,作为检测进入第一操作模式的请求的一部分,计算机系统检测到计算机系统已经(或正在)摇动(例如,750w、850a)(例如,当计算机系统处于第二操作模式时)。响应于检测到计算机系统已被摇动而将计算机系统从处于第二操作模式转变到第一操作模式通过允许用户通过摇动计算机系统在模式之间切换(例如,而不在设备的显示生成部件上提供输入)来向用户提供对计算机系统的更多控制。
在一些实施方案中,当计算机系统处于第一模式时,计算机系统检测到计算机系统(例如,600)已被摇动(例如,750w、850a)。在一些实施方案中,响应于检测到计算机系统已被摇动,计算机系统将计算机系统从第一操作模式转变到第三操作模式(并且,在一些实施方案中,第三操作模式是第二操作模式)(例如,如上文关于方法1500所述的第一操作模式)。响应于检测到计算机系统已被摇动而将计算机系统从第一操作模式转变到第三操作模式通过允许用户通过摇动计算机系统在模式之间切换(例如,而不在设备的显示生成部件上提供输入)来向用户提供对计算机系统的更多控制。
在一些实施方案中,作为将计算机系统(例如,600)从第一操作模式转变到第三操作模式的一部分,计算机系统停止显示光标(例如,742)。在一些实施方案中,响应于检测到计算机系统已被摇动(例如,当计算机系统处于第一模式时),计算机系统停止显示光标。响应于检测到计算机系统已被摇动而停止显示光标向用户提供计算机系统不在第一操作模式中操作的反馈(例如,并且/或者一个或多个用户动作不能使计算机系统执行一个或多个特定操作,因为计算机系统不处于第一操作模式)。
在一些实施方案中,当计算机系统处于第三操作模式时并且当显示光标(例如,742)时,计算机系统检测将光标从第六位置移动到第七位置的请求。在一些实施方案中,响应于检测到将光标从第六位置移动(例如,750p、850c、850d,或者图7Y或图7Z中的倾斜)到第七位置的请求(例如,当计算机系统处于第三操作模式时),计算机系统显示在第七位置处的光标。在一些实施方案中,响应于检测到将光标从第六位置移动(例如,750p、850c、850d,或者图7Y或图7Z中的倾斜)到第七位置的请求(例如,当计算机系统处于第三操作模式时),并且根据确定第七位置对应于可选用户界面对象的位置并且光标在第七位置处显示超过第八阈值时间段(例如,非零时间段(例如,1秒-5秒))(例如,长于或等于动画被显示的时间的时间段),计算机系统放弃执行操作。根据确定第七位置对应于可选用户界面对象的位置且光标在第七位置处显示超过第八阈值时间段来放弃执行操作(例如,当计算机系统处于第三操作模式时)向用户提供对计算机系统的更多控制以控制某些手部手势何时将执行某些操作。
在一些实施方案中,响应于检测到将光标(例如,742)从第一位置移动到第二位置的请求并且根据确定第二位置对应于可选用户界面对象(例如,720c、732c、810d或832a)的位置并且光标(例如,742)在第二位置处显示超过第九阈值时间段(例如,非零时间段)(例如,1秒-5秒)(例如,当显示第二位置处的光标时)(例如,比显示动画的时间更长的时间段),计算机系统执行操作。在一些实施方案中,作为执行操作的一部分,根据确定计算机系统的一个或多个设置(例如,用户设置)处于第一状态,计算机系统显示包括一个或多个可选选项(例如,用户界面对象)的第二菜单以在第二位置处执行一个或多个操作(例如,一个或多个不同操作)而不启动对应于可选用户界面对象的第二应用程序。在一些实施方案中,作为执行操作的一部分,根据确定计算机系统的一个或多个设置(例如,用户设置)处于第一状态,计算机系统启动对应于可选用户界面对象的第二应用程序,而不显示包括一个或多个可选选项(例如,用户界面对象)的第二菜单以在第二位置处执行一个或多个操作(例如,一个或多个不同操作)。在满足规定条件时选择是否启动第二应用程序和/或显示第二菜单为用户提供了对计算机系统的更多控制,以改变一个或多个动作是否将导致启动应用程序和/或导致显示菜单。
需注意,上文相对于方法1600(例如,图16)所述的过程的详情也以类似的方式适用于本文所述的方法。例如,方法1600任选地包括本文参考方法1500所述的各种方法的特性中的一个或多个特性。例如,当计算机系统从以其中计算机系统使用方法1500的技术操作的操作模式进行操作切换时,可以执行方法1600。为了简明起见,这些详情在下文中不再重复。
出于解释的目的,前面的描述是通过参考具体实施方案来描述的。然而,上面的例示性论述并非旨在是穷尽的或将本发明限制为所公开的精确形式。根据以上教导内容,很多修改形式和变型形式都是可能的。选择并描述这些实施方案是为了最好地解释这些技术的原理及其实际应用程序。本领域的其他技术人员由此能够最好地利用这些技术以及具有适合于所预期的特定用途的各种修改的各种实施方案。
虽然参照附图对本公开以及示例进行了全面的描述,但应当注意,各种变化和修改对于本领域内的技术人员而言将变得显而易见。应当理解,此类变化和修改被认为被包括在由权利要求书所限定的本公开和示例的范围内。
如上文所述,本技术的一个方面在于采集并使用得自各种来源的数据,以改进手部手势的检测。本公开预期,在一些实例中,这些所采集的数据可包括唯一地识别或可用于联系或定位特定人员的个人信息数据。此类个人信息数据可以包括人口统计数据、基于位置的数据、电话号码、电子邮件地址、推特ID、家庭地址、与用户的健康或健身水平有关的数据或记录(例如,生命体征测量、药物信息、锻炼信息)、出生日期或任何其他识别或个人信息。
本公开认识到在本发明技术中使用此类个人信息数据可用于使用户受益。例如,个人信息数据可用于改进用户的手部手势的检测。因此,使用这样的个人信息数据使得用户能够计算用户对数据的控制,这可以改进手部手势的检测。此外,本公开还预期个人信息数据有益于用户的其他用途。例如,健康和健身数据可用于向用户的总体健康状况提供见解,或者可用作使用技术来追求健康目标的个人的积极反馈。
本公开设想负责采集、分析、公开、传输、存储或其他使用此类个人信息数据的实体将遵守既定的隐私政策和/或隐私实践。具体地,此类实体应当实行并坚持使用被公认为满足或超出对维护个人信息数据的隐私性和安全性的行业或政府要求的隐私政策和实践。此类政策应该能被用户方便地访问,并应随着数据的采集和/或使用变化而被更新。来自用户的个人信息应当被收集用于实体的合法且合理的用途,并且不在这些合法使用之外共享或出售。此外,应在收到用户知情同意后进行此类采集/共享。另外,此类实体应考虑采取任何必要步骤,保卫和保障对此类个人信息数据的访问,并确保有权访问个人信息数据的其他人遵守其隐私政策和流程。另外,这种实体可使其本身经受第三方评估以证明其遵守广泛接受的隐私政策和实践。另外,应当调整政策和实践,以便采集和/或访问的特定类型的个人信息数据,并适用于包括管辖范围的具体考虑的适用法律和标准。例如,在美国,对某些健康数据的收集或获取可能受联邦和/或州法律的管辖,诸如健康保险流通和责任法案(HIPAA);而其他国家的健康数据可能受到其他法规和政策的约束并应相应处理。因此,在每个国家应为不同的个人数据类型保持不同的隐私实践。
不管前述情况如何,本公开还预期用户选择性地阻止使用或访问个人信息数据的实施方案。即本公开预期可提供硬件元件和/或软件元件,以防止或阻止对此类个人信息数据的访问。例如,就用户界面管理(例如,包括导航)而言,本发明技术可被配置为在注册服务期间或之后任何时候允许用户选择“选择加入”或“选择退出”参与对个人信息数据的收集。在另一个示例中,用户可选择不提供心率数据和/或其他数据,这些数据可用于改进手部手势的检测。在又一个示例中,用户可选择限制心率数据和/或其他数据被保持的时间长度。除了提供“选择加入”和“选择退出”选项外,本公开还设想提供与访问或使用个人信息相关的通知。例如,可在下载应用时向用户通知其个人信息数据将被访问,然后就在个人信息数据被应用访问之前再次提醒用户。
此外,本公开的目的是应管理和处理个人信息数据以最小化无意或未经授权访问或使用的风险。一旦不再需要数据,通过限制数据收集和删除数据可最小化风险。此外,并且当适用时,包括在某些健康相关应用程序中,数据去标识可用于保护用户的隐私。可在适当时通过移除特定标识符(例如,出生日期等)、控制所存储数据的量或特异性(例如,在城市级别而不是在地址级别收集位置数据)、控制数据如何被存储(例如,在用户之间聚合数据)、和/或其他方法来促进去标识。
因此,虽然本公开广泛地覆盖了使用个人信息数据来实现一个或多个各种所公开的实施方案,但本公开还预期各种实施方案也可在无需访问此类个人信息数据的情况下被实现。即,本发明技术的各种实施方案不会由于缺少此类个人信息数据的全部或一部分而无法正常进行。例如,可基于非个人信息数据或绝对最小量的个人信息(诸如由与用户相关联的设备所请求的内容、数据检测服务可用的其他非个人信息或公共可用信息)来检测手部手势。
Claims (62)
1.一种方法,所述方法包括:
在与显示生成部件和光学传感器通信的计算机系统处:
经由所述显示生成部件显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及所述第一用户界面对象被选择的指示;
在显示包括所述第一用户界面对象、所述第二用户界面对象、所述第三用户界面对象的所述用户界面以及所述第一用户界面对象被选择的所述指示时,经由至少所述光学传感器检测手部手势;以及
响应于经由至少所述光学传感器检测到所述手部手势:
根据确定所述手部手势是第一类型的手势,经由所述显示生成部件显示所述第二用户界面对象被选择的指示;以及
根据确定所述手部手势是与所述第一类型的手势不同的第二类型的手势,经由所述显示生成部件显示所述第三用户界面对象被选择的指示。
2.根据权利要求1所述的方法,其中所述手部手势是基于使用经由所述光学传感器检测到的数据确定的心率数据来被检测的。
3.根据权利要求1至2中任一项所述的方法,其中所述第二类型的手势是作为所述第一类型的手势的多个实例的手势类型。
4.根据权利要求1至3中任一项所述的方法,还包括:
响应于经由至少所述光学传感器检测到所述手部手势:
根据确定所述手部手势是与所述第一类型的手势和所述第二类型的手势不同的第三类型的手势,执行与对所述第一用户界面对象的选择相对应的操作;以及
根据确定所述手部手势是与所述第一类型的手势、所述第二类型的手势和所述第三类型的手势不同的第四类型的手势,经由所述显示生成部件显示包括一个或多个可选选项的菜单。
5.根据权利要求4所述的方法,其中:
在检测到所述手部手势之前,所述计算机系统处于第一操作模式;并且
执行与对所述第一用户界面对象的选择相对应的所述操作包括将所述计算机系统从所述第一操作模式转变到第二操作模式。
6.根据权利要求5所述的方法,还包括:
当所述计算机系统处于所述第二操作模式时,经由至少所述光学传感器检测第二手部手势;以及
响应于经由至少所述光学传感器检测到所述第二手部手势:
根据确定所述第二手部手势是所述第一类型的手势,在活动状态和非活动状态之间切换第一自动滚动操作;以及
根据确定所述第二手部手势是所述第二类型的手势,反转所述第一自动滚动操作的第一方向。
7.根据权利要求6所述的方法,还包括:
响应于经由至少所述光学传感器检测到所述第二手部手势:
根据确定所述第二手部手势是所述第三类型的手势,执行第二操作;以及
根据确定所述第二手部手势是所述第四类型的手势,执行与所述第二操作不同的第三操作。
8.根据权利要求6至7中任一项所述的方法,还包括:
当所述计算机系统处于所述第二操作模式时,执行第二自动滚动操作,所述第二自动滚动操作在第二方向上滚动多个界面对象的序列;
在执行所述第二自动滚动操作时,检测所述多个用户界面对象的所述序列的结束;以及
响应于检测到所述多个用户界面对象的所述序列的所述结束,执行第三自动滚动操作,所述第三自动滚动操作在与所述第二方向不同的第三方向上滚动多个界面对象的所述序列。
9.根据权利要求6至8中任一项所述的方法,还包括:
响应于经由至少所述光学传感器检测到所述第二手部手势:
根据确定所述第二手部手势是所述第四类型的手势,将所述计算机系统从所述第二操作模式转变到第三操作模式。
10.根据权利要求6至9中任一项所述的方法,还包括:
根据确定所述第二手部手势是所述第一类型的手势,显示指示所述自动滚动操作的状态的通知。
11.根据权利要求4至10中任一项所述的方法,其中所述第三类型的手势是作为所述第四类型的手势的多个实例的手势类型。
12.根据权利要求4至11中任一项所述的方法,其中所述第四类型的手势不包括所述第一类型的手势的多个实例,并且所述第三类型的手势不包括所述第二类型的手势的多个实例。
13.根据权利要求4至12中任一项所述的方法,还包括:
响应于经由至少所述光学传感器检测到所述第二手部手势:
根据确定通知在阈值时间段内被接收并且根据确定所述第二手部手势是所述第四类型的手势,执行与所述通知相关的动作。
14.根据权利要求4至13中任一项所述的方法,其中所述一个或多个可选选项包括用于改变一个或多个手部手势能够使所述计算机系统执行的操作的第一可选用户界面对象,其中对所述第一可选用户界面对象的选择使所述计算机系统显示多个设置,其中每个设置控制当所述一个或多个手部手势被所述计算机系统检测时所述一个或多个手部手势能够使所述计算机系统执行的操作。
15.根据权利要求4至14中任一项所述的方法,其中:
所述一个或多个可选选项包括用于将所述计算机系统转变到第四操作模式的第二可选选项以及用于将所述计算机系统转变到与所述第四操作模式不同的第五操作模式的第三可选选项;
对所述第二可选选项的选择使所述计算机系统转变到所述第四操作模式;并且
对所述第三可选选项的选择使所述计算机系统转变到所述第五操作模式。
16.根据权利要求1至15中任一项所述的方法,其中所述一个或多个可选选项包括用于显示一个或多个附加可选选项的第四可选选项,并且其中对所述第四可选选项的选择使所述计算机系统显示在对所述第四可选选项的选择之前先前未被显示的所述一个或多个附加可选选项。
17.根据权利要求1至16中任一项所述的方法,其中所述菜单:
根据确定相应用户界面对象在所述用户界面上的第一位置处,而被显示在所述第一位置处;以及
根据确定所述相应用户界面对象不在所述用户界面上的所述第一位置处,而被显示在不同于所述第一位置的第二位置处。
18.根据权利要求1至17中任一项所述的方法,还包括:
在显示包括一个或多个可选选项的所述菜单时,经由至少所述光学传感器检测第三手部手势;以及
响应于经由至少所述光学传感器检测到所述第三手部手势:
根据确定所述第三手部手势是所述第四类型的手势,停止显示包括所述一个或多个可选选项的所述菜单。
19.根据权利要求1至18中任一项所述的方法,还包括:
在显示包括所述第一用户界面对象的所述用户界面之后,经由至少所述光学传感器检测第四手部手势;以及
响应于经由至少所述光学传感器检测到所述第四手部手势:
根据确定所述第四手部手势是与所述第一类型的手势和所述第二类型的手势不同的第五类型的手势,将所述计算机系统从非活动状态转变到活动。
20.根据权利要求1至19中任一项所述的方法,还包括:
在经由所述显示生成部件显示所述第二用户界面对象被选择的所述指示时,经由至少所述光学传感器检测第五手部手势;以及
响应于经由至少所述光学传感器检测到所述第四手部手势:
根据确定所述第五手部手势是所述第一类型的手势,经由所述显示生成部件显示第四第一用户界面对象被选择的指示;以及
根据确定所述第五手部手势是所述第二类型的手势,经由所述显示生成部件显示所述第一用户界面对象的所述指示。
21.根据权利要求1至20中任一项所述的方法,还包括:
在显示包括所述第一用户界面对象的所述用户界面时,检测要将所述计算机系统从第一操作模式转变到第四操作模式的请求;
响应于检测到要将所述计算机系统从所述第一操作模式转变到所述第四操作模式的所述请求,将所述计算机系统从所述第一操作模式转变到所述第四操作模式;
在所述计算机系统处于所述第四操作模式时并且在显示包括所述第一用户界面对象、所述第二用户界面对象和所述第三用户界面对象的所述用户界面以及所述第一用户界面对象被选择的所述指示时,经由至少所述光学传感器检测第六手部手势;
响应于经由至少所述光学传感器检测到所述第六手部手势:
根据确定所述手部手势是所述第一类型的手势,继续显示所述第一用户界面对象被选择的所述指示;以及
根据确定所述手部手势是所述第二类型的手势,继续显示所述第一用户界面对象被选择的所述指示。
22.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储被配置为由与显示生成部件和光学传感器通信的计算机系统的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行根据权利要求1至21中任一项所述的方法的指令。
23.一种与显示生成部件和光学传感器通信的计算机系统,所述计算机系统包括:
一个或多个处理器;以及
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行根据权利要求1至21中任一项所述的方法的指令。
24.一种与显示生成部件和光学传感器通信的计算机系统,所述计算机系统包括:
用于执行根据权利要求1至21中任一项所述的方法的装置。
25.一种计算机程序产品,所述计算机程序产品包括被配置为由与显示生成部件和光学传感器通信的计算机系统的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行根据权利要求1至21中任一项所述的方法的指令。
26.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储被配置为由与显示生成部件和光学传感器通信的计算机系统的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于以下操作的指令:
经由所述显示生成部件显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及所述第一用户界面对象被选择的指示;
在显示包括所述第一用户界面对象、所述第二用户界面对象、所述第三用户界面对象的所述用户界面以及所述第一用户界面对象被选择的所述指示时,经由至少所述光学传感器检测手部手势;以及
响应于经由至少所述光学传感器检测到所述手部手势:
根据确定所述手部手势是第一类型的手势,经由所述显示生成部件显示所述第二用户界面对象被选择的指示;以及
根据确定所述手部手势是与所述第一类型的手势不同的第二类型的手势,经由所述显示生成部件显示所述第三用户界面对象被选择的指示。
27.一种与显示生成部件和光学传感器通信的计算机系统,所述计算机系统包括:
一个或多个处理器;以及
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于以下操作的指令:
经由所述显示生成部件显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及所述第一用户界面对象被选择的指示;
在显示包括所述第一用户界面对象、所述第二用户界面对象、所述第三用户界面对象的所述用户界面以及所述第一用户界面对象被选择的所述指示时,经由至少所述光学传感器检测手部手势;以及
响应于经由至少所述光学传感器检测到所述手部手势:
根据确定所述手部手势是第一类型的手势,经由所述显示生成部件显示所述第二用户界面对象被选择的指示;以及
根据确定所述手部手势是与所述第一类型的手势不同的第二类型的手势,经由所述显示生成部件显示所述第三用户界面对象被选择的指示。
28.一种与显示生成部件和光学传感器通信的计算机系统,所述计算机系统包括:
用于经由所述显示生成部件显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及所述第一用户界面对象被选择的指示的装置;
用于在显示包括所述第一用户界面对象、所述第二用户界面对象、所述第三用户界面对象的所述用户界面以及所述第一用户界面对象被选择的所述指示时经由至少所述光学传感器检测手部手势的装置;以及
用于响应于经由至少所述光学传感器检测到所述手部手势进行以下操作的装置:
根据确定所述手部手势是第一类型的手势,经由所述显示生成部件显示所述第二用户界面对象被选择的指示;以及
根据确定所述手部手势是与所述第一类型的手势不同的第二类型的手势,经由所述显示生成部件显示所述第三用户界面对象被选择的指示。
29.一种计算机程序产品,包括被配置为由与显示生成部件和光学传感器通信的计算机系统的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于以下操作的指令:
经由所述显示生成部件显示包括第一用户界面对象、第二用户界面对象、第三用户界面对象的用户界面以及所述第一用户界面对象被选择的指示;
在显示包括所述第一用户界面对象、所述第二用户界面对象、所述第三用户界面对象的所述用户界面以及所述第一用户界面对象被选择的所述指示时,经由至少所述光学传感器检测手部手势;以及
响应于经由至少所述光学传感器检测到所述手部手势:
根据确定所述手部手势是第一类型的手势,经由所述显示生成部件显示所述第二用户界面对象被选择的指示;以及
根据确定所述手部手势是与所述第一类型的手势不同的第二类型的手势,经由所述显示生成部件显示所述第三用户界面对象被选择的指示。
30.一种方法,所述方法包括:
在与显示生成部件通信的计算机系统处:
经由所述显示生成部件显示包括可选用户界面对象的用户界面以及在所述用户界面上的第一位置处显示的光标;
当显示所述可选用户界面对象以及在所述用户界面上的所述第一位置处的所述光标时,检测要将所述光标从所述用户界面上的所述第一位置移动到第二位置的请求;以及
响应于检测到要将所述光标从所述第一位置移动到所述第二位置的所述请求:
在所述第二位置处显示所述光标;
根据确定所述第二位置对应于所述可选用户界面对象的位置,显示提供所述光标需要被定位在所述第二位置处多长时间来执行操作的视觉指示的动画,其中所述视觉指示在一时间段内被更新;以及
根据确定所述第二位置不对应于所述可选用户界面对象的所述位置,放弃显示所述动画。
31.根据权利要求30所述的方法,还包括:
响应于检测到要将所述光标从所述第一位置移动到所述第二位置的所述请求:
根据确定所述第二位置对应于所述可选用户界面对象的所述位置并且所述光标在所述第二位置处被显示超过第一阈值时间段,执行所述操作,其中执行所述操作包括选择所述可选用户界面对象。
32.根据权利要求30至31中任一项所述的方法,还包括:
响应于检测到要将所述光标从所述第一位置移动到所述第二位置的所述请求:
根据确定所述第二位置对应于所述可选用户界面对象的所述位置并且所述光标在所述第二位置处被显示超过第二阈值时间段,执行所述操作,其中执行所述操作包括启动对应于所述可选用户界面对象的应用程序。
33.根据权利要求30至32中任一项所述的方法,还包括:
响应于检测到要将所述光标从所述第一位置移动到所述第二位置的所述请求:
根据确定所述第二位置不对应于所述可选用户界面对象的所述位置,放弃执行所述操作。
34.根据权利要求30至33中任一项所述的方法,还包括:
响应于检测到要将所述光标从所述第一位置移动到所述第二位置的所述请求:
根据确定所述光标在所述第二位置处没有被显示超过第三阈值时间段,放弃执行所述操作。
35.根据权利要求30至34中任一项所述的方法,还包括:
响应于检测到要将所述光标从所述第一位置移动到所述第二位置的所述请求:
根据确定所述第二位置对应于在所述显示生成部件的区域中的位置并且所述光标在所述第二位置处被显示超过第四阈值时间段,执行第二操作,所述第二操作包括显示与所述用户界面不同的第二用户界面。
36.根据权利要求30至35中任一项所述的方法,还包括:
根据确定所述第二位置对应于所述可选用户界面对象的位置并且所述光标在所述第二位置处被显示超过第五阈值时间段,执行所述操作,其中执行所述操作包括经由所述显示生成部件显示菜单,所述菜单包括在所述第二位置处执行一个或多个操作的一个或多个可选选项。
37.根据权利要求36所述的方法,其中所述一个或多个可选选项包括用于执行选择操作的第一可选选项,并且其中对所述第一可选选项的选择使所述计算机系统在所述第二位置处执行所述选择操作。
38.根据权利要求36至37中任一项所述的方法,其中所述一个或多个可选选项包括用于执行与响应于在所述第二位置处检测到输入而被执行的操作相对应的操作的第二可选选项,并且其中对第二可选选项的选择使所述计算机系统执行与响应于在所述第二位置处检测到所述输入而被执行的所述操作相对应的所述操作。
39.根据权利要求36至38中任一项所述的方法,其中所述一个或多个可选选项包括用于执行自动滚动操作的第三可选选项,并且其中对所述第三可选选项的选择使所述计算机系统自动滚动通过包括所述可选用户界面对象的多个可选用户界面对象。
40.根据权利要求36至39中任一项所述的方法,其中所述一个或多个可选选项包括用于显示一个或多个附加选项的第四可选选项,并且其中对所述第四可选选项的选择使所述计算机系统显示在对所述第四可选选项的选择被检测到之前先前未被显示的所述一个或多个附加选项。
41.根据权利要求40所述的方法,其中在对所述第四可选选项的选择被检测到之前先前未被显示的所述一个或多个附加选项包括相应附加选项,其中对所述相应附加选项的选择不使所述计算机系统执行在所述第二位置处未被执行的操作。
42.根据权利要求36至41中任一项所述的方法,其中:
所述计算机系统与一个或多个输入设备通信;
所述一个或多个可选选项包括用于执行与响应于经由所述一个或多个输入设备检测到输入而被执行的操作相对应的操作的第五可选选项;并且
对所述第五可选选项的选择使所述计算机系统执行与响应于经由所述一个或多个输入设备检测到所述输入而被执行的所述操作相对应的所述操作。
43.根据权利要求36至42中任一项所述的方法,其中所述一个或多个可选选项包括第六可选选项和第七可选选项,所述方法还包括:
在显示所述菜单时,检测要将所述光标从所述用户界面上的所述第二位置移动到第三位置的请求;
响应于检测到要将所述光标从所述用户界面上的所述第二位置移动到所述第三位置的所述请求:
根据确定所述第三位置对应于所述第六可选选项的位置并且所述光标在所述第三位置处被显示超过第六阈值时间段,执行对应于所述第六可选选项的第一操作;以及
根据确定所述第三位置对应于所述第七可选选项的位置并且所述光标在所述第三位置处被显示超过所述第六阈值时间段,执行与所述第一操作不同的第二操作。
44.根据权利要求36至43中任一项所述的方法,其中所述一个或多个操作包括使所述计算机系统显示与所述可选用户界面对象相对应的应用程序的用户界面的操作。
45.根据权利要求36至44所述的方法,其中所述一个或多个操作包括使所述计算机系统从第一操作模式转变到第二操作模式的操作。
46.根据权利要求36至45中任一项所述的方法,还包括:
在显示包括所述一个或多个可选选项的所述菜单之后,检测要显示与所述用户界面不同的第二用户界面的请求;
响应于检测到要显示所述第二用户界面的所述请求,显示所述第二用户界面,其中所述第二用户界面不包括所述菜单并且包括第二可选用户界面对象和所述光标;以及
在显示所述第二可选用户界面对象和所述光标时,检测要将所述光标从所述第二用户界面上的第四位置移动到所述第二用户界面上的第五位置的请求;以及
响应于检测到要将所述光标从所述第二用户界面上的所述第四位置移动到所述第二用户界面上的第五位置的所述请求:
在所述第二用户界面上的所述第五位置处显示所述光标;以及
根据确定所述第五位置对应于所述第二可选用户界面对象的位置并且所述光标在所述第二位置处被显示超过第七阈值时间段,经由所述显示生成部件重新显示包括所述一个或多个可选选项的所述菜单。
47.根据权利要求30至46中任一项所述的方法,其中要将所述光标从所述第一位置移动到所述第二位置的所述请求是在确定所述计算机系统已经在相应方向上被倾斜时被检测的。
48.根据权利要求47所述的方法,其中所述光标在对应于所述相应方向的方向上被移动。
49.根据权利要求30至48中任一项所述的方法,还包括:
在显示包括所述可选用户界面对象的所述用户界面和在所述用户界面上的所述第一位置处显示的所述光标之前,显示第三用户界面;
当显示所述第三用户界面时,检测要进入第一操作模式的请求;以及
响应于检测到要进入所述第一操作模式的所述请求:
将所述计算机系统从第二操作模式转变到所述第一操作模式;以及
显示所述光标。
50.根据权利要求49所述的方法,其中检测要进入所述第一操作模式的所述请求包括检测所述计算机系统已被摇动。
51.根据权利要求49至50中任一项所述的方法,还包括:
当所述计算机系统处于所述第一操作模式时,检测所述计算机系统已被摇动;以及
响应于检测到所述计算机系统已被摇动,将所述计算机系统从所述第一操作模式转变到第三操作模式。
52.根据权利要求51所述的方法,其中将所述计算机系统从所述第一操作模式转变到第三操作模式包括停止显示所述光标。
53.根据权利要求51至52中任一项所述的方法,还包括:
当所述计算机系统处于所述第三操作模式并且当所述光标被显示时,检测要将所述光标从第六位置移动到第七位置的请求;以及
响应于检测到要将所述光标从所述第六位置移动到所述第七位置的所述请求:
在所述第七位置处显示所述光标;以及
根据确定所述第七位置对应于所述可选用户界面对象的位置并且所述光标在所述第七位置处被显示超过第八阈值时间段,放弃执行所述操作。
54.根据权利要求30至53中任一项所述的方法,还包括:
响应于检测到要将所述光标从所述第一位置移动到所述第二位置的所述请求:
根据确定所述第二位置对应于所述可选用户界面对象的所述位置并且所述光标在所述第二位置处被显示超过第九阈值时间段,执行所述操作,其中执行所述操作包括:
根据确定所述计算机系统的一个或多个设置处于第一状态,显示第二菜单,所述第二菜单包括用于执行所述第二位置处的一个或多个操作而不启动对应于所述可选用户界面对象的第二应用程序的一个或多个可选选项;以及
根据确定所述计算机系统的一个或多个设置处于第一状态,启动对应于所述可选用户界面对象的所述第二应用程序而不显示包括用于执行所述第二位置处的一个或多个操作的一个或多个可选选项的所述第二菜单。
55.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储被配置为由与显示生成部件通信的计算机系统的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行根据权利要求30至54中任一项所述的方法的指令。
56.一种与显示生成部件通信的计算机系统,所述计算机系统包括:
一个或多个处理器;以及
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行根据权利要求30至54中任一项所述的方法的指令。
57.一种与显示生成部件通信的计算机系统,所述计算机系统包括:
用于执行根据权利要求30至54中任一项所述的方法的装置。
58.一种计算机程序产品,包括被配置为由与显示生成部件通信的计算机系统的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行根据权利要求30至54中任一项所述的方法的指令。
59.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储被配置为由与显示生成部件通信的计算机系统的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于以下操作的指令:
经由所述显示生成部件显示包括可选用户界面对象的用户界面以及在所述用户界面上的第一位置处显示的光标;
当显示所述可选用户界面对象以及在所述用户界面上的所述第一位置处的所述光标时,检测要将所述光标从所述用户界面上的所述第一位置移动到第二位置的请求;以及
响应于检测到要将所述光标从所述第一位置移动到所述第二位置的所述请求:
在所述第二位置处显示所述光标;
根据确定所述第二位置对应于所述可选用户界面对象的位置,显示提供所述光标需要被定位在所述第二位置处多长时间来执行操作的视觉指示的动画,其中所述视觉指示在一时间段内被更新;以及
根据确定所述第二位置不对应于所述可选用户界面对象的所述位置,放弃显示所述动画。
60.一种与显示生成部件通信的计算机系统,所述计算机系统包括:
一个或多个处理器;以及
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于以下操作的指令:
经由所述显示生成部件显示包括可选用户界面对象的用户界面以及在所述用户界面上的第一位置处显示的光标;
当显示所述可选用户界面对象以及在所述用户界面上的所述第一位置处的所述光标时,检测要将所述光标从所述用户界面上的所述第一位置移动到第二位置的请求;以及
响应于检测到要将所述光标从所述第一位置移动到所述第二位置的所述请求:
在所述第二位置处显示所述光标;
根据确定所述第二位置对应于所述可选用户界面对象的位置,显示提供所述光标需要被定位在所述第二位置处多长时间来执行操作的视觉指示的动画,其中所述视觉指示在一时间段内被更新;以及
根据确定所述第二位置不对应于所述可选用户界面对象的所述位置,放弃显示所述动画。
61.一种与显示生成部件通信的计算机系统,所述计算机系统包括:
用于经由所述显示生成部件显示包括可选用户界面对象的用户界面以及在所述用户界面上的第一位置处显示的光标的装置;
用于当显示所述可选用户界面对象以及在所述用户界面上的所述第一位置处的所述光标时,检测要将所述光标从所述用户界面上的所述第一位置移动到第二位置的请求的装置;以及
用于响应于检测到要将所述光标从所述第一位置移动到所述第二位置的所述请求进行以下操作的装置:
在所述第二位置处显示所述光标;
根据确定所述第二位置对应于所述可选用户界面对象的位置,显示提供所述光标需要被定位在所述第二位置处多长时间来执行操作的视觉指示的动画,其中所述视觉指示在一时间段内被更新;以及
根据确定所述第二位置不对应于所述可选用户界面对象的所述位置,放弃显示所述动画。
62.一种计算机程序产品,包括被配置为由与显示生成部件通信的计算机系统的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于以下操作的指令:
经由所述显示生成部件显示包括可选用户界面对象的用户界面以及在所述用户界面上的第一位置处显示的光标;
当显示所述可选用户界面对象以及在所述用户界面上的所述第一位置处的所述光标时,检测要将所述光标从所述用户界面上的所述第一位置移动到第二位置的请求;以及
响应于检测到要将所述光标从所述第一位置移动到所述第二位置的所述请求:
在所述第二位置处显示所述光标;
根据确定所述第二位置对应于所述可选用户界面对象的位置,显示提供所述光标需要被定位在所述第二位置处多长时间来执行操作的视觉指示的动画,其中所述视觉指示在一时间段内被更新;以及
根据确定所述第二位置不对应于所述可选用户界面对象的所述位置,放弃显示所述动画。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310358775.5A CN116382557A (zh) | 2021-05-19 | 2022-05-19 | 使用手部手势导航用户界面 |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163190783P | 2021-05-19 | 2021-05-19 | |
US63/190,783 | 2021-05-19 | ||
US202163221331P | 2021-07-13 | 2021-07-13 | |
US63/221,331 | 2021-07-13 | ||
US17/747,613 US20220374085A1 (en) | 2021-05-19 | 2022-05-18 | Navigating user interfaces using hand gestures |
US17/747,613 | 2022-05-18 | ||
PCT/US2022/030021 WO2022246060A1 (en) | 2021-05-19 | 2022-05-19 | Navigating user interfaces using hand gestures |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310358775.5A Division CN116382557A (zh) | 2021-05-19 | 2022-05-19 | 使用手部手势导航用户界面 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115968464A true CN115968464A (zh) | 2023-04-14 |
Family
ID=84102770
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310358775.5A Pending CN116382557A (zh) | 2021-05-19 | 2022-05-19 | 使用手部手势导航用户界面 |
CN202280005772.7A Pending CN115968464A (zh) | 2021-05-19 | 2022-05-19 | 使用手部手势导航用户界面 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310358775.5A Pending CN116382557A (zh) | 2021-05-19 | 2022-05-19 | 使用手部手势导航用户界面 |
Country Status (4)
Country | Link |
---|---|
US (2) | US20220374085A1 (zh) |
EP (1) | EP4189520A1 (zh) |
JP (1) | JP2023539880A (zh) |
CN (2) | CN116382557A (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10558278B2 (en) | 2017-07-11 | 2020-02-11 | Apple Inc. | Interacting with an electronic device through physical movement |
US20220374085A1 (en) * | 2021-05-19 | 2022-11-24 | Apple Inc. | Navigating user interfaces using hand gestures |
US11954266B2 (en) * | 2021-12-20 | 2024-04-09 | Htc Corporation | Method for interacting with virtual world, host, and computer readable storage medium |
Family Cites Families (109)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6128010A (en) * | 1997-08-05 | 2000-10-03 | Assistive Technology, Inc. | Action bins for computer user interface |
US6031531A (en) * | 1998-04-06 | 2000-02-29 | International Business Machines Corporation | Method and system in a graphical user interface for facilitating cursor object movement for physically challenged computer users |
US20060107226A1 (en) * | 2004-11-16 | 2006-05-18 | Microsoft Corporation | Sidebar autohide to desktop |
US8341537B2 (en) * | 2006-02-28 | 2012-12-25 | Microsoft Corporation | Indication of delayed content output in a user interface |
US7852315B2 (en) * | 2006-04-07 | 2010-12-14 | Microsoft Corporation | Camera and acceleration based interface for presentations |
US8508472B1 (en) * | 2006-11-28 | 2013-08-13 | James W. Wieder | Wearable remote control with a single control button |
US7844915B2 (en) * | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
JP4855970B2 (ja) * | 2007-02-20 | 2012-01-18 | 株式会社エヌ・ティ・ティ・ドコモ | 端末装置およびプログラム |
US7873906B2 (en) * | 2007-06-22 | 2011-01-18 | International Business Machines Corporation | Method and system for presenting a visual notification and delaying an action responsive to an onscreen selection |
US20110210931A1 (en) * | 2007-08-19 | 2011-09-01 | Ringbow Ltd. | Finger-worn device and interaction methods and communication methods |
JP4670860B2 (ja) * | 2007-11-22 | 2011-04-13 | ソニー株式会社 | 記録再生装置 |
JP2009245239A (ja) * | 2008-03-31 | 2009-10-22 | Sony Corp | ポインタ表示装置、ポインタ表示検出方法、ポインタ表示検出プログラム及び情報機器 |
US10489747B2 (en) * | 2008-10-03 | 2019-11-26 | Leaf Group Ltd. | System and methods to facilitate social media |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US20140078318A1 (en) * | 2009-05-22 | 2014-03-20 | Motorola Mobility Llc | Electronic Device with Sensing Assembly and Method for Interpreting Consecutive Gestures |
US20110153435A1 (en) * | 2009-09-17 | 2011-06-23 | Lexos Media Inc. | System and method of cursor-based content delivery |
US8593576B2 (en) * | 2009-10-15 | 2013-11-26 | At&T Intellectual Property I, L.P. | Gesture-based remote control |
US8819576B2 (en) * | 2011-05-09 | 2014-08-26 | Blackberry Limited | Systems and methods for facilitating an input to an electronic device |
US9513799B2 (en) * | 2011-06-05 | 2016-12-06 | Apple Inc. | Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities |
US9367860B2 (en) * | 2011-08-05 | 2016-06-14 | Sean McKirdy | Barcode generation and implementation method and system for processing information |
US9477320B2 (en) * | 2011-08-16 | 2016-10-25 | Argotext, Inc. | Input device |
US9442517B2 (en) * | 2011-11-30 | 2016-09-13 | Blackberry Limited | Input gestures using device movement |
US20160011724A1 (en) * | 2012-01-06 | 2016-01-14 | Google Inc. | Hands-Free Selection Using a Ring-Based User-Interface |
US20150220149A1 (en) * | 2012-02-14 | 2015-08-06 | Google Inc. | Systems and methods for a virtual grasping user interface |
US9891718B2 (en) * | 2015-04-22 | 2018-02-13 | Medibotics Llc | Devices for measuring finger motion and recognizing hand gestures |
WO2014019085A1 (en) * | 2012-08-01 | 2014-02-06 | Whirlscape, Inc. | One-dimensional input system and method |
JP6178425B2 (ja) * | 2012-11-07 | 2017-08-09 | ペペ, ダビデPEPE, Davide | コンピュータ類用入力デバイス、これに対応するグラフィカルユーザーインターフェースシステム |
US10185416B2 (en) * | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
US11237719B2 (en) * | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
US11157436B2 (en) * | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
US8994827B2 (en) * | 2012-11-20 | 2015-03-31 | Samsung Electronics Co., Ltd | Wearable electronic device |
US20140293755A1 (en) * | 2013-03-28 | 2014-10-02 | Meta Watch Oy | Device with functional display and method for time management |
DE102013007250A1 (de) * | 2013-04-26 | 2014-10-30 | Inodyn Newmedia Gmbh | Verfahren zur Gestensteuerung |
KR102135092B1 (ko) * | 2013-06-03 | 2020-07-17 | 엘지전자 주식회사 | 영상표시장치의 동작 방법 |
KR101824921B1 (ko) * | 2013-06-11 | 2018-02-05 | 삼성전자주식회사 | 제스처 기반 통신 서비스 수행 방법 및 장치 |
US10884493B2 (en) * | 2013-06-20 | 2021-01-05 | Uday Parshionikar | Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions |
US9435641B2 (en) * | 2013-06-20 | 2016-09-06 | Analog Devices, Inc. | Optical angle measurement |
US9606721B2 (en) * | 2013-07-22 | 2017-03-28 | Lg Electronics Inc. | Mobile terminal and control method thereof |
KR102034587B1 (ko) * | 2013-08-29 | 2019-10-21 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어 방법 |
US20150156028A1 (en) * | 2013-12-01 | 2015-06-04 | Apx Labs, Llc | Systems and methods for sharing information between users of augmented reality devices |
US9632655B2 (en) * | 2013-12-13 | 2017-04-25 | Amazon Technologies, Inc. | No-touch cursor for item selection |
JP2015127870A (ja) * | 2013-12-27 | 2015-07-09 | ソニー株式会社 | 制御装置、制御方法、プログラム、及び、電子機器 |
US20150199780A1 (en) * | 2014-01-16 | 2015-07-16 | Alex Beyk | Methods and systems for digital agreement establishment, signing, centralized management, and a storefront using head mounted displays and networks |
US20150205358A1 (en) * | 2014-01-20 | 2015-07-23 | Philip Scott Lyren | Electronic Device with Touchless User Interface |
US20220050425A1 (en) * | 2019-07-19 | 2022-02-17 | Medibotics Llc | Wrist-Worn Device with a Flip-Up or Pop-Up Component and One or More Cameras |
US20150242083A1 (en) * | 2014-02-27 | 2015-08-27 | Nokia Corporation | Circumferential span region of a virtual screen |
US10691332B2 (en) * | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
US9804753B2 (en) * | 2014-03-20 | 2017-10-31 | Microsoft Technology Licensing, Llc | Selection using eye gaze evaluation over time |
US9414115B1 (en) * | 2014-03-28 | 2016-08-09 | Aquifi, Inc. | Use of natural user interface realtime feedback to customize user viewable ads presented on broadcast media |
CA2851611A1 (en) * | 2014-05-09 | 2015-11-09 | Reza Chaji | Touch screen accessibility and functionality enhancement |
US20160328108A1 (en) * | 2014-05-10 | 2016-11-10 | Chian Chiu Li | Systems And Methods for Displaying Information |
US9977566B2 (en) * | 2014-06-24 | 2018-05-22 | Google Llc | Computerized systems and methods for rendering an animation of an object in response to user input |
KR20160015719A (ko) * | 2014-07-31 | 2016-02-15 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
JP6447917B2 (ja) * | 2014-08-06 | 2019-01-09 | パナソニックIpマネジメント株式会社 | 手首装着型の入力装置 |
KR20160034065A (ko) * | 2014-09-19 | 2016-03-29 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
KR102271434B1 (ko) * | 2014-09-26 | 2021-07-01 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
KR102188268B1 (ko) * | 2014-10-08 | 2020-12-08 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
KR101636460B1 (ko) * | 2014-11-05 | 2016-07-05 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US9685005B2 (en) * | 2015-01-02 | 2017-06-20 | Eon Reality, Inc. | Virtual lasers for interacting with augmented reality environments |
US10656720B1 (en) * | 2015-01-16 | 2020-05-19 | Ultrahaptics IP Two Limited | Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
JP2016194755A (ja) * | 2015-03-31 | 2016-11-17 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
KR101927323B1 (ko) * | 2015-04-03 | 2018-12-10 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
WO2017039044A1 (ko) * | 2015-09-04 | 2017-03-09 | 엘지전자 주식회사 | 와치 타입의 이동 단말기 |
US11106273B2 (en) * | 2015-10-30 | 2021-08-31 | Ostendo Technologies, Inc. | System and methods for on-body gestural interfaces and projection displays |
GB2551927B (en) * | 2015-11-09 | 2020-07-01 | Sky Cp Ltd | Television user interface |
US10459597B2 (en) * | 2016-02-03 | 2019-10-29 | Salesforce.Com, Inc. | System and method to navigate 3D data on mobile and desktop |
KR102481632B1 (ko) * | 2016-04-26 | 2022-12-28 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 디스플레이를 이용한 적응적 터치 입력 방법 |
US11331045B1 (en) * | 2018-01-25 | 2022-05-17 | Facebook Technologies, Llc | Systems and methods for mitigating neuromuscular signal artifacts |
US11327566B2 (en) * | 2019-03-29 | 2022-05-10 | Facebook Technologies, Llc | Methods and apparatuses for low latency body state prediction based on neuromuscular data |
US20180036469A1 (en) * | 2016-08-05 | 2018-02-08 | Fresenius Medical Care Holdings, Inc. | Remote User Interfaces for Dialysis Systems |
US10110272B2 (en) * | 2016-08-24 | 2018-10-23 | Centurylink Intellectual Property Llc | Wearable gesture control device and method |
US10318034B1 (en) * | 2016-09-23 | 2019-06-11 | Apple Inc. | Devices, methods, and user interfaces for interacting with user interface objects via proximity-based and contact-based inputs |
CN107454947A (zh) * | 2016-09-26 | 2017-12-08 | 深圳市大疆创新科技有限公司 | 无人机控制方法、头戴式显示眼镜及系统 |
US10162422B2 (en) * | 2016-10-10 | 2018-12-25 | Deere & Company | Control of machines through detection of gestures by optical and muscle sensors |
CN109804331B (zh) * | 2016-12-02 | 2021-06-22 | 皮松科技股份有限公司 | 检测和使用身体组织电信号 |
US10528214B2 (en) * | 2016-12-28 | 2020-01-07 | Microsoft Technology Licensing, Llc | Positioning mechanism for bubble as a custom tooltip |
US10261595B1 (en) * | 2017-05-19 | 2019-04-16 | Facebook Technologies, Llc | High resolution tracking and response to hand gestures through three dimensions |
US10496162B2 (en) * | 2017-07-26 | 2019-12-03 | Microsoft Technology Licensing, Llc | Controlling a computer using eyegaze and dwell |
JP6981106B2 (ja) * | 2017-08-29 | 2021-12-15 | 株式会社リコー | 撮像装置、画像表示システム、操作方法、プログラム |
WO2019059623A1 (en) * | 2017-09-20 | 2019-03-28 | Samsung Electronics Co., Ltd. | PORTABLE DEVICE COMPRISING A FRAME RING TO PERMIT MOVEMENT IN MULTIPLE DEGREES OF FREEDOM |
WO2019079790A1 (en) * | 2017-10-21 | 2019-04-25 | Eyecam, Inc | ADAPTIVE GRAPHIC USER INTERFACE SYSTEM |
TW201928604A (zh) * | 2017-12-22 | 2019-07-16 | 美商蝴蝶網路公司 | 用於基於超音波資料來識別姿勢的方法和設備 |
US11567573B2 (en) * | 2018-09-20 | 2023-01-31 | Meta Platforms Technologies, Llc | Neuromuscular text entry, writing and drawing in augmented reality systems |
US10970936B2 (en) * | 2018-10-05 | 2021-04-06 | Facebook Technologies, Llc | Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment |
US20200310541A1 (en) * | 2019-03-29 | 2020-10-01 | Facebook Technologies, Llc | Systems and methods for control schemes based on neuromuscular data |
US11493993B2 (en) * | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US11150730B1 (en) * | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
US20230072423A1 (en) * | 2018-01-25 | 2023-03-09 | Meta Platforms Technologies, Llc | Wearable electronic devices and extended reality systems including neuromuscular sensors |
JP2019185531A (ja) * | 2018-04-13 | 2019-10-24 | セイコーエプソン株式会社 | 透過型頭部装着型表示装置、表示制御方法、およびコンピュータープログラム |
US10802598B2 (en) * | 2018-08-05 | 2020-10-13 | Pison Technology, Inc. | User interface control of responsive devices |
WO2020033110A1 (en) * | 2018-08-05 | 2020-02-13 | Pison Technology, Inc. | User interface control of responsive devices |
CN112996430A (zh) * | 2018-08-31 | 2021-06-18 | 脸谱科技有限责任公司 | 神经肌肉信号的相机引导的解释 |
EP3852613A4 (en) * | 2018-09-20 | 2021-11-24 | Facebook Technologies, LLC. | NEUROMUSCULAR CONTROL OF AN AUGMENTED REALITY SYSTEM |
US20200150772A1 (en) * | 2018-11-09 | 2020-05-14 | Google Llc | Sensing Hand Gestures Using Optical Sensors |
TWI689859B (zh) * | 2019-03-19 | 2020-04-01 | 國立臺灣科技大學 | 由手腕偵測肌動訊號識別使用者手勢之系統及方法 |
US11422623B2 (en) * | 2019-10-23 | 2022-08-23 | Interlake Research, Llc | Wrist worn computing device control systems and methods |
US11199908B2 (en) * | 2020-01-28 | 2021-12-14 | Pison Technology, Inc. | Wrist-worn device-based inputs for an operating system |
US11256336B2 (en) * | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
US11899845B2 (en) * | 2020-08-04 | 2024-02-13 | Samsung Electronics Co., Ltd. | Electronic device for recognizing gesture and method for operating the same |
US11416917B2 (en) * | 2020-08-04 | 2022-08-16 | Contextlogic, Inc. | Content carousel |
US20220156353A1 (en) * | 2020-11-19 | 2022-05-19 | Jvckenwood Corporation | Biometric authentication through vascular monitoring |
US20220253146A1 (en) * | 2021-02-09 | 2022-08-11 | Finch Technologies Ltd. | Combine Inputs from Different Devices to Control a Computing Device |
US20220291753A1 (en) * | 2021-03-10 | 2022-09-15 | Finch Technologies Ltd. | Spatial Gesture Recognition using Inputs from Different Devices to Control a Computing Device |
US20220374085A1 (en) * | 2021-05-19 | 2022-11-24 | Apple Inc. | Navigating user interfaces using hand gestures |
US11347320B1 (en) * | 2021-06-29 | 2022-05-31 | Google Llc | Gesture calibration for devices |
WO2023059458A1 (en) * | 2021-10-08 | 2023-04-13 | Meta Platforms Technologies, Llc | Apparatus, system, and method for detecting user input via hand gestures and arm movements |
TWI802123B (zh) * | 2021-12-02 | 2023-05-11 | 財團法人工業技術研究院 | 3d靜脈圖譜的辨識方法及其識別裝置 |
US20230090410A1 (en) * | 2021-12-14 | 2023-03-23 | Meta Platforms Technologies, Llc | Artificial Reality Input Models |
US20230270363A1 (en) * | 2022-02-25 | 2023-08-31 | Meta Platforms Technologies, Llc | Smart Electrodes for Sensing Signals and Processing Signals Using Internally-Housed Signal-Processing Components at Wearable Devices and Wearable Devices Incorporating the Smart Electrodes |
-
2022
- 2022-05-18 US US17/747,613 patent/US20220374085A1/en active Pending
- 2022-05-19 EP EP22729964.1A patent/EP4189520A1/en active Pending
- 2022-05-19 JP JP2023513867A patent/JP2023539880A/ja active Pending
- 2022-05-19 CN CN202310358775.5A patent/CN116382557A/zh active Pending
- 2022-05-19 CN CN202280005772.7A patent/CN115968464A/zh active Pending
-
2023
- 2023-02-14 US US18/109,808 patent/US20230195237A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4189520A1 (en) | 2023-06-07 |
US20230195237A1 (en) | 2023-06-22 |
CN116382557A (zh) | 2023-07-04 |
JP2023539880A (ja) | 2023-09-20 |
US20220374085A1 (en) | 2022-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7119179B2 (ja) | コンテキスト固有のユーザインターフェース | |
US11714597B2 (en) | Methods and user interfaces for sharing audio | |
US20230282146A1 (en) | Dynamic user interface with time indicator | |
US11921998B2 (en) | Editing features of an avatar | |
US11861077B2 (en) | Interacting with an electronic device through physical movement | |
US11016643B2 (en) | Movement of user interface object with user-specified content | |
US20220083183A1 (en) | Device management user interface | |
CN112437912A (zh) | 加速滚动和选择 | |
US20220374085A1 (en) | Navigating user interfaces using hand gestures | |
US11800001B2 (en) | User interfaces for presenting indications of incoming calls | |
US20230393616A1 (en) | Displaying application views | |
US20220392589A1 (en) | User interfaces related to clinical data | |
US11983702B2 (en) | Displaying a representation of a card with a layered structure | |
US20230389861A1 (en) | Systems and methods for sleep tracking | |
EP4044121A1 (en) | Displaying a representation of a card with a layered structure | |
US20230376193A1 (en) | User interfaces for device controls | |
US20240163358A1 (en) | User interfaces for presenting indications of incoming calls | |
WO2022246060A1 (en) | Navigating user interfaces using hand gestures | |
WO2023225012A1 (en) | User interfaces for device controls | |
CN117441156A (zh) | 用于音频路由的用户界面 | |
WO2022067318A1 (en) | User interfaces for controlling an insertion marker | |
CN112181258A (zh) | 加速滚动和选择 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |