CN106233240A - 交互式显示器上的文本输入 - Google Patents

交互式显示器上的文本输入 Download PDF

Info

Publication number
CN106233240A
CN106233240A CN201580021006.XA CN201580021006A CN106233240A CN 106233240 A CN106233240 A CN 106233240A CN 201580021006 A CN201580021006 A CN 201580021006A CN 106233240 A CN106233240 A CN 106233240A
Authority
CN
China
Prior art keywords
equipment
display
user
character
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580021006.XA
Other languages
English (en)
Other versions
CN106233240B (zh
Inventor
E.奥芬贝格
L.黄
C.金
P.米斯特里
S.萨迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN106233240A publication Critical patent/CN106233240A/zh
Application granted granted Critical
Publication of CN106233240B publication Critical patent/CN106233240B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

在一个实施例中,一种非暂态计算机可读存储介质包含用于在小显示器上显示交互性元素的指令,该交互性元素是一个或多个字符或者包括一个或多个字符。指令可基于输入识别多个交互性元素或字符中的一个或多个。

Description

交互式显示器上的文本输入
技术领域
本公开概括而言涉及交互式显示器上的文本输入。
背景技术
电子设备可包含向设备的用户显示信息的显示屏幕。电子设备也可包含从用户接收输入的输入屏幕。有时输入屏幕和显示屏幕可以是相同的或者共享相同的表面。设备的用户可在查看显示屏幕上的内容的同时通过输入屏幕向设备提供输入。当两者相同时,用户可查看显示屏幕上的内容,同时在同一屏幕上输入内容。例如,用户可与显示屏幕上显示的按钮或图标交互,或者可向设备的输入屏幕输入文本,例如数字、字符、符号或者其任何组合。
发明内容
技术方案
本公开的一实施例提供了一个或多个包含指令的非暂态计算机可读存储介质,所述指令当被一个或多个处理器执行时可操作来:在小显示器上显示交互性元素,该交互性元素具有多个位置,每个位置对应于来自字符的集合的一字符,其中来自字符的集合的至少一些字符不被同时显示在显示器上;基于输入识别交互性元素内的第一位置;以及在显示器上显示与第一位置相对应的第一字符。
附图说明
图1图示了可穿戴电子设备的示例实施例。
图2图示了设备的示例堆叠。
图3A-3E图示了设备的示例形态因素。
图4A图示了设备主体的示例截面。
图4B-4C图示了设备的组件之间的示例连接。
图5A-5F图示了设备的示例显示器。
图6A-6C图示了设备显示器的示例截面视图。
图7A-7D图示了围绕设备主体的示例外部元件。
图8A-8C图示了围绕设备主体的示例外部元件。
图9图示了设备的示例密封环。
图10图示了设备的示例固位环(retention ring)。
图11图示了穿戴设备的各种示例实施例。
图12A-12B图示了附着到设备的主体的环带。
图13A-13I图示了紧固或固着设备的环带的示例实施例。
图14A-14D图示了设备上的示例相机放置。
图15图示了具有环带和光学传感器的示例设备。
图16图示了包括用户、设备和物体的示例观看三角。
图17图示了设备的光学传感器的示例视角。
图18A-18B图示了设备的示例光学传感器。
图19图示了设备的示例传感器检测系统。
图20A-20C图示了可结合设备操作的示例充电器。
图21A-21B图示了可结合设备操作的示例充电器。
图22A-22B图示了可结合设备操作的示例充电单元。
图23图示了可结合设备操作的充电单元的示例充电方案。
图24图示了可结合设备操作的充电单元的示例充电方案。
图25A-25E图示了设备中的能量存储和充电以及充电单元的示例实施例。
图26图示了示例充电单元体系结构。
图27-图92图示了用于设备的示例手势。
图93A-93B图示了对设备的示例用户输入。
图94A-94C图示了对设备的示例用户输入。
图95A-95D图示了对设备的示例用户触摸输入。
图96A-96B图示了设备的示例图形用户界面模型。
图97图示了设备的示例图形用户界面模型。
图98A-98G图示了设备的示例图形用户界面模型。
图99图示了设备的示例图形用户界面模型。
图100A-100C图示了设备的示例图形用户界面模型。
图101A-101B图示了设备的图形用户界面的示例屏幕。
图102A-102D图示了设备的图形用户界面的示例屏幕。
图103A-103D图示了设备的图形用户界面的示例屏幕。
图104图示了设备的图形用户界面的示例菜单。
图105A-105D图示了设备的图形用户界面的示例菜单。
图106A-106C图示了设备的图形用户界面的示例菜单。
图107A-107C图示了设备的图形用户界面的示例菜单。
图108图示了设备的图形用户界面的示例菜单。
图109A-109C图示了设备的图形用户界面的示例菜单。
图110A-110B图示了设备的图形用户界面中的滚动的示例。
图111A-111C图示了设备的图形用户界面中的滚动的示例。
图112图示了设备的图形用户界面中的覆盖和背景内容的示例。
图113A-113C图示了设备的图形用户界面中的覆盖和背景内容的示例。
图114A-114B图示了设备的图形用户界面中的示例视觉转变效果。
图115A-115B图示了设备的图形用户界面中的示例视觉转变效果。
图116A-116B图示了设备的图形用户界面中的示例视觉转变效果。
图117A-117B图示了设备的图形用户界面中的示例视觉转变效果。
图118A-118C图示了设备的图形用户界面中的示例视觉转变效果。
图119A-119C图示了设备的图形用户界面中的示例视觉转变效果。
图120A-120C图示了设备的图形用户界面中的示例视觉转变效果。
图121A-121B图示了设备的图形用户界面中的示例视觉转变效果。
图122图示了设备的图形用户界面中的物理模型的示例使用。
图123图示了设备的图形用户界面的示例屏幕。
图124图示了设备的图形用户界面的示例屏幕。
图125图示了设备中的自动相机激活的示例方法。
图126图示了由设备进行委托的示例方法。
图127图示了包括设备的示例委托模型。
图128图示了由设备进行委托的示例方法。
图129A-129D图示了设备的示例模式。
图130图示了设备的示例模式。
图131A-131D图示了设备的示例模式。
图132图示了在设备上提供增强现实功能的示例方法。
图133图示了设备可在其中操作的示例网络环境。
图134图示了设备与目标设备之间的配对的示例。
图135图示了将设备与目标设备配对的示例方法。
图136图示了设备的图形用户界面的示例屏幕。
图137图示了包括设备的示例计算机系统。
图138A-138E图示了具有示例圆形显示器的示例设备,该圆形显示器包含用于输入文本的显示部分、用于显示输入的文本的部分和用于显示可用于输入的文本的部分。
图139A-139F图示了具有示例圆形显示器的示例设备,该圆形显示器包含用于输入文本的显示部分、用于显示输入的文本的部分和用于显示可用于输入的文本的部分。
图140A-140B图示了具有示例圆形显示器的示例设备,该圆形显示器包含用于输入文本的显示部分、用于显示输入的文本的部分和用于显示可用于输入的文本的部分以及用于向用户建议可选择的字符串的部分。
图141A-141B图示了具有用户可在其上输入手写文本的部分的示例设备。
图142A-142B图示了具有用户可在其上输入被引导的手写文本的部分的示例设备。
图143A-143B图示了具有用户可在其上输入被引导的手写文本的部分的示例设备。
图144A-144B图示了具有用户可在其上输入被引导的手写文本的部分的示例设备。
图145A-145B图示了可由示例设备的传感器捕捉以将文本输入到设备上的示例手势。
图146A-146C图示了显示英语字母表的小显示器的示例字符布局。
图146D-146E图示了对被选文本的示例突出。
图147A-147C图示了基于先前选择的字符更改显示的可用于选择的字符的示例。
图148A-148C图示了在示例圆形显示器的外边缘上显示的示例字符集合的示例布局。
图149A-149C图示了在示例矩形显示器上显示的示例字符集合的示例布局。
图150A-150D图示了用于呈现字符以输入到显示器的示例层次化布局。
图151A-151D图示了在示例显示器选择字符来输入的示例手势。
图152A-152C图示了用于将文本输入到显示器上的示例界面。
图153A-153B图示了用于将文本输入到显示器上的示例界面。
图154A-154D图示了用于将文本输入到显示器上的示例界面。
图155A-155D图示了随着用户将文本输入到显示器上而重布置字符的示例界面。
图156A-156P图示了用于输入到显示器上的字符的示例分组。
图157A-157D图示了用于输入到显示器上的字符的示例分组。
图158A-158B图示了用于输入到显示器上的字符的示例分组。
图159A-159F图示了具有用于将字符输入到显示器上的示例交互性元素的示例显示器。
图160图示了具有用于将字符和建议的字符串输入到显示器上的示例交互性元素的示例显示器。
图161图示了具有用于将字符输入到显示器上的示例交互性元素的示例显示器。
图162图示了具有用于将字符和建议的字符串输入到显示器上的示例交互性元素的示例显示器。
图163图示了具有用于将字符输入到显示器上的示例交互性元素的示例显示器。
图164A-164B图示了具有用于将字符输入到显示器上的示例交互性元素的示例显示器。
图165图示了用于构造字符以利用示例字符部分输入到示例显示器的示例界面。
具体实施方式
本公开的一实施例提供了一个或多个包含指令的非暂态计算机可读存储介质,所述指令当被一个或多个处理器执行时可操作来:在小显示器上显示交互性元素,该交互性元素具有多个位置,每个位置对应于来自字符集合的一字符,其中来自字符集合的至少一些字符不被同时显示在显示器上;基于输入识别交互性元素内的第一位置;以及在显示器上显示与第一位置相对应的第一字符。
字符集合包括英语字母表。
交互性元素不包括来自字符集合的任何字符。
显示器包括矩形显示器;并且交互性元素包括沿着矩形显示器的边缘显示的第一条块。
来自用户的输入包括用户的手指和显示器的与第一位置相对应的部分之间的接触;并且指令当被执行时还可操作来:确定手指从第一位置到交互性元素内的第二位置的移动,该移动包括与显示器的连续接触;从显示器移除第一字符;以及在显示器上显示与第二位置相对应的第二字符。
来自用户的输入包括用户的手指和显示器的与第一位置相对应的部分之间的接触;在用户的手指接触显示器的与第一位置相对应的部分的同时,第一字符被显示在显示器的第一部分上;并且指令当被执行时还可操作来:确定用户从显示器移除了手指;以及在显示器的第二部分上显示第一字符。
显示器包括圆形显示器;并且交互性元素包括沿着圆形显示器的边缘显示的弯曲条块。
交互性元素包括沿着显示器的边缘的第一条块。
交互性元素还包括与第一条块平行并相邻的第二条块;第一条块包括来自字符集合的一个或多个字符;并且第二条块包括一个或多个建议字符串。
指令当被执行时还可操作来:确定用户在第二条块上执行了挥扫手势;以及响应于挥扫手势,将第二条块中的一个或多个建议字符串中的一些替换为一个或多个其他建议字符串。
指令当被执行时还可操作来:确定用户的手指接触了显示器的与第一位置相对应的第一部分;以及确定手指进行了与条块基本垂直的、到显示器的在条块外部的第二位置的连续移动。
指令当被执行时还可操作来:确定用户在第一条块上执行了挥扫手势;以及响应于挥扫手势,将第一条块中的一个或多个字符中的一些替换为一个或多个其他字符。
交互性元素包括与第一条块平行并相邻的第二条块;第一条块包括来自字符集合的一个或多个字符;并且第二条块包括可操作来更改第一条块中显示的字符的一个或多个图标。
一个或多个图标可操作来:改变第一条块中的字符的大小写;改变第一条块中的字符的排版;在第一条块中显示数字;在第一条块中显示字母;或者在第一条块中显示符号。
所述字符包括字符成分。
所述显示器包括圆形显示器;交互性元素包括显示器的半圆部分,半圆部分包括字符中的至少一者的显示。
所述介质在可穿戴设备内,该可穿戴设备包括:显示器;
围绕显示器的可旋转元件;以及检测器,被配置为检测可旋转元件的旋转;以及耦合到设备主体的环带。
所述指令当被执行时还可操作来:确定可旋转元件的旋转;以及基于旋转,将半圆部分中的字符中的至少一者替换为来自字符集合的字符中的另一者。
本发明的一实施例提供了一种设备,包括:小显示器,被配置为:显示交互性元素,该交互性元素具有多个位置,每个位置对应于来自字符集合的一字符,其中来自字符集合的至少一些字符不被同时显示在显示器上;以及处理器,被配置为:基于输入识别交互性元素内的第一位置;以及指示显示器显示与第一位置相对应的第一字符。
所述交互性元素包括沿着显示器的边缘的条块。
所述输入包括在显示器上作出的手势;并且处理器基于手势识别第一位置。
本发明的一实施例提供了一个或多个包含指令的非暂态计算机可读存储介质,这些指令当被一个或多个处理器执行时可操作来:在小显示器的表面的外部部分的实质部分上显示多个字符,显示器的表面具有包括显示表面的中心的内部部分;基于输入识别显示的字符中的一个或多个字符;以及在显示器的包括输入的文本的部分上显示识别出的一个或多个字符。
所述显示器包括基本上圆形的显示器;并且外部部分和内部部分是基本上圆形的。
所述介质在可穿戴设备内,该可穿戴设备包括:显示器;围绕显示器的可旋转元件;检测器,被配置为检测可旋转元件的旋转;以及耦合到设备的主体的环带。
所述指令当被执行时还可操作来:确定可旋转元件的旋转;以及基于旋转,选择在外部部分上显示的字符中的至少一者。
外部部分在显示器的表面的外边缘附近或者在显示器的表面的外边缘处。
所述显示器包括基本上矩形的显示器;并且外部部分和内部部分是基本上矩形的。
外部部分在显示器的表面的外边缘附近或者在显示器的表面的外边缘处。
来自用户的输入包括由用户的手指在一个或多个显示的字符上或一个或多个显示的字符周围作出的挥扫手势。
当被执行时可操作来基于来自用户的输入识别显示的字符中的一个或多个字符的指令包括当被执行时可操作来识别以下各项的指令:用户的手指与内部部分之间的接触;用户的手指从内部部分到外部部分的第一移动;用户的手指在执行第一移动之后挥扫的第一字符;用户的手指从外部部分到内部部分的第二移动;用户的手指从内部部分到外部部分的第三移动;以及用户的手指在执行第三移动之后挥扫的第一字符。
第三移动包括从外部部分挥扫到显示器的中心或挥扫到显示器的中心附近。
指令当被执行时还可操作来基于识别的字符而移除、突出或不强调外部部分上显示的一个或多个字符。
本发明的一实施例提供了一个或多个包含指令的非暂态计算机可读存储介质,指令当被一个或多个处理器执行时可操作来:在小显示器的第一部分上显示多个交互性元素,每个交互性元素包括:多个字符;以及视觉指示符,其指示出这多个字符被分组在一起;在交互性元素内显示来自该交互性元素的多个字符的至少一个字符;基于输入识别交互性元素中的一个或多个。
多个交互性元素包括:在层次体系的第一层的第一交互性元素;以及在层次体系的第二层的第二交互性元素。
第一交互性元素的多个字符包括比第二交互性元素中的多个字符更频繁被使用的字符。
第一交互性元素包括:具有多列的第一行,每列包括一个或多个字符;或者具有多行的第一列,每行包括一个或多个字符;并且第二交互性元素包括:显示器的边缘和第一行之间的第二行,第二行具有多列,每列包括一个或多个字符;或者显示器的边缘和第一列之间的第二列,第二列具有多行,每行包括一个或多个字符。
当被执行时可操作来显示多个交互性元素的指令包括当被执行时可操作来作出以下动作的指令:在显示器上显示第一交互性元素;以及响应于由用户的手的一部分在显示器上作出的手势,在显示器上显示第二交互性元素。
所述手势包括:用户的手指与第一交互性元素之间的接触;以及从第一交互性元素起在显示器的边缘的方向上的连续移动。
所述视觉指示符包括交互性元素的周界的一条或多条线。
所述视觉指示符包括交互性元素中的多个字符的每一者附近的图标。
所述视觉指示符包括交互性元素中的多个字符的着色。
所述视觉指示符响应于来自用户的输入而出现。
来自用户的输入包括用户的手指与交互性元素之间的接触;并且指令当被执行时还可操作来:在交互性元素的外部显示该交互性元素的字符;以及识别用户的手指从该交互性元素到在该交互性元素外部显示的字符之一的运动;以及选择该字符来输入到显示器。
多个交互性元素包括一行交互性元素并且在交互性元素外部显示的字符包括一列字符;或者多个交互性元素包括一列交互性元素并且在交互性元素外部显示的字符包括一行字符。
用户作出的输入识别出所识别的交互性元素的字符中的至少一者,输入包括以下各项中的一个或多个:用户的手指在交互性元素上作出的叩击的次数,该交互性元素中的每个字符对应于预定的叩击次数;或者用户的手指与交互性元素之间的接触的持续时间,该交互性元素中的每个字符对应于一个或多个预定的持续时间。
具体实施方式
图1图示了可穿戴电子设备100的示例实施例。设备100包括包含设备100的所有或一些电路、结构和显示的主体105。例如,主体105可包括设备100的所有或一些处理组件、数据存储组件、存储器、传感器、布线或通信组件。在特定实施例中,设备100可包括显示器。显示器可采取任何适当的形态或形状,例如圆形,如圆形显示器110所示。按照本文使用的,在适当时,“圆形显示器”包括基本上圆形的显示器或者像圆形的显示器,例如椭圆显示器。在特定实施例中,设备100可包括围绕显示器的元件。按照本文使用的,围绕显示器的元件包括环绕显示器或者环绕显示器位于其中或其上的主体的可旋转元件。作为示例,元件可以是围绕圆形显示器110的外环115。在特定实施例中,围绕显示器的元件可相对于显示器或主体移动。例如,外环115可相对于设备100的主体旋转,这在下文更充分描述。在特定实施例中,设备100可包括附着到主体105的环带120。在特定实施例中,设备100可包括固着在主体105或环带125中或固着到主体105或环带125的传感器模块,例如容纳着相机的相机模块125,这在下文更充分描述。
可穿戴电子设备的特定实施例包括一种堆叠,其允许处理和显示系统的一些或全部安置于设备的主体内部,设备的主体可被诸如外环之类的提供至少一种供用户与设备交互的方式的元件所包围。作为附加或替换,特定实施例可包括被包含到环带中以用于另外功能的外部组件,这在本文中将更充分描述。图2图示了可穿戴电子设备的示例堆叠200。如图2中所示,堆叠200的一些或所有组件可采取设备的形态,设备的形态在图2的示例中是圆形。堆叠200可包括一层保护玻璃(或其他适当的透明固体材料)205。其他组件可被层压到保护玻璃205,或者被附着到基底245。作为附加或替换,保护层205可机械地连接到外环235,或者设备的主体的任何其他适当的组件。保护玻璃205的正下方可以是触摸敏感层210。触摸敏感层210可由任何适当材料构成并且可以是任何适当类型的,例如电阻、表面声波、电容(包括互电容或自电容)、红外、光学、色散或任何其他适当类型。触摸敏感层210可被直接施加到保护玻璃205、被层压到保护玻璃205上或者被物理固着到保护玻璃205。触摸敏感层210可以是完全二维的触摸表面,或者可由触摸敏感区域组成,例如数个电容式按钮或区域。触摸敏感层210可经由触摸表面的边缘处的柔性连接器连接到处理器板215,这在本文中将更充分描述。
触摸敏感层210下方可以是圆形显示器215,圆形显示器215可被层压或机械地固着到任何先前或前述层。在特定实施例中,层压(lamination)可减少眩光并且通过减少内反射来改善显示易辨认性。如下文更充分描述的,显示器215可具有外部非活跃区域,该区域可以是对称的或不对称的。显示器215可被定位成使得其相对于保护层205是轴向居中的以便获得视觉上对称的呈现。显示器215可以是任何适当类型的,例如发光二极管(light-emitting diode,LED)、有机发光二极管(organic light emitting diode,OLED)或者液晶显示器(liquid crystal display,LCD)。在特定实施例中,显示器215可以是柔性的。在特定实施例中,显示器215可以是部分透明的。在特定实施例中,显示器215可以是半透明的。
显示器215下方可以是电池220,电池220在特定实施例中可被定位成使得基底245的直径可在不影响电池的大小的情况下减小。电池220可以是任何适当类型的,例如基于锂离子的。电池220可采用设备的圆形形状,或者可采用任何其他适当形状,例如矩形形态,如图所示。在特定实施例中,电池220可“漂浮”在设备中,例如在电池上方、下方或周围可具有空间以适应热膨胀。在特定实施例中,为了组件的最佳装填,诸如触觉致动器或其他电子器件之类的高度较高的组件可被定位在超出电池的边缘的另外空间中。在特定实施例中,来自处理器板225的连接器可被放置在此空间中以减小设备的整体高度。
电池220下方可以是处理器板225。处理器板225可包括任何适当的处理组件,例如一个或多个处理单元、驱动单元、感测单元、缓存、存储器元件或者集成电路。处理器板225可包括一个或多个热传感器或冷却单元(例如,风扇),用于监视和控制一个或多个处理器板组件的温度。在特定实施例中,设备的主体105本身可充当散热器。
处理器板下方可以是编码器230,其被一个或多个外环235所环绕。如下文更充分描述的,编码器230可以是任何适当类型的,并且可以是外环235的一部分或者可以是单独的组件,如图2中所示。在特定实施例中,外环235可提供外环的止动的触感或者外环235的位置感测。当编码器230是与设备主体分离的机械编码器时,如图2中所示,编码器可支撑外环235。例如,在特定实施例中,编码器230被安放到基底245,并且去到基底245或者去到环带240的连接可经过编码器的某个部分,例如编码器的中心。在特定实施例中,处理器板225和上方的一个或多个层可附着到经过编码器235的中心柱。该柱可以将设备的组件上的机械力传递到该柱,这可允许诸如处理器板和显示器之类的组件被该柱而不是被编码器支撑,这减小了编码器上的应力。在特定实施例中,外环235经由齿头(prong)或者其他适当的连接附着到编码器的可动部分。
设备主体可结束于基底245。基底245相对于设备的一个或多个可旋转组件——例如外环235——可以是静止的。在特定实施例中,基底245连接到本文中将更充分描述的环带240。连接可以是机械的或者电气的,例如电路的一部分将环带240中的有线通信组件链接到处理板225。在特定实施例中,连接器被定位为避开编码器和环带的锚定点。在特定实施例中,环带240可从基底245脱离。如本文中将更充分描述的,环带240可包括一个或多个内连接器250、一个或多个光学感测模块255或者一个或多个其他传感器。在特定实施例中,设备的内部或者该内部的一些部分相对于外部环境可以是密封的。
虽然本公开描述了可穿戴电子设备100的堆叠200中的组件和这些组件的形状、大小、顺序、连接和功能的具体示例,但本公开预期例如设备100这样的可穿戴设备可包括以任何适当方式连接或通信的任何适当形状、大小和顺序的任何适当组件。仅作为一个示例,电池220可被放置得比图2中所示更靠近堆叠的底部。作为另一示例,设备的主体可采取任何适当的形态因素,例如图3A的示例所示的椭圆或盘状的,如图3B的示例所示的一端逐渐变细的,或者如示出斜切边缘315的图3C-图3D的示例所示的在一个或多个边缘处成斜切状或圆形的。图3E图示了设备主体的额外示例形态因素,例如具有带平坦保护遮罩或显示器或者弯曲保护遮罩或显示器的多边形形状的主体320A-E。作为另一示例,主体325A-D具有带平坦保护遮罩或显示器或弯曲保护遮罩或显示器的部分弯曲形状。主体330A-C具有弯曲形状。设备主体的一个或多个内部组件,例如一个或多个内部组件,可采取适合于其所在的主体的任何形态因素。
图4A图示了设备主体的示例截面。如图所示,设备主体具有D1的宽度,例如大约43毫米。特定实施例在外环与OLED显示器之间可包括微小间隙D4,例如最多达0.3毫米的间隙。类似地,在外环与玻璃保护遮罩(其可具有宽度D3,例如大约42.6毫米)之间也可以有距离,例如.2毫米。在特定实施例中,玻璃保护遮罩与外环之间的间隙大于显示器与外环之间的间隙。外环(其可包括锯齿)可具有例如1.0毫米的宽度D2。图4B-图4C图示了设备的组件之间的示例连接组。图4B图示了显示器410上方的触摸玻璃405。显示器被利用例如粘合密封剂425附着到内主体440的顶部。显示器柔性印刷电路430将显示器耦合到设备主体内的电子器件。粘合密封膜445可用于将环带450连接到设备,并且一个或多个固位环435可用于将外环415连接到内主体440。在特定实施例中,固位环(retention ring)可抑制外环在其垂直轴上扭曲并且提供了外环与玻璃遮罩之间的物理间距。保护玻璃层可位于内主体的顶上,提供环境密封。在特定实施例中,固位环也可为内主体提供环境密封。例如,图5C图示了示例固位环465将外环附着到设备主体并且在外环与内主体之间提供环境密封。作为附加或替换,可能涂覆有诸如特氟隆之类的憎水物的毛束型材料可用于防止水和灰尘侵入到腔体中。作为另一示例,可利用金属或塑料的环将外环密封到内主体,防止空气(并从而防止水蒸气或其他微粒)移动经过外环与内主体之间的腔体。间隙455允许外环相对于内部设备主体移动,例如通过旋转来移动。粘合密封剂460将显示器附着到主体并且在显示器与内主体的组件之间提供环境密封。
在特定实施例中,设备的显示器具有圆形或椭圆形态,并且容纳着圆形显示单元,例如LCD显示器,和OLED显示器。显示单元可被安放成使得可见区域在显示模块内位置居中。如果显示单元具有偏置设计,则一个或多个适当的掩蔽可用于遮蔽显示器的一部分以产生圆形且正确放置的视觉轮廓。
在特定实施例中,显示模块具有作为设备的用户界面的一部分的外环。该外环可在环带保持设备的底部和内部稳定的同时旋转。图5A图示了设备的显示器相对于其他设备组件的顶视图的示例。外环510可被附着到设备508的前表面512,或者其可独立于前表面512。在特定实施例中,无论围绕显示器506的外环510如何旋转,显示器506都不旋转。这可通过将显示器506附着到显示模块的被固着到环带502的部分504来实现,或者通过将显示的内容编程为在显示单元旋转的同时保持静止来实现。在后一种情况中,显示的内容被旋转以使得显示单元显示的图像的视觉垂直轴始终保持与环带平行。
显示模块在与显示器相同的表面上或者其附近可额外地包含一个或多个传感器。例如,显示模块可包括相机或其他光学传感器、麦克风或天线。一个或多个传感器可被放置在显示器的非活跃区域中。例如,图5B图示了设备522,其中相机模块516被放置在显示器520下方与电池共面,光学开口514被定位在显示器520的清透部分的下方。相机模块516可被放置在显示器520的网格线连接器518之间。任何相机或其他适当的传感器可被放置成与显示器共面,例如图5C的天线524,其被放置在非活跃区域526中。作为附加或替换,传感器可被放置在显示器的下方或上方,可被放置在设备的外主体中或外主体上的任何适当位置,可被放置在设备的环带中或环带上的任何适当位置,或者上述的任何适当组合,这在本文中将更充分描述。例如,前向相机可被放置在显示器下方、显示器上或者显示器上方。
在特定实施例中,圆形显示器的封装包括非活跃区域,如图5D中所示。在传统显示器中,对显示器供电的行驱动线被引路到最近的横向边缘,然后或者沿着非活跃区域向下引路,或者沿着该边缘直接连接到驱动器集成芯片。可以采取数种方案来减小显示器的非活跃区域的量。例如,特定实施例通过将对显示器供电的网格控制线重引路到显示器的一个边缘来减小非活跃区域的大小。图5D图示了被引路到显示器536的一个边缘并连接到连接器538的网格控制线532,该连接器538将这些线引路到设备528的处理中心。在该配置中,非活跃区域530可被最小化。
图5E图示了另一示例实施例,用于通过创建多边形类型的显示轮廓来减小设备540的显示器554的非活跃区域,该显示轮廓具有在中心处被一个或多个掩模550掩蔽的圆形区域。连接器552被布置成多边形设计。网格线的行546和列542被引路到最近的连接器552。在特定实施例中,连接器552连接到显示器后方的承载驱动器芯片的柔性电路。由于连接密度的减小,图5E的电子器件可更容易连接到柔性印刷电路板(FPC板)并从而增大产量。此外,通过将驱动器集成电路移动到显示器的背后,在允许集成电路保持在稳定且平坦的表面上的同时,可进一步减小一个或多个非活跃区域548。此设计尤其适合于OLED显示器,但也可用于LCD,考虑到背光单元(backlight unit,BLU)可在连接FPC板之前被层压到设备上。虽然以上示例例示了连接器的多边形布置,但只要网格线到达所有像素,就可使用连接器的任何适当布置。
图5F图示了设备的显示器的示例物理布置和大小设置。设备具有D4的直径,例如大约41.1毫米。设备包括具有宽度D3的一个或多个非活跃区域,例如大约1.55毫米。设备包括具有直径D2的可见区域,例如大约38毫米。设备包括用于列线564和行线566的连接器568。连接器568可由一个或多个FPC粘结物570耦合到设备,这些FPC粘结物570具有D1的宽度,例如大约.2毫米。连接器568可具有宽度D5,例如大约6毫米。显示器连接器FPC 556可用于将显示器的电子器件,例如来自连接器568的电路,连接到驱动器芯片558,驱动器芯片558可在显示器下方或者在设备主体的背后。
图6A-图6C图示了设备显示器的示例截面视图,包括设备的制造。在图6A中,热压焊刀605用于焊接将显示器的电子器件耦合到设备的处理电子器件的(一个或多个)柔性印刷电路610。支撑物615可用于在此过程期间稳定FPC 610。图6B图示了连接的FPC 620,其被折叠起来(部分625)并且被利用粘合剂630胶合到显示器的背后。图6C图示了示例的完成的显示器。FPC 645被层压到保护性显示玻璃635的背后,并且被弯曲到玻璃635的正面并经由微粘结物649附着到玻璃635的正面。粘合剂650将FPC 645连接到设备。FPC越过驱动器芯片655,驱动器芯片655由粘合剂650连接到设备。
在特定实施例中,所有处理和RF组件位于设备的主体内,这在允许RF信号传递出设备方面可产生挑战。FPC板可额外地被附着到多边形的没有去到显示器本身的连接的侧边以允许将条线、短线、陶瓷或其他天线(或其他适当的传感器)安装在与显示器相同的平面中,如图5C中所示。由于图5C的天线与显示器共面,所以减小了来自从显示器来的布线(例如图5E中所示)的密集网格的干扰。
在特定实施例中,可利用金属屏蔽来为显示器屏蔽与主处理器板的电磁干扰。在特定实施例中,金属屏蔽也可用作电池的散热器,从而可提高电池的充电或放电速率。
在特定实施例中,可穿戴电子设备可包括围绕设备主体的一个或多个外部元件(它们可以是任何适当的形状)。图7A利用围绕显示器705的示例外环710图示了外部元件。外环可由任何适当的材料构成,例如不锈钢或铝。在特定实施例中,外环710可在一个方向上旋转、在两个方向上旋转或者可基于例如开关按这两种配置来使用。在特定实施例中,一个外环710可在一个方向上旋转,而第二外环710可在相反方向上旋转。外环710可由固位环715耦合到设备的基底720。图7B图示了由迭尔林环715A或者由弹簧钢固位环715B附着到基底720的外环710。弹簧或夹子725将环固着到基底720。图7C-图7D图示了经由被旋拧到基底720的相应柱中的螺钉725来固着到基底720的固位环715。设备可包括紧固件/间隔物730,如图7C中所示。
在特定实施例中,外部元件的止动件或编码器(在适当时这两者可互换使用)可向用户提供触觉反馈(例如触觉上的咔哒感),该触觉反馈例如是由允许用户确定该元件何时被移动了一“步”或者一个“增量”(在本文中这两者可互换使用)的止动件来提供的。这个咔哒感可直接经由机械联接(例如弹簧机构)来产生,或者可经由触觉致动器(例如马达或压电致动器)来电子地产生。例如,马达可对环的运动提供阻力,例如通过被短路以提供阻力以及被解除短路以提供更小的阻力,从而模拟由机械止动系统提供的相对高和低的转矩。作为另一示例,磁性系统可用于提供止动件的触感。例如,螺线管机构可用于根据需要解脱止动弹簧或者擒纵装置。弹簧或擒纵装置提供实际机械反馈。然而,此布置允许设备根据需要跳过数个止动件,同时按精确的间隔重新啮合止动件以产生止动的感觉,例如具有改变的大小的那种。作为另一示例,可旋转的外部元件(例如外环)可被磁化,例如由用于在“止动”位置吸引环的电磁来磁化,从而增大转矩并模拟止动反馈。作为另一示例,可旋转外部元件可具有交替的北极-南极,它们排斥和吸引设备主体中的相应磁极。作为另一示例,永磁体可用于在电磁体未在使用时将环锁定在原位,防止惯性滑行。作为另一示例,取代电磁体,易于磁化的铁磁合金可用在螺线管内。这允许螺线管的电磁场对磁芯的磁取向“重编程”,从而即使当螺线管本身被解脱时也维持磁致动的效果。虽然本公开提供了止动件、类似止动件的系统和编码器的具体示例,但本公开预期任何适当的止动件、类似止动件的系统或者编码器。
图8A图示了外环805,其具有凹口来供基于弹簧的止动系统被蚀刻到外环805的内表面上。弹簧820附着到弹簧柱810。固位环815可由迭尔林、钢或者任何其他适当材料构成,并且可以是分段的或者固态/连续的。图8B图示了具有小凹口830的示例外环,这些小凹口啮合弹簧加压的元件以提供来自图示的止动件的触觉反馈。在电子反馈系统的情况下,反馈可与环的运动迅速同步地产生,并且必须具有充分的发动和衰减率以使得环的接连运动是可相互区分的。在特定实施例中,外环可以是可自由(例如连续)旋转的,而没有任何咔哒或步进。在特定实施例中,基于例如来自用户的指示外环应当处于哪种旋转模式中的输入,环可既能够连续旋转也能够按步/按增量旋转。额外地或者替换地,环可在一个方向上自由旋转并且在另一方向上按增量旋转。基于使用的旋转模式可发生不同的功能。例如,在连续模式中旋转可改变连续参数,例如音量或变焦,而在增量模式中旋转可改变离散参数,例如菜单项或列表中的联系人,这在本文中将更充分描述。在特定实施例中,当自由旋转时,环可向用户提供触觉反馈,例如施加一个力以使得环看起来在粘性介质中旋转(例如,环旋转得越快,其就越抵抗旋转)。在特定实施例中,外环可在外环绕其旋转的轴的方向上被压低或升高,例如作为手势的一部分或者用于改变旋转模式。在特定实施例中,外环可具有触摸敏感部分。
在特定实施例中,编码器或止动件可用于确定外环相对于设备主体的位置。特定实施例利用被固着到设备主体的编码器,如图2的编码器230所示。在特定实施例中,编码器是外环本身的内表面的一部分,如图8B中的印刷光学元件825所示。在这些实施例中,外环直接充当编码器的旋转部分。光学编码器模式被印刷到内表面上,并且被处理板上的光学模块读出。外环的内部的编码器对于检测器而言应具有充分的光学对比度,并且可经由例如印刷或激光蚀刻被蚀刻到外环上。可利用低摩擦环(例如,图8C的环840)来对内环和外环进行环境密封,该低摩擦环由诸如特氟隆或迭尔林之类的材料构成,其在防止污染物进入设备的内部部分的同时维持紧密配合。在特定实施例中,内环上的唇缘可啮合外环上的类似唇缘,从而允许两个环被接合,同时仍允许自由旋转。内环底部的更大唇缘通过使来自下方的环境危害物转向来提供进一步密封。如图9中所示,在特定实施例中,密封环915可安置到基底的凹槽905中,基底可包括握柄区域910。
在特定实施例中,将外环连接到设备的主体的固位环可具有应变仪以检测外环上的压力。作为示例,图10图示了连接到围绕环对称放置的四个应变仪(它们也连接到内主体)的固位环。按照本文使用的,四个应变仪可以是检测应力的电子组件。由于对称放置,正常运动或与外环的接触将在外环上施加大多为非对称的应力,因为环仅仅在环的平面中相对于设备移动,从而一端压缩并且相反端拉长,如图10的顶部环所示。相反,挤压外环的更大部分将有可能在相反两对应变仪上产生对称应力(例如由于环在压力下的拉长)。两对应变仪之间的应力中的相对差异从而区分了对外环的故意挤压与外环的常规运动或者与外环的接触。虽然本公开描述了固位环中的应变仪的数目和放置的具体示例,但本公开预期在设备的任何适当组件中放置任何适当数目的应变仪来检测该组件上的压力。作为一个示例,应变仪可被放置在设备的环带上或者放置在外环中。
当在包含应变仪或者任何其他适当的应力或压力检测系统的组件上施加应力时,检测到的应力可导致任何适当的功能。例如,当例如通过用户挤压外环来在外环上施加应力时,可向用户提供反馈。该反馈可采取任何适当的形式,例如触觉反馈(例如振动、摇晃或者加热/冷却)、诸如蜂鸣或播放特定的用户定义音调之类的听觉反馈、视觉反馈(例如由设备的显示器进行)或者任何其他适当的反馈或者其组合。与挤压环相关联的功能在本文中将更充分描述,并且本公开预期由施加在任何适当的组件上并被这些组件检测到的应力或压力引起的任何适当功能。
可穿戴电子设备可被附着到环带以将该设备固着到用户。这里,提及“环带”可涵盖用于将设备固着到用户的任何适当装置,例如可戴在用户的手臂、手腕、腰或腿上的传统环带1405,如图14A中的示例所示;用于固着到一件衣服的夹子1415,如图14B中的示例所示;项链或手镯1420配置,如图14C中的示例所示;钥匙链1425或其他附件配置,用于将设备稳固在例如用户的口袋中,如图14D中的示例所示;或者任何其他适当的配置。这些实施例中的每一者可包括位于设备上、位于环带上或者位于身体上的相机1410。图11图示了各种实施例,用于将设备例如戴在颈上,如1105中所示;别到衣服上(例如,如1110所示的胸部);如115中所示戴在腰带上;戴在附肢上(例如,如1120中所示的手臂);如1125中所示戴在腰上;或者如1130中所示放在口袋中。虽然本公开描述了环带和将设备固着到用户的方式的具体示例,但本公开预期任何适当的环带或将设备固着到用户的方式。
在特定实施例中,在适当时,传感器和对应的电子器件可被附着到环带。例如,图14A-图14C的环带可适用于容纳光学传感器。如图所示,特定实施例可适合于包括触摸敏感区域。本公开预期任何适当的环带,这些环带包括任何适当的传感器或电子器件,例如通信组件(比如天线)、环境传感器或者惯性传感器。在特定实施例中,环带可与设备脱离,并且在未被附着到设备时可与设备远程通信。在特定实施例中,与环带中的电气组件相关联的布线也可被容纳在环带中,以例如最小化设备的体积或者最小化与内部设备组件的电磁干扰。例如,可引起高水平的内部EMI(例如,相机或通信系统)、可要求额外的体积(例如,电池或扬声器)、可要求主体的环境密封(例如,电力/数据连接器)或者可要求与用户的皮肤的额外接触(例如,生物计量传感器)的设备可通过将至少一些电子器件容纳在设备的环带中而受益。在特定实施例中,当布线被包含在环带中时,显示模块可被附着到环带以使得向环带或经由环带作出的电子连接在外环被旋转时不会扭曲。该模块可使用用户可移除的连接器,以使得显示模块或设备主体可被用户随意移除和附着。作为环带到设备的示例附着,如图12A中所示的环带1215可通过被放置在一个或多个柱1205上并随后利用紧固件(例如螺钉)1210固着到这些柱来被附着到主体。在特定实施例中,除了紧固件和柱以外,固位板1215也可用于将环带稳固到设备1225,如图12B中所示。本公开预期环带与设备之间的任何适当接口。例如,在环带与设备的主体之间可提供USB接口,以例如在设备与环带或者设备的组件与环带的组件之间传输数据。在特定实施例中,接口可使得设备的用户能够容易地脱离、附着或改变设备的环带。
本公开预期用于例如在被用户穿戴时将如图14A中所示的环带连接到其自身的任何适当结构。例如,图13A图示了用于将具有相机模块1310的环带1305紧固到设备1300的穿戴者的示例结构。紧固件可包括一个或多个搭扣1315、孔洞1320和1335和相应的组件、扣钩1340或具有按钮1330的夹子1325。图13B图示了用于利用夹子1311和1303将环带1301固着到穿戴者的示例机制。组件1309插入在组件1307的另一侧上的腔体中以紧固环带1301。图13B进一步图示了夹子1303和1311的示例内部机制。(对应于夹子1311的)夹子1313的组件1317可包括一个或多个磁性部分,这些部分可被吸引到腔体1323中的磁体。例如,组件1317在其外边缘处可包括磁性部分,并且相反极性的磁体可被放置在弹簧1319的前方以吸引组件1317的磁体。组件1317随后可填充腔体1323,通过磁体的耦合将夹子1313紧固到夹子1303。一旦插入,组件1321就可用于啮合弹簧1319,弹簧1319将组件1317推挤出腔体1323。夹子1313可与夹子1303脱离。除了组件1317上和腔体1323中的磁体以外,磁体也可被放置在夹子1313内,以例如辅助在啮合弹簧1319时移除夹子1313或者防止组件1317在未紧固到夹子1303时滑进和滑出夹子1313。例如,一个或多个磁体可被放置在夹子1313的中心、与各组件1317等距离并且与组件1317在相同平面中,将每个组件的磁体(并从而将组件本身)朝着夹子1313的中心吸引。
图13C图示了利用紧固件1333和1331,例如通过使用腔体1329和组件1337和1341,来固着环带1327的示例结构。图13C图示了紧固件1331和1333的内部结构。紧固件1339(对应于紧固件1333)包括组件1337。当紧固件1343(对应于紧固件1331)被插入到紧固件1339中时,组件1341附着到组件1337,并且可通过在紧固件1339的唇缘上延伸而被稳固。当紧固件1339被向上拉时,唇缘越来越将组件1337推挤出,使组件1341移动经过紧固件1339的唇缘并使得紧固件1339能够被从紧固件1343移除。在特定实施例中,磁体可被放置在紧固件1333和1331中或紧固件1333和1331上以将它们紧固在一起。例如,磁体可被放置在组件1341和1337的每一者的边缘处。当使紧固件1343进入紧固件1337中时(或者反之),磁体将组件1341吸引并稳固到组件1337。此外,磁体可被放置在紧固件1343中,以例如辅助将组件1341从组件1337移除或者防止组件1341在未固着到紧固件1339时滑进和滑出紧固件1343。例如,一个或多个磁体可被放置在紧固件1343的中心、与各组件1341等距离并且与组件1341在相同平面中,将每个组件的末端处的磁体(并从而将组件本身)朝着紧固件1343的中心吸引。
图13D图示了利用紧固件1349和1353来固着环带1351的替换布置。当固着时,紧固件1357(对应于紧固件1353)可被扭曲,将组件1359(其可以是圆的)从腔体1363解脱,并使得紧固件1361(对应于紧固件1349)能够被从紧固件1357移除,反之亦然。在特定实施例中,一个或多个磁体可用于将紧固件1357和1361固着到彼此和/或将紧固件1357和1361从彼此移除。例如,磁体可被放置在腔体1363中并且在组件1359的外(凸)边缘处,将组件1359吸引到腔体1363中并且将紧固件1361稳固到紧固件1357。作为另一示例,磁体可被放置在组件1359的内边缘上(即,组件1359的凹表面上),将组件1359吸引到紧固件1361中,以例如辅助将组件1359从腔体1363移除或者防止组件1359在未固着到紧固件1357时滑进和滑出紧固件1361。对应的磁体也可被放置在紧固件1361的如下表面上:当组件1359未被延伸到腔体1363中时,这些表面与组件1359接触。换言之,这些磁体可吸引(并且在特定实施例中最终直接接触)组件1359的凹表面上的磁体,将组件1359稳固到紧固件1361。
图13E-图13G图示了例如在被设备1367的用户穿戴时将带有相机模块1373的环带1369固着到其自身的示例实施例。在图13E中,环带1369的一侧的一个或多个磁体1371可被吸引到环带1369的另一侧的一个或多个磁体。磁体可以是部分穿过环带的磁性材料的条带,如图13H中的磁性条带1307所示,可以是完全穿过环带的磁性材料的条带,如图13I中的条带1321和1327所示,或者可以是磁性材料1393的区域,如图13F中所示。除了磁体1371和1379以外,环带1369还可包括孔洞1391和一个或多个柱1377,用于将环带1369稳固到设备1367的穿戴者。图13G图示了紧固件1387(例如螺钉1396)固着到紧固件1371(例如具有遮罩的螺母)以利用孔洞1383(1398)将环带1381固着到设备1367的穿戴者。
在特定实施例中,包含电气组件的环带也可包含传统的物理接触连接器,如图2的连接器250所示。连接器可允许与设备的连通,例如用于充电、系统更新、调试或者数据传送。这种连接器可以是pogo种类的或者可以是充电线缆可通过接触来与之接口的电镀表面。这种连接器可被镀以贵金属以防止由于暴露于来自环境和人体的水分而引起的腐蚀。在特定实施例中,可仅对电力使用物理连接器,并且可利用短程通信形式,例如蓝牙、近场通信(near field communication,NFC)技术或WI-FI来传送数据。
在特定实施例中,环带可用于容纳柔性电池(例如,基于锂的电池)以增大设备的能量存储。由于能量存储容量可与总体积相关联,因此环带内部的电池增大了体积有限的可穿戴设备的存储容量,而不会影响设备主体的总大小。
如下文更充分描述的,可穿戴电子设备在设备上或设备上可包括一个或多个传感器。例如,可穿戴电子设备可包括一个或多个光学传感器或深度传感器。光学传感器可被放置在任何适当位置,例如放置在设备的正面,放置在环带上、从用户的身体面向外部,放置在环带上、面对着脸,放置在环带上、面向用户的身体,或者上述的任何适当组合。图15图示了具有面向外部的光学传感器1505的环带的设备1500。将光学传感器放置在环带上可减小外壳内部的高频信号的数目,实现设备主体内的更轻的屏蔽并从而实现重量和体积节省。图14A-图14D图示了可穿戴电子设备的不同实施例的示例相机放置。在特定实施例中,诸如用于处理相机输入的电子器件之类的电子器件也可位于环带中,例如位于容纳相机的“火山”形状中,如图1中壳体125所示。在特定实施例中,其他传感器可被放置在光学传感器附近,例如放置在设备的环带上与光学传感器相同的壳体中。例如,深度传感器可与光学相机结合使用来增强对设备的环境的显示或检测,或者确定用户正指向哪个物体或者经由手势与哪个物体交互。
在特定实施例中,光学传感器在环带上的放置可由用户在预定范围内调整。在特定实施例中,光学传感器在环带上的放置可被优化以使得传感器是用户方便瞄准的。例如,如图15所示,如果用户将设备穿戴在用户的手腕上,则光学传感器1505可被放置成面向外部的方式,以使得当用户的手掌与地面大致平行时光学传感器从用户的身体向外瞄准。
在特定实施例中,光学传感器的放置可以使得用户可在传感器从用户的身体指向外时观看设备的显示器。从而,用户可观看由光学传感器捕捉到并由设备显示的内容,而不会阻挡用户对由传感器捕捉到的物理场景的观看,如图16中的观看三角所示。设备1600的显示器1620可具有关联的视锥,例如在其内可合理地观看到显示器的体积。在图16中,用户1615(1)观看真实奖杯1610并且(2)通过将传感器1605瞄准真实奖杯来从显示器1620的视锥内观看设备1600的显示器1620上的奖杯的图像。传感器1605具有与在其内传感器1605可合理地捕捉到图像的体积相对应的关联视角。注意,在图16的示例中,传感器1605被放置成使得用户可以在将设备1600的显示器1620维持在面对用户的方向上的同时方便地将传感器1605瞄准向外,并且可以在设备1600不阻挡用户对奖杯1610的观看的情况下做到这一点。
图17图示了光学传感器的示例视角。当物体1725在光学传感器1705的视角中时,用户既可观看物体1725,又可观看在设备1700上显示的物体1725的图像1710或1715。例如,当用户的手1720在视角中时,用户可观看物体1725、手1720和设备的显示器1700上的物体1725和手1720的图像1710。相反,当手1720不在传感器1705的视角中时,手1720不被显示器1700上呈现的图像1715显示。当被用户穿戴时,设备的传感器可在用户执行要被相同或其他传感器捕捉的手势(例如从设备的视角选择物体的手势,比如捏撮、叩击或者拉拢或推开)的同时在该传感器的视角中捕捉用户的手/手臂/手指。传感器和显示器可被定向成使得当被用户穿戴时,在设备不阻挡用户对要显示在设备上的物体的观看并且用户的注视在设备的显示器的视锥内的同时,该物体在设备的视角中。在特定实施例中,用户可与由传感器捕捉的或者在设备上显示的图像交互,例如通过叩击显示器的显示图像处或其附近的部分,通过在传感器的视角内执行手势,或者通过任何其他适当的方法。此交互可提供一些与物体有关的功能,例如识别物体,确定关于物体的信息,以及在显示器上显示这些信息中的至少一些;通过捕捉物体的图像;或者如果物体具有配对/通信能力的话则通过与物体配对或以其他方式与物体通信。
在特定实施例中,光学或深度传感器模块(在适当时它们是可互换使用的)可经由如果光学传感器被直接安放在主印刷电路板(printed circuit board,PCB)上则其将其会使用的总线的简单延伸来与设备通信,如图18A中所示。在图18A中,光学传感器1825通过柔性印刷电路或布线1820向集成的控件1810发送数据,该控件1810在图18A的示例中位于设备1805中或设备1805上,设备1805容纳主印刷电路板。图18B图示了光学传感器模块1860上或光学传感器模块1860中的光学传感器集成电路1850,光学传感器模块1860也容纳光学传感器1855。设备1830的主印刷电路板与相机模块1860中的电子器件之间的通信经由柔性印刷电路1845发生。图18B的布置可允许集成电路压缩和以其他方式处理数据并经由要求更少信号线的方法或者要求更小数据传送的方法来发送数据。这可能是有益的,因为当用户穿戴设备时环带必须折曲,从而更少的线路可能是合乎期望的。这种方案可将线路的数目减少到一条或两条信号线和两条电力线,这对于封装、模塑和可靠性是有利的。在特定实施例中,上述的电子器件中的一个或多个必须被屏蔽以防止来自长高频线缆的电磁干扰。并行总线的使用在这种情况中是常见的,并且可要求使用更大的线缆或FPC。
在一个实施例中,相机控制集成电路可被直接安放在光学模块处的小电路板上,如图18A-图18B中所示。可穿戴电子设备可包括任何适当的传感器。在特定实施例中,一个或多个传感器或其相应的电子器件可位于设备的环带上,位于设备的主体中或主体上,或者两者兼有。传感器可通过任何适当的有线或无线通信,例如直接电连接、NFC或蓝牙,来与彼此通信以及与处理和存储器组件通信。传感器可检测设备、用户、应用或者另一设备或在另一设备上运行的应用的情境(例如环境)或状态。本公开预期可穿戴电子设备在可穿戴电子设备的任何适当位置处包含任何适当配置的传感器。此外,本公开预期任何适当的传感器接收本文描述的任何适当的输入,或者发起、参与本文描述的任何适当的功能或服务的提供或者以其他方式与该提供相关联。例如,触摸敏感传感器可参与设备上显示的图形用户界面之间的转变,这在本文中将更充分描述。本公开还预期与可穿戴设备相关联的功能、传感器的激活/解除激活、传感器的灵敏性或者传感器处理的优先级在适当时可以是用户可定制的。
图19图示了示例传感器检测系统并且图示了用于可穿戴电子设备的示例传感器。传感器以传感器特定格式将数据发送到设备的传感器中枢子系统。例如,示例传感器模块1924中所示的传感器19A可包括一个或多个:脸部检测相机1902、外向相机1904、脸部邻近传感器1906、脸部触摸传感器1908、环带触摸传感器1910、声学皮肤触摸传感器1912、惯性测量系统(inertial measurement system,IMU)1914、重力向量传感器1916、触摸传感器1918和1920以及任何其他适当的传感器1922。来自传感器的数据被发送到示例传感器中枢模块1944中所示的传感器中枢19B。数据在步骤1928和1930中根据需要被调节并清除噪声并且被传送到锁定状态检测器1942。锁定状态检测器1942检测设备何时不活跃,并且根据需要禁用传感器以节省电力,同时监视传感器数据以获得手势或者可重激活设备的其他适当输入。例如,数值手势检测器接收传感器输出并且将该输出与一个或多个数值阈值相比较以确定结果。探试手势检测器1934接收传感器输出并基于一个或多个决策树,例如应用到多于一个阈值的AND规则,来作出决策。基于模式的手势检测器1938对照手势模式1940的预定库来评估传感器输入,其中手势模式1940例如是由对执行手势时的传感器输出的经验评估确定的模式。一个或多个手势优先级解码器1948评估来自手势检测器、锁定状态检测器或者这两者的输出以确定检测到的手势中的哪个——如果有的话——应当被利用来向特定应用或系统级过程提供功能。更宽泛地说,在特定实施例中,当设备活跃时,应用请求或系统请求的传感器检测器进而被激活并将它们的数据提供给传感器优先级解码器。在特定实施例中,优先级检测器确定要处理多个传感器输入中的哪个——如果有的话,并且本公开预期来自多个传感器的组合输入可与不同于与每个传感器输入单独关联的功能的功能相关联。解码器判决何时以充分的确定性检测到了传感器,并且向传感器中枢驱动器提供传感器数据。驱动器向末端应用和系统控制器提供应用编程接口(applicationprogramming interface,API),这些控制器进而产生必要的输出和导航。例如,图19图示了示例传感器中枢驱动器1950、应用API 1952、用于例如确定适当的系统功能的系统导航控制器1954(例如,经过设备的图形用户界面的系统级导航1962)以及用于应用1956的应用级手势优先级检测器。虽然图19的传感器中枢19B和应用处理器19C(在示例应用处理器模块1964中图示)被示为单独的实体,但它们可由相同或相似组件中的至少一些来表述(并且它们的功能可由相同或相似组件中的至少一些来执行)。在特定实施例中,划分传感器中枢和应用处理器的组件和功能的边界可以是或多或少包含性的。图19中所示的边界只是一个示例实施例。至于传感器本身,传感器中枢系统和应用处理器执行的功能和它们的组件可发生在设备的主体中、发生在环带中或者发生在这两者中或者处于设备主体中、处于环带中或者处于这两者中。特定实施例可使用多于一个传感器中枢或应用处理器,或者其中的组件,来接收和处理传感器数据。
传感器可在内部产生传感器数据,该传感器数据可以简单地由例如检测器或者数据调节器来过滤或重格式化。原始数据可被数据格式化器格式化成统一格式以供应用API摄取。识别器可使用数值模型(例如决策树)、探试模型、模式识别或任何其他适当的硬件、软件和技术来检测传感器数据,例如手势输入。识别器可被API使能或禁用。在这种情况下,如果识别器不会从传感器接收数据或者不能够识别传感器数据,则关联的传感器也可被禁用。
设备可包含传感器输出的数据库,该数据库允许同一检测器检测许多不同的传感器输出。取决于API产生的请求,传感器优先级解码器可基于提供的标准来抑制或通过传感器输出。该标准可以是API的设计的函数。在特定实施例中,识别器可摄取多于一个传感器的输出来检测传感器输出。
在特定实施例中,多个传感器可用于检测类似的信息。例如,普通和深度感测相机两者均可用于检测手指,或者陀螺仪和磁力计两者均可用于检测取向。当适当时,取决于或利用传感器信息的功能可基于实现和运行时考虑,例如成本、能量使用或使用的频率,来替换传感器或者在它们之中作出选择。
传感器可以是任何适当类型的,并且如本文所述,可位于设备主体中或设备主体上、环带中或环带上或者上述的适当组合。在特定实施例中,传感器可包括一个或多个深度或邻近传感器(在本文中适当时可互换使用的术语),例如红外传感器、光学传感器、声传感器或者任何其他适当的深度传感器或邻近传感器。例如,深度传感器可被放置在设备的显示器上或显示器附近,以检测何时例如用户的手、手指或脸靠近了显示器。作为另一示例,深度传感器可检测深度传感器的视角中的用户的手指指向的任何物体,这在本文中将更充分描述。额外地或替换地,深度传感器可位于设备的环带上,这在本文中将更充分描述。在特定实施例中,传感器可包括设备主体、环带或者这两者上的一个或多个触摸敏感区域。触摸敏感区域可利用任何适当的触摸敏感技术,例如电阻、表面声波、电容(包括互电容或自电容)、红外、光学、色散或任何其他适当的技术。触摸敏感区域可检测任何适当的接触,例如挥扫、叩击、接触一个或多个特定点或与一个或多个特定区域接触或者多点触摸接触(例如,在显示器上捏撮两根或更多根手指或者在显示器上旋转两根或更多根手指)。如本文中将更充分描述的,触摸敏感区域可包括设备的显示器、环或环带的至少一部分。与其他传感器一样,在特定实施例中,触摸敏感区域可例如基于情境、电力考虑或用户设定而被激活或解除激活。例如,环的触摸敏感部分在环被“锁定”(例如不旋转)时可被激活并且在环自由旋转时可被解除激活。在特定实施例中,传感器可包括一个或多个光学传感器,例如适当的相机或者光学深度传感器。
在特定实施例中,传感器可包括一个或多个惯性传感器或取向传感器,例如加速度计、陀螺仪、磁力计、GPS芯片或罗盘。在特定实施例中,来自惯性或取向传感器的输出可用于激活或解锁设备,检测一个或多个手势,与设备的显示屏幕或者配对设备的显示屏幕上的内容交互,访问特定数据或激活设备或配对设备的特定功能,发起设备主体与环带或者设备与配对设备之间的通信,或者任何其他适当的功能。在特定实施例中,传感器可包括一个或多个麦克风,用于检测例如用户的话音或者环境声音,以确定设备的情境。此外,在特定实施例中,设备在设备主体上或者环带上可包括一个或多个扬声器。
在特定实施例中,传感器可包括用于与诸如网络设备(例如服务器或路由器)、智能电话、计算设备、显示设备(例如电视或数字亭)、音频系统、视频系统、其他可穿戴电子设备之类的其他设备通信或者用于环带与设备主体之间的通信的组件。这种传感器可包括NFC读取器/信标、蓝牙技术或者用于按任何适当频率的发送或接收的天线。
在特定实施例中,传感器可包括接收或检测来自设备的用户的触觉输入的传感器,例如压电体、压力传感器、力传感器、惯性传感器(如上所述)、应变/应力传感器或者机械致动器。这种传感器可位于设备上的任何适当位置。在特定实施例中,设备的组件也可向用户提供触觉反馈。例如,一个或多个环、表面或者环带可振动、产生光或者产生音频。
在特定实施例中,可穿戴电子设备可包括周围环境的一个或多个传感器,例如温度传感器、湿度传感器或者高度计。在特定实施例中,可穿戴电子设备可包括用于感测可穿戴设备的用户的物理属性的一个或多个传感器。这种传感器可位于任何适当区域中,例如位于设备的环带上,或者位于设备的基底上,与用户的皮肤接触。作为示例,传感器可包括声传感器,其例如在用户摩擦可穿戴设备附近的皮肤(或者覆盖皮肤的衣服)、叩击设备附近的皮肤或者将设备在用户的手臂上上下移动时检测用户的皮肤的振动。作为另外的示例,传感器可包括一个或多个体温传感器、脉搏血氧仪、皮肤电反应传感器、电容成像传感器、肌电图传感器、生物计量数据读取器(例如指纹或眼睛)以及任何其他适当的传感器。这些传感器可向用户提供用户的状态的反馈,可用于发起预定的功能(例如服用特定药物的提醒,比如糖尿病的胰岛素)或者可将感测到的信息传达给远程设备(例如,医疗办公室中的终端)。
可穿戴电子设备可包括用于对设备充电或供电的一个或多个充电组件。充电组件可利用任何适当的充电方法,例如电容充电、电磁充电、涓流充电、由直接电接触进行的充电、太阳能、动能、感应或智能充电(例如,基于电池的条件或状态充电,并且相应地修改充电动作)。充电组件可位于设备的任何适当部分上,例如位于设备的主体中或主体上或者位于设备的环带中或环带上。例如,图20A图示了具有用于将充电组件与充电器连接的插槽2005的充电器2000。例如,插槽2005可使用摩擦力、机械结构(例如闩锁或搭扣)、磁力或者任何其他适当的技术来接受并稳固来自充电组件的齿头以使得齿头和充电器2000发生直接电接触。图20C图示了环带2010上的齿头2015利用pogo式连接器通过触点2020在充电器2022与环带2010之间创建电路连接。在特定实施例中,齿头2015可在充电器2022上并且图20A的插槽2055可在环带或者可穿戴设备的主体上。在特定实施例中,触点2020(例如,pogo式连接器)可在设备的主体上,其可用于在环带或用于对设备充电的充电器之间创建电路。图20A的充电器2000可通过任何适当的有线或无线连接来连接到任何适当的电源(例如,来自交流(alternating current,AC)插座的电力或者来自计算设备上的USB端口的直流(direct current,DC)电力)。
充电器2000可由任何适当的材料构成,例如丙烯酸,并且在特定实施例中可具有防滑材料作为其衬背,例如橡胶。在特定实施例中,充电器2000可被固着或附着到表面,例如可被附着到墙壁,如图20B中所示。附着可通过任何适当的技术进行,例如机械地、磁性地或粘合地。在特定实施例中,可穿戴电子设备可在附着到充电器的同时完全可使用。例如,当充电组件位于设备的主体上时,在用户与该设备交互或者其他设备与该设备通信的同时该设备可位于充电器中。
作为可穿戴电子设备中的充电组件的另一示例,图21A-图21B图示了使用例如感应充电器的额外示例充电器。如图21A-图21B中所示,环带可包括一个或多个充电线圈2110。如上所述,取代在设备的环带上或者除了在设备的环带上以外,本公开预期被包含在设备的主体中或主体上的充电线圈(或任何其他适当的充电组件)。由例如充电表面2115或充电表面2120生成的磁场2105穿过充电线圈2110。图21B的充电表面2120相对于充电表面2115可提高通过充电线圈2110的磁场2105的密度并允许比充电表面2115更准确的放置,从而提高系统的电荷传送率。本公开预期在适当时充电可对设备的主体中或主体上的组件、环带中或环带上的组件或者这两者供电。
在特定实施例中,环带或设备可实现用于无线充电方案的天线。由于无线充电在没有含铁金属的情况下最优地操作,所以这允许对于设备的主体的材料的更宽选择,同时通过允许线圈被保持在充电驱动器的极点之间(如上所述)而不是简单地与驱动器共面来允许提高的无线充电传送容量。如上所述和如图2中所示,活跃环带还可包含传统的内部物理接触连接器250。
在特定实施例中,具有内部电荷仓库的充电单元可与可穿戴电子设备相关联。当被插入到墙壁中时,充电单元既可对附着的设备又可对充电单元的内部仓库充电。当未插入时,充电单元仍可从其电力仓库对附着的设备充电,直到该仓库被耗尽为止。当只有充电器连接到电源而没有设备时,其仍对其自身充电,以便其可在以后某时为设备提供额外的电力。从而,本文描述的充电单元在插入和未插入到电源中时都是有用的,因为在一个人不能够连接到电源时,例如当在旅行、在飞机上、在火车站、在室外或者在用户可需要对设备充电但不能接入电源的任何地方时,充电单元也可对任何部分充电的设备供电一段时间。在充电器对设备充电时设备可在待机中或者在使用中,并且不需要对目标设备的软件或硬件的修改。本发明的一个或多个实施例的额外益处可包括减少一个人必须携带的物品的数目,提供充电器和电源组两者的益处,使得在行进中时携带充电器是有用的,并且减少一个人为了延长其设备的电池寿命而必须携带的线缆和连接器的数目。本公开预期这种充电单元可被应用到任何适当的电子设备,包括但不限于可穿戴电子设备。
图22A-图22B图示了具有到设备2200的示例连接2205和连接2215和2220的示例充电单元2210的特定实施例。例如,图22A图示了从充电单元2210到设备2200和到外部电源的线缆连通。作为另一示例,图22B图示了具有来自设备2200的线缆连通和到电源的直接连通的充电单元2210。本公开预期设备、充电单元和对充电单元充电的电源之间的任何适当的连接。例如,去到设备和去到电源两者的连接可以是直接的、经由线缆的或者无线的。
如上所述,充电单元即使在未连接到外部电源时也可从充电单元的内部充电仓库对设备充电,并且在连接到外部电源时可对其自身、对连接的设备或者对这两者充电。本公开预期用于在充电单元与设备之间分配电荷的任何适当的方案。这种分配方案可取决于设备内部的电荷的量、充电单元内部的电荷的量、设备正消耗的电力的量、外部电源的充电能力或者上述的任何适当组合。作为附加或替换,充电阈值可确定使用哪个分配方案。例如,当设备接近充满电荷并且充电单元只剩很少电荷时可使用一个充电方案,而当设备只剩很少电荷时可使用另一种充电方案。图23-图24图示了用于充电单元和连接的设备的示例充电方案。例如,如图24中所示,当设备如步骤2400中那样连接到充电器时,步骤2405确定设备是否被完全充电。如果是,则不采取进一步的充电动作。如果否,则步骤2410确定充电器是否连接到外部电源,例如线电压。如果是,则在2425中从该外部源对设备充电。如果否,则步骤确定充电器是否有任何电力剩下,如果是,则在步骤2420中从充电器的内部电源对设备充电,而当充电单元连接到线电压时则从线电压而不是充电单元的仓库对设备充电。图23图示了类似的决策树。如果设备连接到与电源连接(步骤2300)的充电器(步骤2300),则步骤2310确定设备是否被完全充电,并且如果否,则从充电器连接到的电源对设备充电(步骤2315)。类似地,步骤2320确定充电器是否被完全充电,并且如果否,则在步骤2325中从电源对充电单元充电。在特定实施例中,使用的分配方案可由用户来确定或定制。
图25A-图25E图示了设备中的能量存储和充电以及充电单元的示例实施例。在图示实施例的图25A中,设备的电荷仓库2500和充电单元的电荷仓库2520都被耗尽。图25B-图25C图示了在充电单元被连接到外部电源2510之后对设备的电荷仓库2500和设备的电荷仓库2505充电。在短时间之后,充电单元和设备都被同时充电,充电的分布使得每一者被给予其总电荷容量的相同百分比。设备的充电仓库2500和充电单元的充电仓库2505在一段时间之后都被完全充电,如图25C中所示。如本文所述,分配给设备或充电单元的电荷的量可基于任何适当的电荷分配方案而变化。例如,如果充电单元的电力转换能力是有限的,充电单元的仓库几乎为满并且设备的电荷仓库几乎为空,或者设备的能量需求非常高,则充电单元可在对其内部储备充电之前优先为设备充电。作为另一示例,充电单元的充电可继续,直到达到预定的阈值电荷为止。
图25D-图25E图示了当充电单元未连接到外部电源时充电单元与设备之间的电荷传送。如图25D中所示,在其仓库2500中只剩余很少电荷的设备连接到具有完全充电的仓库2505的充电单元。如上所述,本公开预期当充电器未连接到外部电源时设备与充电器之间的任何适当的电荷分配方案。该分配方案可以与当充电单元连接到外部电源时使用的分配方案相同或不同。例如,图25E图示了最大化设备的充电仓库2500的电荷的分配方案。只要充电单元仍具有电荷,其就继续对设备充电直到设备被完全充电为止或者直到充电器的充电仓库2505完全为空为止。
图26图示了示例充电单元2600的示例内部体系结构。线电压转换器2605从高电压线电流2610产生更低电压直流。此电压被馈送到电池充电器/调节器2630和连接器2615两者,设备可经由连接2620连接到该连接器2615以便充电。电池充电器2630使用来自线电压转换器2605的可用电力来对能量仓库(电池2635)充电。其可取得与设备相等份额的电力,在设备需求高时取得更小的份额(设备优先)或者在内部电力储备低时取得更大的份额(充电器优先)。这些优先级是用户可选择的。
继续图26的示例,当线电压转换器2605未提供电力时,充电器/调节器2630从电池2635上的电力产生适当的充电电压。调节器2630可以始终开启,或者其可通过与设备的连接或者对指示用户希望对设备充电的按钮的按压而被开启。一旦被激活,调节器2630就将对设备充电,直到内部储备耗尽为止。此时,一些电荷可仍剩余在电池2635中以提高电池寿命,但其将不是用户可用的。设备可包含紧急模式以允许访问其一些能量来获得最低限度量的紧急使用时间,以电池寿命为代价。调节器2630可继续提供能量,直到设备被拔出为止,或者直到设备只吸取最低限度量的能量为止,这表明充电的完成。最后,充电器/调节器2630可包括向用户示出储备中剩余的能量的量的按需显示器。由于显示器一般使用能量,所以可以使用按钮或其他输入在有限的时间中触发显示器。虽然图26图示了示例充电单元2600的示例内部体系结构,但本公开预期本文描述的任何适当充电单元的任何适当的内部体系结构,并且预期这种充电单元可具有任何适当的大小和形状。
在特定实施例中,设备的功能或组件(例如传感器)可被激活和解除激活,以例如节省电力或者减少或消除不想要的功能。例如,锁定状态检测器检测设备何时未被激活,并且根据需要禁用传感器以节省电力,同时监视传感器数据以获得手势或者可重激活设备的其他适当输入。设备可具有一个或多个电力模式,例如休眠模式或完全活跃模式。作为一个示例,在特定实施例中,设备是臂戴式的,并且设备的触摸表面在常规使用期间可与物体和人发生接触。为了防止意外激活,设备的主体或环带中的加速度计或其他惯性传感器可用于测定设备相对于地球重力的大致位置。如果检测到重力向量朝着设备的侧边(例如确定设备在用户的侧边或者确定显示器未指向用户),则可锁定触摸屏幕并且禁用显示器以减少能量使用。当确定重力向量指向设备下方时(例如设备大致是水平的,导致确定用户正观看或以其他方式使用设备),则系统可对显示器加电并使能触摸屏幕以便进一步交互。在特定实施例中,作为重力向量的方向唤醒或解锁设备的附加或替换,重力向量的方向或幅值的变化率可用于唤醒或解锁设备。例如,如果重力向量的变化率在预定量的时间中为零(换言之,设备已被保持在特定位置达预定量的时间),则设备可被唤醒或解锁。作为另一示例,设备中的一个或多个惯性传感器可检测用于激活显示器或其他适当的组件或应用的特定手势或手势的序列。在特定实施例中,设备的编码器对于意外激活是鲁棒的,从而可任其活跃以使得用户可在将设备举到其视角中的同时在选择之间作出改变。在其他实施例中,编码器可基于情境或用户输入被解除激活。
作为电力节省的附加或替换,特定实施例可锁定一个或多个传感器、特定功能或特定应用以为一个或多个用户提供安全性。适当的传感器可检测对设备的或者与可穿戴设备配对或通信的另一设备的安全方面的激活或解锁。例如,利用设备执行的或者在设备的触摸敏感区域上执行的特定手势可解锁设备的一个或多个安全方面。作为另一示例,设备的可旋转环的特定旋转或旋转序列可以独自或者与其他用户输入相结合地解锁设备的一个或多个安全方面。例如,用户可将可旋转环转动到诸如数字或图片之类的符号的独特序列。响应于接收到用于转动可旋转环的旋转输入的序列,显示器可显示与每个旋转输入相对应的(一个或多个)特定符号,这在本文中将更充分描述。在特定实施例中,使用的符号可以是依用户而定的(例如,存储在设备上或者设备可访问的用户图片或者用户预先选择的符号)。在特定实施例中,在预定次数的解锁之后或者在预定量的时间之后可向用户呈现不同的符号。以上描述的示例输入可以额外地或者替换地用于激活/解除激活设备的一些方面、特定应用或者对特定数据的访问。虽然本公开描述了用户输入解锁设备的安全方面的具体示例,但本公开预期用于解锁设备的任何安全方面的任何适当的输入或输入组合。本公开预期用于解锁设备的安全方面或者激活/解除激活设备的组件的输入或其他适当参数可以是用户可定制的。
在特定实施例中,可穿戴电子设备可检测利用设备执行的或者在设备上执行的一个或多个手势。手势可以是任何适当类型的,可由任何适当的传感器(例如惯性传感器、触摸传感器、相机或者深度传感器)检测到,并且可与任何适当的功能相关联。例如,一个或多个深度传感器可与一个或多个相机结合使用来捕捉手势。在特定实施例中,若干个深度传感器或相机可用于增强检测手势或与手势相关联的背景的准确性。在适当时,用于检测手势的传感器(或者用于发起与手势相关联的功能的处理)可被激活或解除激活以节省电力或提供安全性,这在上文更充分描述。如上所示,图19图示了示例传感器检测系统并提供了手势检测、处理和优先级区分的具体示例。在特定实施例中,特定应用可预订特定手势或预订所有可用手势;或者用户可选择哪些手势应当可被哪些应用检测到。在特定实施例中,手势可包括在使用可穿戴设备的同时对另一设备的操纵。例如,手势可包括在瞄准、移动或以其他方式利用可穿戴设备的同时摇晃另一设备。本公开预期在适当时本文描述的任何手势可涉及对另一设备的操纵。虽然以下论述的示例和图示涉及手势的特定方面或属性,但本公开预期组合本文描述的手势和传感器的任何适当方面或属性。
在特定实施例中,可穿戴电子设备可检测利用设备执行的或者在设备上执行的一个或多个手势。手势可以是任何适当类型的,可由任何适当的传感器(例如惯性传感器、触摸传感器、相机或者深度传感器)检测到,并且可与任何适当的功能相关联。例如,一个或多个深度传感器可与一个或多个相机结合使用来捕捉手势。在特定实施例中,若干个深度传感器或相机可用于增强检测手势或与手势相关联的背景的准确性。在适当时,用于检测手势的传感器(或者用于发起与手势相关联的功能的处理)可被激活或解除激活以节省电力或提供安全性,这在上文更充分描述。如上文更充分描述的,图19图示了示例传感器检测系统并提供了手势检测、处理和优先级区分的具体示例。在特定实施例中,特定应用可预订特定手势或预订所有可用手势;或者用户可选择哪些手势应当可被哪些应用检测到。在特定实施例中,手势可包括在使用可穿戴设备的同时对另一设备的操纵。例如,手势可包括在瞄准、移动或以其他方式利用可穿戴设备的同时摇晃另一设备。本公开预期在适当时本文描述的任何手势可涉及对另一设备的操纵。虽然以下论述的示例和图示涉及手势的特定方面或属性,但本公开预期组合本文描述的手势和传感器的任何适当方面或属性。
在特定实施例中,手势可包括涉及用户的至少一只手和穿戴着设备的附肢——例如用户的另一只手腕——的手势。例如,在特定实施例中,用户可使用穿戴着设备的手/手臂来适当地瞄准设备的光学传感器(例如相机或深度传感器)并且可移动或定位另一只手臂/手/手指来执行特定的手势。如本文所述并且如图16-图17中所示,在特定实施例中,瞄准的场景可被显示在设备的显示器上,使得用户可观看真实场景、在设备上显示的场景和用户的手/手臂/手指——如果在视角中的话。在特定实施例中,显示的场景可包括由传感器检测到的并且用于执行手势的所使用的手/手指/手臂。图27-图28图示了示例手势,其中用户瞄准设备上的(例如设备的环带上的,如图中所示)面向外部的(例如从用户的身体离开)的传感器并且移动或定位他的另一手臂/手/手指以执行手势。例如,在图27中,向外传感器检测传感器的视角中的物体2705,向外传感器(其可以就是检测物体的那个传感器)检测指向物体的一根或多根手指2710,并且当指着的(一根或多根)手指被确定为静止时2715,则检测到手势2720。参考图19,由外向相机捕捉的原始手势数据可被调节并消除噪声并且该数据可被发送到探试手势检测器。手势优先级解码器处理手势数据并确定何时以充分的确定性识别出手势。当识别出手势时,手势被发送到传感器中枢驱动器,其向末端应用和系统控制器提供API。
作为与此手势相关联的功能的示例,相机可聚焦在物体上,被检测到并被指向的物体于是可出现在显示器上,关于该物体的信息可出现在显示器上,并且显示的内容可被传送到另一设备的显示器(例如当该物体是另一设备时)。图28图示了与图27的手势类似的示例手势;然而,图示的手势包括外向传感器检测到(一根或多根)手指的“叩击”运动(例如(一根或多根)手指在从传感器移开)。例如,图28的手势可包括在步骤2805中在相机(或其他适当传感器)的场景中检测到物体,在步骤2810中检测到场景中的手指,在步骤2815中检测到没有手指的横向运动,在步骤2820中检测到指尖从传感器进一步移开,并且在步骤2825中检测到手势。图28中所示的手势可提供任何适当的功能。例如,可从显示屏幕上显示的物体中选择被“叩击”的物体。
图29-图30图示了示例手势,其中随着用户的手指和手的运动利用外向传感器检测到物体。例如,图29图示了外向传感器检测到两根手指分离2915,两根手指来到一起(例如在捏撮运动中)2920,然后捏撮的手指朝着传感器移动2925。手指来到一起并朝着传感器移动的运动可同时或依序发生,并且依序执行这些步骤(或者序列中的步骤之间的时间)或同时执行这些步骤可各自是不同的手势。在图30中,图示的两根手指最初是接近在一起的3030,并且外向传感器检测到手指分开3020并且手移开3015。至于图30,手指和手的移动可以是同时的或者按任何适当的顺序。此外,图29-30的一些方面可被组合以形成手势。例如,将手指捏撮在一起并从传感器移开可以是一独特手势。在特定实施例中,检测到的手指或手可操纵另一设备,并且该操纵可形成手势的一部分。至于本文描述的所有示例手势,本公开预期与图29-图30中所示的手势相关联的任何适当功能。
图31-图32图示了与图29-图30类似的示例手势,只不过在这里所有手指被用于执行手势。在图31中,手指被检测为最初紧挨在一起(例如握拳)3105,检测到拳头从传感器移开3110,并且传感器检测到拳头打开3115。同样,图示的步骤的序列可按任何适当的顺序发生。图32图示了图31的反转。图31-图32可与任何适当的功能相关联。例如,图31图示了如下示例:将设备上显示的内容的全部或一部分发送到另一设备,例如图31中所示的电视机。类似地,图32中的手势可将另一设备上显示的内容的一些或全部拉到可穿戴设备的显示器上。例如,图31-图32的手势可在用户在另一设备附近利用可穿戴设备执行手势时实现,该另一设备例如是智能电话、平板设备、个人计算设备、智能家电(例如冰箱、恒温器或者洗衣机)或者任何其他适当的设备。描述的功能只是可与图31-图32中所示的手势相关联的功能的示例,并且本公开预期其他适当的手势可执行描述的功能。
图33-图37图示了外向传感器检测在传感器前方挥扫的手或手臂的一部分。在特定实施例中,利用手的正面挥扫与利用手的背面挥扫可以是不同的手势。图33-图34图示了手被从右向左3310-3315并从左向右3410-3415挥扫过传感器的视角,并且图35-图37图示了手被从下到上3510-3515(以及3735-3740)并从上到下3610-3615(以及3710-3715)挥扫过传感器的视角。如图所示,手可最初开始于视角中,经过视角并离开视角(如图36中所示);可开始于视角外,经过视角并离开视角(如图37中所示);可开始于视角外,经过视角的一部分并保持在视角中(如图33-图35中所示);或者可开始于视角中,经过视角的一部分并保持在视角中。本公开预期手被按其他角度挥扫,例如在下方45度角进入并且向设备右部并且相对于设备的左上以45度角离开。另外,本公开预期检测运动中的而不是直线的手挥扫,例如曲线挥扫或三角挥扫。本公开预期与图33-图37中所示的任何或所有手势相关联的任何适当功能,例如在设备上显示的用户界面之间或者在活跃的并显示在设备上的应用之间转变,打开或关闭应用,或者滚动经过显示的内容(例如文档、网页或图像)。如别处重申的,本公开预期与相对图33-图37描述的功能相关联的任何适当手势。
图38-图39图示了示例手势,其中外向传感器检测到用户的手在视角中3805并且检测到一根或多根手指指向一方向(在特定实施例中连同用户的手或手臂的一部分)3815。检测到的手势可取决于检测到的手指或者检测到的手指指向的方向。例如,如图38中所示,手指可以是向上指的拇指3820,并且在图39中手指可以是向下指的拇指3920。任何适当的功能可与图38-图39中所示的手势相关联,例如保存或删除在设备本地或者在关联的设备上的文件,或者批准或不批准对设定或其他内容作出的改变。
图40图示了涉及在外向传感器的视角中利用多根手指或者手的一部分作出的形状的示例手势。如图40中所示,形状可以是环4010,并且手势可包括该形状中不涉及的手指指向特定方向4015。如图40中所示,手势可包括将该形状4020(以及可能其他手指)保持预定量的时间。
图41-图42图示了包括利用用户的手指或手来覆盖外向传感器的全部或一部分的示例手势。利用拇指向下型手势从设备的顶部覆盖传感器4105(如图41中所示)与从设备的底部4210(如图42中所示)或者设备的侧边覆盖传感器可以是不同的手势。覆盖的方向可由例如覆盖设备时手的形状、覆盖设备时手的取向、来自其他传感器的指示覆盖外向传感器的方向的数据(例如检测到显示器和外向传感器被覆盖)或者任何其他适当的技术来检测。
图43-图44图示了示例手势,其中用户的一根或多根手指或者手/手臂的一部分在外向传感器的视角中被检测到4305/4405,并且在视角(或“画框”)内移动以执行特定手势4310/4320/4410/4420。在特定实施例中,手势可以是任何适当的运动或者特定模式的运动。在特定实施例中,手势可与检测到的手指或者手/手臂的一部分相关联。例如,单根指着的手指可与一手势4305相关联(如图43中所示)或者多根手指/手臂可与一手势4405相关联(如图44中所示)。在特定实施例中,手掌的方向(例如正面、背面、按一角度)可被检测到并且与手势相关联。
图45图示了示例手势,包括检测利用用户的多根手指或手/手臂作出的形状4505,并且检测在视角中该形状的运动4510/4520。图45图示了图40的形状在外向传感器的整个视角中移动。
图46图示了示例手势,其涉及检测一根或多根手指(用户的手/手臂的一些或全部)及其初始取向,并随后检测取向的变化或者取向随着时间的变化率。例如,图46图示了在步骤4605在视角中检测到两根手指,在步骤4610在视角中检测到这些手指和手的边缘,在步骤4615检测到手指作出“C”形状,在步骤4620对“C”形状的初始取向解码,在步骤4625对“C”形状的取向变化解码,在步骤4630确定“C”形状的相对旋转值,并且在步骤4635检测到手势。本公开预期利用用户的手指/手/手臂作出的任何适当的形状。
图47图示了一种示例手势,其涉及检测外向传感器的视角中的特定位置的手指的数目。例如,图47图示了在步骤4705在视角中检测指尖,例如一根伸出的拇指、伸出的拇指和一根手指、伸出的拇指和两根手指。在步骤4710检测特定的指尖取向配置,并且在步骤4715中执行该配置到至少手指的数值计数的映射以在步骤4725中检测到手势。每个显示的图像可以是不同的手势。本公开预期构成手势的手指的任何适当位置。至于本文描述的所有其他示例手势,本公开预期与这些手势相关联的任何适当功能。例如,图47的每个手势可与要呼叫、发电子邮件或发文本的联系人相关联,并且检测到的手势可激活去到指派给该手势的联系人的呼叫、电子邮件或文本。在特定实施例中,手/手臂/手指的位置可指示出对于与该手势相关联的联系人应当使用哪种联系方法。
图48-图49图示了涉及设备上的双传感器的示例手势。例如,图48图示了设备的底部环带部分上的传感器。该传感器检测用户的另一只手相对于设备的位置,并且检测该手与传感器的分离。在特定实施例中,手势可包括确定两只手都在运动,例如通过由设备中的一个或多个惯性传感器提供的额外信息或者通过经由场景的变化来检测设备的运动的内向(例如面向用户的身体)相机来确定。例如,在图48中,在步骤4805在视角中检测到手。传感器在步骤4810检测到手处于捏撮形状,并且同一传感器或另一传感器在步骤4815中检测到设备处于水平取向。传感器在步骤4820检测到手相对于设备运动并且在步骤4825估计相对位置。在步骤4830检测到手势。类似地,图49图示出一示例手势还涉及在视角中检测用户的手并随后从设备传感器移开。然而,在图49中,设备传感器被定位在设备的顶部(例如前向传感器)。作为示例,在步骤4905中在前向相机的视角中检测到手。在步骤4910中检测到手处于捏撮形状,并且在步骤4915中检测到设备处于水平取向。在步骤4920中手移动得更靠近或更远离设备,并且在步骤4925中执行相对位置估计,此时在步骤4930中检测到手势。
图50-图58图示了由至少一个前向传感器(例如设备的顶部的传感器)检测到的示例手势。在适当时,图50-58的任何手势可由在任何其他适当位置的传感器(例如面向外部的,如上所述)检测到,并且由在另一位置描述的传感器检测到的任何手势可由前向传感器检测到。图50图示了一示例手势,其涉及一根或多根指尖悬停在设备上方,并且前向传感器在步骤5005中检测到指尖,在步骤5010和5015中检测指尖的位置或者这些指尖的运动(或者没有运动)以在步骤5020中检测到手势。图51图示了一示例手势,其中步骤5105和5110分别与5005和5010相同。然而,检测到的指尖在步骤5115中从前向传感器移开;在特定实施例中,手势可包括检测到指尖中的一个或多个相对于彼此改变位置,例如在步骤5120中分开。图52图示了在步骤5205中传感器检测到指尖,在步骤5210中指尖移动到一起,在步骤5215中手指朝着设备移动,并且在步骤5220中检测运动的持续时间以在步骤5225中检测到手势。如图53中所示,在特定实施例中,除了指尖朝着传感器的运动以外,手势还可包括检测指尖的相对位置的变化。例如,在步骤5305中,在前表面上检测到一根或两根手指;在步骤5310中,检测到手指向上或向下移动;并且在步骤5315中检测到手势。在特定实施例中,图50-图52的手势的持续时间可确定是否检测到手势,或者不同的持续时间可构成不同的手势。
图54-图57图示了示例手势涉及一根或多根手指或者手/手臂的一部分跨过设备的正面(从而跨过前向传感器)的运动。如图所示,手势可取决于使用的手指的数目(例如两根手指与整个手掌);取决于跨设备正面的运动的方向(例如从下到上或者从左到右);取决于跨设备正面的运动的持续时间;取决于检测到的手指或手/手臂与设备正面的邻近度;取决于设备正面的部分(例如全部或一部分,以及该部分的相对位置(例如下半部));或者取决于检测到的部分是否最初在前向传感器的视角中,最初在视角外,结束于视角中或者结束于视角外。例如,图54的手势可包括在步骤5405中检测到在前表面上检测到的一根或两根手指;在步骤5410中检测手指向左移动,并且在步骤5415中检测到手势。作为另一示例,图55可包括在步骤5505中检测到在前表面上检测到的一根或两根手指;在步骤5510中检测手指向右移动,并且在步骤5515中检测到手势。作为另一示例,图56可包括在步骤5605中没有检测到手指,检测到多根手指从左进入视角,检测到前表面被覆盖,在步骤5620中检测到手指离开画框,并且在步骤5625中检测到手势。作为另外一个示例,图57可包括在步骤5705中没有检测到手指,在步骤5710中检测到多根手指从右进入视角,在步骤5715中检测到对整个前表面的覆盖,在步骤5720中检测到手指离开视角,并且在步骤5725中检测到手势。与本文描述的所有手势一样,这些因素的任何适当组合(以及与手势相关联的任何其他适当因素)可用于确定手势或与手势相对应的功能。任何适当的功能可与手势相关联,例如,在图形用户界面屏幕之间转变,滚动经过显示的内容,或者滚动经过可用应用或设备以与之通信/配对。
图58图示了一示例手势涉及在设备的边缘检测到一根或多根手指,并且可包括这些手指在设备的边缘的全部或一部分周围的运动。例如,如图58中所示,手势可包括在步骤5805中没有检测到手指,在步骤5810中在正面的边缘处检测到单根手指,在步骤5815中检测到手指沿着边缘移动,在步骤5820中对手指相对于设备的角运动解码,并且在步骤5825中检测到手势。作为与此手势相关联的功能的示例,手指的运动可旋转设备上显示的内容的一些或全部。
在特定实施例中,手势可包括可穿戴设备的运动,例如由穿戴着设备的手臂作出的。该运动可被任何适当的传感器检测到,例如惯性传感器、取向传感器或者其任何适当组合。图59-图66图示了示例手势,其涉及检测相对于设备的重力向量(例如指向设备正面的方向或者指向下穿过基底)并且检测设备相对于该重力向量的后续运动。例如,图59可包括在步骤5905中检测到重力指向下穿过正面,在步骤5910中检测到设备沿着重力向量指向的那个轴的加速度,在步骤5915中检测到设备的加速度在某个时间步长中保持,并且在步骤5920中检测到手势。图60与图59的手势基本相似,只不过在步骤6005中重力向量指向下穿过基底(而不是正面)。图61图示了一手势,其使用重力向量来确定设备的取向/位置,例如设备不在用户的身体旁边。可检测设备从检测到的取向(例如,与重力向量垂直)的运动,从而导致手势。例如,检测到的重力取向在步骤6105中可指示出手臂不在身体侧边,在步骤6110中可检测到设备的横向加速度,在步骤6115中可在一段时间中检测到该加速度,并且在步骤6120中可检测到手势。如图59-图61所指示的,检测运动的一方面(例如加速度的持续时间)可触发手势,并且一方面的各范围(运动的持续时间的范围)可各自对应于不同的手势。图62-图63图示了设备的旋转运动。像图61中那样,对设备的初始取向或位置的检测可以是手势检测的一部分。例如,图62的手势可包括在步骤6205中检测到重力向量指示出手臂不在身体侧边,在步骤6210中检测到某种旋转运动,在步骤6215中估计该旋转运动的半径对于肘部运动而言是足够大的,在步骤6220中估计相对旋转,并且在步骤6225中检测到手势。作为另一示例,图63的手势可包括在步骤6305中检测到重力向量指示出手臂不在身体侧边,在步骤6310中检测到某种旋转运动,在步骤6315中估计该旋转运动的半径对于手腕运动而言是足够小的,在步骤6320中估计相对旋转,并且在步骤6325中检测到手势。如图62-图63中所示,手势可包括估计设备的旋转的类型,例如主要来自肩部的旋转(图62),主要来自肘部的旋转(图63),或者任何其他适当的旋转。除了旋转的半径以外或者取代旋转的半径,手势还可包括检测旋转的量、旋转的持续时间、旋转的径向加速度,旋转的任何其他适当的方面,或者上述的任何适当组合。
与对图61-图63一样,图64指示出一手势涉及检测设备的初始取向或位置。例如,图64的手势可包括在步骤6405中检测到重力向量指示出手臂不在身体侧边,在步骤6410中检测到沿着手臂的轴的手臂的横向加速度,在步骤6415中检测到该加速度保持一段时间,并且在步骤6420中检测到手势。图65图示了一手势可包括设备沿着穿戴该设备的附肢的轴的运动,例如设备沿着该轴的加速度。该手势可包括沿着运动的路径的冲击(例如由手停止或接触物体引起)以及随后运动的反转。来回运动可重复,直到运动停止或者手返回到某个位置,例如用户的侧边为止。在特定实施例中,不同的手势可基于来回运动的数目或频率。例如,图65的手势可包括在步骤6505中检测到重力向量指示出手臂不在身体侧边,在步骤6510中检测到手在运动中,在步骤6515中检测到沿着运动的路径的冲激(冲击),在步骤6520中检测到沿着相同线状路径的手反向运动,在适当时重复步骤6515和6520,在步骤6525中检测到运动停止了一段时间,并且在步骤6530中检测到手势。
图66-图68图示出基于对与预定运动模板匹配的运动的检测的示例手势,该运动模板可以是用户可定制的或者用户可创建的。在特定实施例中,可定制的手势可包括设备的初始位置或取向,特定方向上的运动或运动的一些方面,运动的停止和开始,运动的持续时间或者任何其他适当的运动参数。在特定实施例中,这些参数中的一些或全部可以是用户可定制的。在特定实施例中,检测到的手势可通过将检测到的运动匹配到最近可用运动模板来确定。例如,如图66-图68中所示,手势可对应于手臂或手指的水平位置或运动。例如,如图66中所示,手势可包括在步骤6605中检测到向下穿过设备的基底的底部的重力向量,在步骤6610中检测到向前和向内的运动,在步骤6615中匹配运动模板(例如,使用图19的探试、数值或基于模式的手势识别模块),并且在步骤6620中检测到手势。图67可包括在步骤6705中检测到向侧面穿过设备的基底的底部的重力向量,在步骤6710中检测到向前和向内的运动,在步骤6715中匹配运动模板(例如,使用图19的探试、数值或基于模式的手势识别模块),并且在步骤6720中检测到手势。图68可包括在步骤6805中检测到重力向量指示出手臂不在身体侧边,在步骤6810中检测到设备的运动,在步骤6815中检测到运动停止,在步骤6820中匹配运动模板,在步骤6825中选择最佳运动模板匹配,并且在步骤6830中检测到手势。虽然图66-图68图示了与特定运动模板相对应的可定制手势的具体示例,但本公开预期可由设备的用户定制的由任何适当的传感器检测到的任何适当的手势(或者其任何方面)。
在特定实施例中,手势可以可选地包括检测某个非运动或非取向输入。例如,图69-图71图示了包括对声音的检测的手势,虽然图示的手势不要求这种检测。图69图示了声音输出(例如,来自进入或外出的电话呼叫的振铃)或响应,随后是设备的某种运动(例如设备被放到用户面前)。例如,在步骤6905中发起音频响应或输出,在步骤6910中检测到向上运动,在步骤6915中检测到向上运动的停止,在步骤6920中重力向量在预定窗口内,并且在步骤6925中检测到手势。在特定实施例中,手势可包括在特定取向或取向窗口中检测到重力向量,如图所示。图69的手势也可包括检测到用户的手/手指的位置。作为可与图69中所示的手势相关联的功能的示例,如果手指被放到耳朵或脸附近、所指示的位置处,则用户可应答或发出电话呼叫。图70和步骤7005-7025图示了具有与对图69描述的那些相似的属性、但涉及用户的手/手指的不同取向的示例手势。图71图示了一示例手势包括由用户生成的声音(例如由用户打响指生成),这些声音被与设备相关联的麦克风检测到。例如,图71可包括在步骤7105中检测到重力向量指示出手臂不在身体侧边,在步骤7110中检测到具有相对高的加速度的运动,在步骤7115中检测到一个或多个声音频率的突然变化,并且在步骤7120中检测到手势。如图71中所示,响指运动可仅通过单由响指生成的运动(例如通过用户的手/皮肤的振动或者通过由响指引起的某种程度的旋转或者旋转的变化率)来检测到,或者可通过运动加上由响指生成的听觉输入的组合来检测到。在特定实施例中,要检测到手势,则必须在运动的预定时间内检测到听觉确认。
图72-图73图示了示例手势涉及设备的周期性运动,例如在横向或垂直方向上摇晃设备所在的手臂。图72图示了一手势,包括:在步骤7205中检测到重力向量指示出手臂不在身体旁边,在步骤7210中检测到设备在轴上横向向前移动,在步骤7215中检测到设备在同一轴上向后移动,根据需要重复7210和7215的步骤,并且在步骤7220中检测到手势。图73图示了一手势,包括:在步骤7305中检测到重力向量指示出手臂不在身体旁边,在步骤7310中检测到设备在轴上垂直向前移动,在步骤7315中检测到设备在同一轴上向后移动,根据需要重复7310和7315的步骤,并且在步骤7220中检测到手势。图74图示了一示例手势,涉及对设备相对于用户的身体的位置/取向的调整。例如,图74的手势可包括在步骤7405中检测到重力向量指示出手臂在身体旁边,在步骤7410中检测到重力向量指示出手臂在身体旁边,在步骤7415中检测到手势。任何适当的功能可与图72-图75的手势相关联,例如将设备从低电力状态中唤醒。图75图示了一示例手势涉及设备的高度或者从设备的开始到停止设备的高度的相对变化。除了设备的高度以外,手势还可包括手势之前、手势期间或者手势之后设备的取向。例如,手势可包括在步骤7505中检测到重力向量指示出手臂不在身体的旁边,在步骤7510中检测到向上运动,在步骤7515中检测到向上运动的停止,在步骤7520中检测到重力向量指向穿过设备的基底的侧边,并且在步骤7525中检测到手势。任何适当的功能可与图75的手势相关联,例如激活与该设备配对的装备,开启房间中的一盏或多盏灯,或者激活该设备附近的装备。
在特定实施例中,手势可包括与可穿戴设备的主体或环带直接交互。例如,图76图示了一手势,涉及与戴在用户的手腕上的环带的触摸敏感区域接触。该手势可包括在步骤7605中检测到设备不处于锁定状态中,在步骤7610中检测到环带上没有触摸,在步骤7615中检测到环带上的触摸,在步骤7620中对扣环的位置解码,并且在步骤7625中检测到手势。图77图示了多个位置的触摸可被确定为单个手势,例如解锁设备或者设备的一些方面。该手势可包括在步骤7705中检测到设备不处于锁定状态中,在步骤7710中检测到环带上没有触摸,在步骤7715中检测到环带上的触摸,在步骤7720中对扣环的位置解码,在步骤7725中对动作解码,并且在步骤7730中检测到手势。图78图示了一手势可包括接触设备的触摸敏感区域并且在维持与设备的接触的同时滑过触摸敏感区域。该手势可包括在步骤7805中检测到设备不处于锁定状态中,在步骤7810中检测到环带上没有触摸,在步骤7815中检测到环带上的触摸,在步骤7820中检测到(一个或多个)触摸点的移动,在步骤7825中对相对运动解码,并且在步骤7830中检测到手势。在特定实施例中,手势可包括接触的持续时间、接触的物理面积(例如用一根手指或两根手指接触)、接触的序列、接触生成的压力或者任何其他适当的接触相关属性。虽然图76-图78图示了与环带上的触摸敏感区域的接触,但本公开预期手势可涉及在设备的任何适当位置上的触摸敏感区域上的接触,所述位置例如是设备环带、环、显示器或者其任何适当组合。例如,图79-图80图示了与设备的环上的触摸敏感区域的接触,与图77-图78的手势类似。例如,手势可包括在步骤7905中检测到设备不处于锁定状态中,在步骤7915中检测到环上没有触摸,在步骤7320中检测到环上的触摸,并且在步骤7925中检测到手势。作为另一示例,手势可包括在步骤8005中检测到设备不处于锁定状态中,在步骤8010中检测到环上没有触摸,在步骤8015中检测到环上的触摸,在步骤8020中检测到触摸点的移动,在步骤8025中对相对运动解码,并且在步骤8030中检测到手势。图81图示了一手势,涉及与设备正面的触摸敏感区域的多点触摸接触,并且检测到例如由与触摸敏感区域接触的手指的运动或者由穿戴着设备的手腕/手的移动引起的接触点的后续运动。该手势可包括在步骤8105中检测到设备不处于锁定状态中,在步骤8110中检测到表面上没有触摸,在步骤8115中检测到至少两根手指触摸该表面,在步骤8120中检测到触摸点的移动,在步骤8125中对相对运动解码,并且在步骤8130中检测到手势。手腕/手的运动可由例如设备中的惯性传感器检测到,从而允许移动触摸点的不同方式成为两个不同的手势。图82图示了一手势,涉及与设备的初始接触,该初始接触可由设备上或设备中的一个或多个邻近传感器或者设备上或设备附近的惯性传感器检测到。该手势可涉及检测到接触持续,指示出例如用户已戴上设备。例如,该手势可包括在步骤8205中检测到与后部或环带邻近传感器没有接触,在步骤8210中检测到邻近传感器的接触,在步骤8215中检测到接触持续,并且在步骤8220中检测到手势。图82的手势可解锁或对休眠的设备加电,或者提供任何其他适当的功能。
在特定实施例中,手势可包括与设备附近的皮肤的接触。图83图示了一手势,涉及在穿戴设备之处附近的皮肤上叩击。该叩击可被设备中的振动传感器检测到。叩击运动可由例如一个或多个声传感器检测到由叩击手势生成的声音来加以确认。例如,该手势可包括:在步骤8305中检测到设备被解锁,在步骤8310中检测到具有相对高的加速度的运动,在步骤8315中检测到例如叩击的声音,在步骤8320中将该运动或声音匹配到一模式,以及在步骤8325中检测到手势。图84图示了一手势,涉及对设备附近的皮肤的挥扫,其可由上文在图83中描述的传感器来检测和确认。例如,该手势可包括在步骤8405中检测到设备被解锁,在步骤8410中检测到具有相对高的加速度的运动,在步骤8415中检测到例如叩击的声音,在步骤8420中检测到皮肤上的横向移动的振动或声音,在步骤8425中将该运动或声音匹配到一模式,以及在步骤8430中检测到手势。
在特定实施例中,手势可涉及检测由未穿戴设备的手作出的比喻性手势。例如,这种手势可由例如设备的显示器上或显示器附近的任何适当的前向传感器来检测,该传感器被定向成使得未穿戴设备的手在该传感器的视角中。图85图示了一示例手势涉及前向传感器检测多根手指的运动,例如手指的叩击。例如,该手势可包括在步骤8505中确定设备处于预定取向,在步骤8510中检测到指尖,在步骤8515中检测到指尖的运动或者在步骤8525中检测到叩击声音,并且在步骤8520和8530中检测到一个或多个手势。图86图示了一示例手势涉及单根手指的运动。例如,该手势可包括在步骤8605中确定设备处于预定取向,在步骤8610中检测到指尖,在步骤8615中检测到指尖的运动或者在步骤8525中检测到叩击声音,并且在步骤8620中检测到一个或多个手势。图87图示了一手势,涉及检测握持物体的手的移动,检测该物体的运动,锁定到该物体上,然后检测该物体的后续运动。作为具体示例,该手势可包括在步骤8705中检测到设备处于预定取向,在步骤8710中检测到手,在步骤8715中检测到手的运动,在步骤8720中检测到要与手一起移动的额外物体,在步骤8725中锁定在该物体上,在步骤8730中检测到该物体的运动,并且在步骤8735中检测到手势。例如,物体可以是笔或者其他触笔状器具,并且设备上的前向传感器可检测该器具的书写运动以例如在该设备上或者在与可穿戴设备通信的另一设备上生成/存储文本。图87的示例可允许用户生成绘画、注释或其他书写内容,而不在显示器或其他书写表面上实际生成书写内容。如本文中将更充分描述的,任何适当的手势或手势的组合可用于影响或发起增强现实(augmented-reality,“AR”)功能,并且可用于利用AR功能来执行任务。例如,图85-图87的手势可用于捕捉用户与虚拟键盘、虚拟鼠标或虚拟触摸屏的交互并且这些交互可在可穿戴设备或任何其他适当的配对设备上生成输入。虽然本公开描述了比喻性手势和物体检测(以及关联的功能)的具体示例,但本公开预期任何适当的比喻性手势、对任何适当的物体的检测以及与任何适当的功能相关联的这种手势。
在特定实施例中,手势可涉及固着或穿戴设备的整个附肢。例如,图88-图92图示了示例手势涉及穿戴着设备的手臂的运动。手势可包括检测手臂的初始位置(例如经由检测重力向量的方向的加速度计),检测设备的运动(经由手臂),检测重力向量的相应变化,并且检测到手臂已停止运动。这种手势还可包括检测运动的持续时间,运动的量(例如检测大的运动半径,确认整个手臂运动了),运动的加速度,或者任何其他适当的运动相关属性。如图88-图92所示,手势可涉及检测在头部上方、向前面、向侧边、向后面或者从最初更高的开始位置向下的手臂运动。例如,手势可包括在步骤8805中检测到重力向量指示出手在身体侧边,在步骤8810中检测到手的向上运动,在步骤8815中检测到重力向量指示出手在头部上方,在步骤8820中检测到手停止运动,并且在步骤8825中检测到手势。作为另一示例,手势可包括在步骤8905中检测到重力向量指示出手在身体侧边,在步骤8910中检测到手的向上和向前运动,在步骤8915中检测到重力向量指示出手是水平的,在步骤8920中检测到手停止运动,并且在步骤8925中检测到手势。作为另一示例,手势可包括在步骤9005中检测到重力向量指示出手是水平的,在步骤9010中检测到手向下和向后运动,在步骤9015中检测到重力向量指示出手在侧边,在步骤9020中检测到手停止运动,并且在步骤9025中检测到手势。作为另一示例,手势可包括在步骤9105中检测到重力向量指示出手在身体侧边,在步骤9110中检测到手向上和向后运动,在步骤9115中检测到重力向量指示出手是水平的,在步骤9120中检测到手停止运动,并且在步骤9125中检测到手势。作为另一示例,手势可包括在步骤9205中检测到重力向量指示出手在身体侧边,在步骤9210中检测到手向上和向外运动,在步骤9215中检测到重力向量指示出手是水平的,在步骤9220中检测到手停止运动,并且在步骤9225中检测到手势。在特定实施例中,手势可涉及整个身体而不只是穿戴着设备的附肢的运动。
在特定实施例中,用户可经由各种输入机制或类型与设备交互,这些输入机制或类型例如包括外环、触摸敏感界面(例如触摸敏感层)、用户执行的手势(在本文中描述)或者话音界面(例如包括语音输入和话音识别,用于包括文本输入、通信或搜索的应用)。此外,在特定实施例中,用户可经由这些输入机制或类型中的任何一种与在设备的圆形显示器上呈现的图形用户界面交互。
可穿戴电子设备的用户可利用外环与设备(包括例如在圆形显示器上呈现的图形用户界面)交互。在特定实施例中,外环可以是触摸敏感的,以使得用户在环的一个或多个部分上的触摸可被检测为对设备的输入并且被解读,使得设备采取一个或多个动作(例如在设备的图形用户界面内)。作为示例,触摸敏感外环可以是电容环或电感环,并且设备的用户可在触摸敏感环上执行任何适当的触摸手势以向设备提供输入。该输入可例如包括利用一根手指挥扫该环,利用两根或更多根手指挥扫该环,利用一根或多根手指执行旋转手势,或者挤压该环。在特定实施例中,外环可以是可旋转的,使得环的物理旋转可充当对设备的输入。此外,在特定实施例中,外环可以被点击(例如向下压)或挤压。外环的任何实施例可被适当地组合以使得环可以是触摸敏感、可旋转、可点击(或可按压)或可挤压中的一种或多种的。来自外环的不同形式的输入(例如触摸、旋转、点击或按压或者挤压)可取决于例如用户提供的输入的形式的组合而被不同地解读。作为示例,外环的旋转可指示出不同于与对环的点击或按压相结合的旋转的输入。此外,当用户经由外环提供输入时可向用户提供反馈,包括本文描述的触觉反馈、音频反馈或视觉反馈。
图93A图示了用户在外环上点击(例如向下按压)的示例,由箭头9310指示。图93B图示了用户挤压外环的示例,由箭头9320指示。图94A图示了用户旋转外环以使得设备的图形用户界面的内容9410根据该旋转(例如向右)而变化的示例。图94B图示了如下示例:用户在触摸敏感外环上执行旋转手势,而环本身不旋转,使得设备的图形用户界面的内容9420根据该旋转(例如向右)而变化。图94C图示了如下示例:用户旋转外环并同时按压或点击该环,使得设备的图形用户界面的内容9430根据该旋转(例如向右)和该按压或点击而变化。
在特定实施例中,设备的触摸敏感界面(例如触摸敏感层)可接受用户触摸输入并允许设备确定用户的触摸的x-y坐标,识别触摸接触的多个点(例如在触摸敏感层的不同区域处)并且在触摸交互的不同时间长度之间进行区分(例如区分包括挥扫、单叩击或双叩击在内的手势)。(本文描述的)触摸手势可包括多方向挥扫或拖曳、捏撮、双叩击、在显示器上按压或推压(这可引起显示器在向上或向下方向上的物理运动)、长按压、多点触摸(例如使用多个手指或器具来触摸或者在触摸敏感界面上的任何地方作手势)或者旋转触摸手势。图95A图示了用户叩击9510触摸敏感界面(例如触摸敏感层)以向设备提供输入的示例。用户的叩击的精确x-y坐标可由设备通过来自触摸敏感界面(例如触摸敏感层)的输入来确定。图95B图示了用户分别执行顺时针旋转手势9515、逆时针旋转手势9520、垂直挥扫手势9525和水平挥扫手势9530的示例。图95C图示了用户分别同时利用一个、两个或三个接触点9535(例如利用一个、两个或三个手指或器具)来触摸显示器(包括具有多点触摸感测能力的触摸敏感层)的示例。图95D图示了用户执行与触摸敏感界面具有多个接触点的触摸手势的示例。用户在此示例中可利用两根手指执行展开手势9540、捏撮手势9545、顺时针旋转手势9550或者逆时针旋转手势9555。
在特定实施例中,设备的图形用户界面可根据交互和转变模型来操作。该模型可例如确定可如何在设备的图形用户界面内组织(例如按层次体系)包括应用、功能、子模式、确认、内容、控件、活跃图标、动作或其他特征或元素在内的模式。
在一个实施例中,图形用户界面(graphical user interface,GUI)包括多个顶级屏幕,其中每一者对应于设备的一不同模式或应用(或者子模式、功能、确认、内容或任何其他特征)。这些应用中的每一者可在GUI的交互和转变模型的层次体系的同一级别上。图96A图示了GUI内的层次体系的示例布局,其中多个顶级屏幕9602-9606和9610-9614各自对应于一不同的应用,并且顶级屏幕之一9608(主屏幕)对应于时钟。GUI内的状态转变可以是由来自诸如设备的用户之类的输入源的输入触发的事件。来自设备的用户或者来自另一输入源(例如经由各种输入机制或类型中的任何一者,包括外环、触摸敏感界面、手势、话音或传感器)的输入可引起GUI内的转变(例如从一个顶级屏幕转变到另一个)。例如,输入可引起GUI从主屏幕9608(例如时钟)转变到应用(例如3或4)或者从一个应用转变到另一应用。如果用户例如将外环向右旋转,则GUI可从主屏幕9608转变到应用4 9610,而如果用户将外环向左旋转,则GUI可从主屏幕9608转变到应用3 9606。在其他实施例中,情境(例如由设备上的传感器或其他输入源确定)可使得GUI从主屏幕转变到应用或者从一个应用转变到另一应用。
在一个实施例中,模型可包括关于对相对于主屏幕的“左”和“右”侧的区分的可操作性。作为示例,顶级屏幕中的一个或多个可与GUI的交互和转变模型的层次体系中的固定的(例如始终对用户可用)或者情境性的或动态的(例如取决于情境而可用的)模式或应用(或其他特征)相关联。情境性屏幕可例如反映用户最近使用的模式、应用或功能、用户最近添加(例如下载)的模式、应用或功能、临时注册的设备(其可例如在设备被使用时进入或离开设备的通信范围)、作为用户的“收藏”(例如由用户明确指定)的模式、应用或功能或者为用户建议(例如基于用户的先前活动或当前情境建议)的模式、应用或功能。图96B图示了GUI内的层次体系的示例布局,其中情境性或动态应用9616-9620和固定应用9624-9628被分开分组,其中左侧(相对于主时钟屏幕9622)包括情境性应用,并且右侧包括固定应用。作为示例,动态应用01 9620可以是最近使用的应用,并且动态应用02 9618可以是第二近使用的应用,等等。
在特定实施例中,GUI的交互和转变模型的层次体系的顶级可只包括“脸面”,并且层次体系的下一级可包括应用(或任何其他特征)。作为示例,层次体系的顶级可包括主屏幕(例如时钟)和一个或多个脸面,每个脸面对应于一不同类型的背景、模式或活动,比如壁纸(例如可由用户定制)、天气信息、日历或者每日活动信息。每个脸面除了显示的任何其他信息以外还可示出时间。此外,当前显示的脸面可由用户选择(例如经由任何适当的输入机制或类型)或者基于情境(例如用户的活动)而自动变化。主屏幕左侧的脸面可以是情境性的,并且主屏幕右侧的脸面可以是固定的。图97图示了GUI内的层次体系的示例布局,其中层次体系的顶级包括脸面9710-9770(包括时钟脸面9740)并且层次体系的下一级包括应用9715-9775。
在特定实施例中,来自设备的用户的输入或者来自另一输入源的输入(例如经由各种输入机制或类型中的任何一种,包括外环、触摸敏感界面、手势、话音或传感器)或者设备的使用情境可引起GUI内的从GUI的交互和转变模型的层次体系的一个级别处的屏幕到该层次体系的另一级别处的屏幕的转变。例如,用户作出的选择事件或输入(例如对显示器的触摸或叩击、语音输入、眼睛注视、对外环的点击或按压、对外环的挤压、任何适当的手势、由传感器检测到的内部肌肉运动或者其他传感器输入)可引起GUI内从顶级屏幕到层次体系中更深一级嵌套的屏幕的转变。如果例如当前屏幕是与应用相关联的顶级屏幕,则选择事件(例如按压环)选择该应用并且使得GUI转变到更深一层嵌套的屏幕。此第二屏幕可例如允许与所选择的应用的特征的交互并且在特定实施例中可对应于所选择的应用的主功能。在这个第二嵌套层处可以有多个屏幕,并且这些屏幕中的每一者可对应于所选择的应用的不同功能或特征。类似地,用户作出的“返回”选择输入或事件(例如对外环的双按压或者在显示器的特定部分中的触摸手势)可引起GUI内从一个屏幕(例如特定应用的特征)到在层次体系中更高一级的另一屏幕(例如顶级应用屏幕)的转变。
图98A图示了关于设备的特定应用的功能或模式9805和该功能的使用或应用9810的交互和转变模型的操作的示例。作为示例,如果应用是相机,则相机应用的功能、模式或其他元素可包括图片模式、视频模式(例如具有实时取景)和打开或关闭闪光灯。可经由模型层次体系的单层内的转变来访问各种功能、模式或其他元素。这些层内转变可在接收或确定来自诸如设备的用户之类的输入源的特定类型的转变事件或输入(例如对外环的逆时针或顺时针旋转)时或者在确定设备的特定使用情境时发生。在特定实施例中,转变事件输入也可包括例如对显示器的触摸或叩击、语音输入、眼睛注视、对外环的点击或按压、对外环的挤压、任何适当的手势、由传感器检测到的内部肌肉运动或者其他传感器输入。为了选择和使用应用的功能、模式或其他元素,用户可提供特定类型的选择事件或输入(例如对显示器的叩击或触摸、对外环的按压或点击、特定的手势或者传感器输入),引起GUI内到层次体系的更深层的层间转变。作为示例,为了拍摄视频,用户可叩击与相机应用的视频模式特征相关联的屏幕。一旦处于层次体系的这个更深层——拍摄视频,用户就可使得GUI在该层中的不同选项之间转变,如果有这些选项可用的话(例如与视频模式相关的选项)。在特定实施例中,用户可选择更深层中的选项之一,使得GUI转变到还更深的层。作为示例,一旦在视频模式中记录了视频,用户就可再次叩击显示器以将GUI转变到更深层,在此情况下该更深层可包括停止记录视频的选项。此外,用户可通过提供特定类型的选择事件或输入(例如本文描述的“返回”输入)返回到层次体系的更高层。作为示例,一旦在视频模式中记录了视频,用户就可触摸显示器的特定“返回”部分,使得视频记录被取消并且使得GUI转变到与相机应用的视频模式特征相关联的屏幕(例如在层次体系的特征层中)。GUI的交互和转变模型层次体系在单层内可具有任何数目的层和任何数目的元素(例如功能或内容)。图98B图示了关于设备上的内容9815的交互和转变模型的操作的示例。在此示例模型中,内容的行为可与应用类似,只不过如果用户选择内容9815(例如照片)并且GUI转变到层次体系中的更深层,则与该内容相关的选项的菜单中的第一选项9820可被示出(例如像删除照片或共享照片之类的选项)。图98C图示了关于设备上的控件9825的交互和转变模型的操作的示例。控制元素的功能可类似于旋钮,因为其可在可能值的某一范围上修改值。对设备的用户输入(例如向右或向左旋转外环)可修改与控制元素9825相关联的值或状态9830。被控制元素修改的值在性质上可以是基本上连续的(例如相机的变焦水平,或者电视的音量水平)或者在性质上可以是基本上离散的(例如电视的频道)。在特定实施例中,在被控件修改的值在性质上离散的情况下,特定用户输入(例如按压外环)可“提交”对该值的选择。图98D图示了关于设备上的应用9835和应用的主功能9840的交互和转变模型的操作的示例。作为示例,设备的每个模式或功能(例如相机或增强现实功能)可以是设备上的一个应用。单层内的转变(例如在接收到诸如对外环的旋转之类的特定用户输入时执行)允许用户改变设备的应用、模式或功能。层之间的转变(例如在接收到诸如显示器上的叩击之类的特定用户输入时执行)允许用户进入层次体系的与所选择的应用、模式或功能相关联的更深层(或者离开更深层)。
图98E图示了关于设备上的动作9845(例如在应用内)的交互和转变模型的操作的示例。作为示例,在相机应用内,捕捉的图像可被选择,并且对于所选择的图像可以有一个或多个动作可用,例如删除该图像、在FACEBOOK上共享该图像、在TWITTER上共享该图像或者发送带有该图像的电子邮件。在此示例中,“动作”层内的GUI转变(例如在接收到诸如对外环的旋转之类的特定用户输入时执行)允许用户查看要采取的不同动作。层之间的转变(例如在接收到诸如显示器上的叩击之类的特定用户输入时执行)允许用户进入层次体系的与所选择的动作相关联的更深层(或者退出更深层)。在此示例中,通过选择动作9845而进入的更深层示出了次要信息9850或者确认(例如确认应用要发送图像信息到所选择的共享服务)。确认9855(例如确认图像已被发送)也可在此更深层中示出。GUI可自动转变回到更高层(例如动作层)。然而,可以有包括确认信息的层次体系的更深层,并且GUI可在用户输入时或者自动地进入这个更深层。图98F图示了关于图标(例如包括顶级开/关选项的活跃图标9860)和图标的状态的切换9865的交互和转变模型的操作的示例。作为示例,与设备通信配对的电视可由活跃图标——例如电视屏幕——指示。在此示例中,设备/应用顶层内的GUI转变(例如在接收到诸如对外环的旋转之类的特定用户输入时执行)允许用户查看不同的应用、设备或其他特征。即使当电视关闭时电视也可出现在设备的GUI中的菜单中,但电视在其可被使用之前必须被开启。如果用户在电视关闭时选择电视(例如通过在电视图标被GUI显示时在显示器上叩击)9860,则GUI可转变到交互和转变模型层次体系的更深层中的状态,在此状态中电视被开启9865。当电视被开启时,与电视相关联的图标(显示在例如GUI中的模型的顶层中)9870可变化到直接表示电视已被开启9875,如图98G中所示。如果用户再次选择电视(现在是开启的),则GUI可转变到层次体系的还更深的层,在此层中暴露了电视的功能或能力(例如音量或频道改变)。在特定实施例中,再次关闭电视的选项可以是层次体系的这个更深层中的第一菜单项,以使能对关闭功能的快速访问(例如在用户意外开启了电视的情况下)。在特定实施例中,如果用户在电视关闭时选择了电视,则电视可被开启并且与电视相关联的图标可变化到直接表示电视已被开启,而GUI不转变到层次体系的不同层或者不同的用户界面。活跃电视图标因此可直接在层次体系的顶级(例如主菜单)内指示配对的电视的状态。
图99图示了关于图像捕捉应用的GUI的交互和转变模型层次体系的示例。在此示例中,在选择应用(在屏幕9900处)之后到达的第一屏幕9902可对应于该应用的“实时取景”功能。图像捕捉应用的其他固定特征,包括视频模式9904、变焦9906或闪光灯9908,可在所选择的应用的首页主功能屏幕9902的右侧可用。所选择的应用的动态地或情境性地可用的特征(例如捕捉的图像9910)可在首页主功能屏幕的左侧可用。层次体系的这个功能层处的选择事件可引起GUI内的到层次体系内的还更深的另一嵌套层的转变。例如,如果用户选择“变焦”功能,则GUI可转变到屏幕9912,在其中用户可利用任何适当的输入来控制相机的变焦设定(例如向右旋转外环以增大变焦或者向左旋转外环以减小变焦)。类似地,用户可能够控制不同特征的状态(例如开启或关闭闪光灯特征9914,或者从图片模式切换到视频模式9916),浏览内容(例如9918-9922),进入层次体系的更深层,在这里可采取动作9924-9930,或者进入层次体系的另一个还更深的层,在这里一旦选择了动作则提供确认9932-9938。
在特定实施例中,交互布局可构造设备的GUI的交互和转变模型。交互布局可被应用到任何适当的交互模型并且不需要依赖于例如设备的GUI内的任何特定类型的运动或动画。虽然下面论述了交互布局的具体示例,但任何适当的交互布局都可用于构造交互和转变模型。
作为一个示例,平移线状交互布局可构造设备的GUI的交互和转变模型。在平移线状型GUI中,层内的元素或特征可被布置在当前显示的元素或特征的左侧和右侧。诸如在顺时针或逆时针方向上旋转外环之类的用户输入在模型层次体系的单层内导航。作为示例,将外环顺时针旋转一个旋转增量可显示右侧的元素或特征(例如下一元素),并且逆时针旋转一个旋转增量可显示左侧的元素或特征(例如前一元素)。在特定实施例中,顺时针或逆时针快速旋转可使得GUI执行加速的浏览。在这种实施例中,单一一转可使得GUI转变经过多个元素或特征,而不是单个元素或特征,如本文所述。不同的用户输入可在模型层次体系中的层(例如更深层或者更高层)之间导航。作为示例,如果用户触摸或叩击显示器的触摸敏感层,则GUI可转变到模型层次体系中的更深一层(例如确认用户的选择或者提供与选择有关的选项)。取代基于触摸或叩击的输入或者除了基于触摸或叩击的输入以外,用户作出的任何适当输入可使得GUI在模型层次体系中的层之间转变。
作为另一示例,如果用户按压显示器的触摸敏感层的特定区域(例如被指定为“返回”按钮),或者如果用户双叩击显示器的触摸敏感层,则GUI可转变到模型层次体系中更高的一层(例如转变到前一层)。例如,如果用户执行对显示器或屏幕的长按压,则GUI可转变回到主屏幕(例如时钟)。在没有额外的用户输入的情况下,GUI也可在预定的时间段(例如超时时段)之后转变回到主屏幕。如本文所述,随着用户开始例如以顺时针或逆时针方式旋转外环,GUI在同一层内转变,并且右侧或左侧的下一用户界面元素或特征(例如同一层中的面包屑图标)可分别开始出现,同时当前用户界面元素或特征可开始消失。
图100A图示了平移线状交互布局的示例。在此示例中,GUI元素10001、10002、10003和10004在平移线状型GUI的交互和转变模型层次体系的同一层中。GUI元素10002A、10002B和10002C是层次体系的更深的第二层中的元素并且是元素10002的子元素。作为示例,第一层可包括与设备配对的设备——元素10001可表示汽车,元素10002可表示电视,元素10003可表示移动电话,元素10004可表示家庭恒温器。元素10002A可以是电视的音量控制元素,元素10002B可以是电视的频道控制元素,并且元素10002C可以是电视的图片控制元素。作为另外一个示例,如果用户点击环(例如向下按压环一次)则GUI可转变到层次体系中更深的一层,然后通过旋转环可平移该更深层中的子元素。可替换地,用户可通过在向下按压环的同时旋转环来平移更深层中的子元素。设备可包括开关来选择用户输入如何用于在层之间导航。
作为另一示例,平移径向(或平移圆形)交互布局可构造设备的GUI的交互和转变模型。在平移径向型GUI中,层中的元素或特征可被布置在当前显示的元素或特征的上方和下方。诸如在顺时针或逆时针方向上旋转外环之类的用户输入在模型层次体系的层之间导航。作为示例,将外环顺时针旋转一个增量可使得GUI转变到模型层次体系中更深一层(例如进入特定应用的层或确认对应用的选择),并且逆时针旋转一个增量可使得GUI转变到模型层次体系中更高一层(例如离开特定应用的层到前一层)。在特定实施例中,顺时针或逆时针快速旋转可使得GUI执行加速的浏览,如本文所述。在这种实施例中,单个旋转增量可使得GUI转变经过层次体系的多层,而不是单层。不同的用户输入可在模型层次体系中的单层内导航。作为示例,如果用户触摸或叩击显示器的触摸敏感层,则GUI可转变到下一元素或特征(例如当前显示的元素下方的元素)。作为另一示例,如果用户按压显示器的触摸敏感层的特定区域(例如被指定为“返回”按钮),或者如果用户双叩击显示器的触摸敏感层,则GUI可转变到前一元素或特征(例如当前显示的元素上方的元素)。例如,如果用户执行对显示器或屏幕的长按压,则GUI可转变回到主屏幕(例如时钟)。在没有额外的用户输入的情况下,GUI也可在预定的时间段(例如超时时段)之后转变回到主屏幕。如本文所述,随着用户开始例如以顺时针或逆时针方式旋转外环,GUI转变到不同层,并且下一用户界面元素或特征(例如在不同层中)可开始出现,同时当前用户界面元素或特征可开始消失。图100B图示了平移径向交互布局的示例。在此示例中,GUI元素10001、10002、10003和10004在平移径向型GUI的交互和转变模型层次体系的同一层中。GUI元素10002A、10002B和10002C是层次体系的更深的第二层中的元素并且是元素10002的子元素。与之前一样,第一层可包括与设备配对的设备——元素10001可表示汽车,元素10002可表示电视,元素10003可表示移动电话,元素10004可表示家庭恒温器。元素10002A可以是电视的音量控制元素,元素10002B可以是电视的频道控制元素,并且元素10002C可以是电视的图片控制元素。
作为另一示例,手风琴型交互布局可构造设备的GUI的交互和转变模型。在手风琴型GUI中,多个层的元素或特征可以圆形列表结构布置。例如,在列表结构内在第一方向上旋转(例如通过旋转外环)经过与该方向上的最末元素或特征相关联的屏幕(例如设备的最末固定应用)可使得GUI转变到与第二方向上的最末元素或特征相关联的屏幕(例如设备的最近最少使用的情境性应用)。继续在第一方向上旋转可使得GUI按“反转”顺序转变经过与情境性应用相关联的屏幕(例如从最近最少使用到最近最多使用)。类似地,在第二方向上旋转经过最近最少使用的情境性应用的屏幕可使得GUI转变到与最末固定应用相关联的屏幕,并且继续在第二方向上旋转可使得GUI按反转顺序转变经过固定应用的屏幕(例如从最末固定应用到与主屏幕相邻的第一固定应用)。在手风琴型GUI中,当前显示的元素或特征可被“展开”(例如如果被用户选择的话)以使得其子元素或子特征可成为单层列表结构的一部分。在特定实施例中,具有子元素的元素或特征(当被显示时)可通过例如子元素的可见边缘来指示其具有子元素。诸如在顺时针或逆时针方向上旋转外环之类的用户输入在模型的单层内导航,该单层可包括元素或特征以及所选择的元素或特征的子元素或子特征。作为示例,将外环顺时针旋转一个增量可将元素或特征(例如下一元素)显示到右侧,并且逆时针旋转一个增量可将元素或特征(例如前一元素)显示到左侧。在特定实施例中,顺时针或逆时针快速旋转可使得GUI执行加速的浏览。在这种实施例中,单个旋转增量可使得GUI转变经过多个元素或特征,而不是单个元素或特征。不同的用户输入可引起对模型中的元素或特征的选择和展开。作为示例,如果用户触摸或叩击显示器的触摸敏感层,则GUI可展开现有层内显示的特征或元素并转变到子元素或子特征。作为另一示例,如果用户按压显示器的触摸敏感层的特定区域(例如被指定为“返回”按钮),或者如果用户双叩击显示器的触摸敏感层,则GUI可收起展开的子元素或子特征并转变到列表中的元素或特征。例如,如果用户执行对显示器或屏幕的长按压,则GUI可转变回到主屏幕(例如时钟)。在没有额外的用户输入的情况下,GUI也可在预定的时间段(例如超时时段)之后转变回到主屏幕。如本文所述,随着用户开始例如以顺时针或逆时针方式旋转外环,GUI在同一层内转变,并且右侧或左侧的下一用户界面元素或特征(例如同一层中的面包屑图标)可分别开始出现,而当前用户界面元素或特征可开始消失。图100C图示了手风琴型交互布局的示例。在此示例中,GUI元素10001、10002、10003和10004在手风琴型GUI的交互和转变模型的同一层中。因为元素10002已被用户选择,所以GUI子元素10002A、10002B和10002C被展开并且也被包括在模型的同一层中的列表结构中。从而,GUI可从子元素10002C转变到子元素10002B或者直接转变到元素10003。然而,如果用户希望收起子元素(例如通过“返回”输入,比如再次叩击与元素10002相关联的屏幕),则列表结构将再次只包括GUI元素10001、10002、10003和10004。
在特定实施例中,GUI可基于由设备的用户接收的输入而导航到主屏幕。用户输入可包括例如按住(例如长按压)触摸敏感层,按住显示器,按住(例如点击)外环,挤压住外环,覆盖设备的正面(显示器),覆盖设备的特定传感器,在向下方向上转动设备的正面,按压软按钮(在本文中论述),按压设备上的硬按钮,或者摇晃设备(或任何其他适当的手势)。这些输入中的任一者或者这些输入的任何变体(例如包括更短的持续时间)可用作用于在交互和转变模型内“返回”的用户输入。图101A-101B图示了GUI中的“返回”软按钮布局的示例。在图101A中,在显示器的底部10110中接收用户触摸输入使得GUI确认选择或者转变到模型层次体系中的更深一层。在显示器的顶部10120中接收用户触摸输入使得GUI转变“返回”或者转变到模型层次体系中的更高一层。图101B图示了类似的布局,其中“返回”区域10130包括面包屑(breadcrumb)图标10135来向用户指示导航“返回”将在何处转变。在特定实施例中(例如当触摸敏感层可操作来确定触摸的精确x-y坐标时),显示器的任何区域都可被指定为“返回”区域、“确认/选择”区域或者任何其他适当的功能区域。
在特定实施例中,设备的GUI可显示特定类型的内容,例如包括列表。图102A图示了显示项目的垂直列表的GUI的示例。来自用户的输入(例如任何适当的输入机制或类型)可使得GUI的选择框10210移动经过该垂直列表的元素。作为示例,如果用户在顺时针方向上向右旋转,则选择框10210可从垂直列表的顶部向垂直列表的底部移动。外环的每个旋转增量(例如如果外环按离散增量移动)会使得选择框10210在列表内移动一个项目。在图102A的示例中,随着用户顺时针旋转环,列表的显示项目保持恒定,并且选择框10210向下移动经过列表的项目。在其他实施例中,选择框可保持恒定(例如保持在显示器的中心),并且列表的项目可取决于环的旋转方向而向上或向下移动(例如一次一个项目)。图102B图示了显示项目的水平列表的GUI的示例。来自用户的输入(例如任何适当的输入机制或类型)可使得GUI的选择框10210移动经过该水平列表的元素。作为示例,如果用户在顺时针方向上向右旋转,则选择框10210可从水平列表的左侧向水平列表的右侧移动。外环的每个旋转增量(例如如果外环按离散增量移动)会使得选择框10210在列表内移动一个项目。在图102B的示例中,随着用户顺时针旋转环,选择框10210在显示器的中心保持恒定,并且列表的项目响应于顺时针旋转而向左移动(例如一次一个项目)。在其他实施例中,列表的显示项目保持恒定,并且选择框取决于外环的旋转方向而向左或向右移动经过列表的项目。
在特定实施例中,设备的GUI可垂直或水平地显示包括例如图表或文本在内的连续(或基本上连接)的内容。在特定实施例中,来自用户的输入(例如任何适当的输入机制或类型)可使得GUI的选择指示符移动经过连续内容。在其他实施例中,来自用户的输入可使得内容在水平方向、垂直方向或者映射到用户输入的任何其他方向上移入和移出显示器(并且选择指示符——如果存在的话——可保持在恒定位置)。在图102C的示例中,显示了温度图表。随着用户以顺时针方式旋转外环,选择指示符10220保持在显示器的中心,并且内容从右移入显示器并向左移出显示器。在图102D的示例中,显示了更大一段文本10230的一部分。随着用户以顺时针方式旋转外环,另外的文本从底部进入显示器并朝着顶部离开显示器。图103A-103D图示了设备的GUI中显示的示例日历应用。在图103A中,用户可点击或按压外环(由箭头10305指示),使得GUI显示具有选项“向上”、“每周”(默认设定)、“每月”和“每日”的圆形菜单10310。在图103C中,用户可再次点击或按压外环(由箭头10305指示),确认对“每周”的选择并使得GUI显示用户的日历的每周视图10320。
在特定实施例中,GUI可显示具有比显示器更大的大小的内容。在这种实施例中,GUI可缩放或裁剪(或者以其他方式缩小或适配)内容,以使得所有内容可同时显示在显示器内。在其他实施例中,GUI不更改内容的大小,而是为用户提供例如利用滚动(本文中描述)来一次一个部分地平移经过内容的能力。
在特定实施例中,设备包括圆形显示器,并且GUI包括圆形导航和菜单布局。然而,本公开预期显示器的任何形状,以及GUI的任何适当导航或菜单布局。菜单布局可例如向用户提供对于用户位于GUI的交互和转变模型层次体系内的何处的视觉指示。菜单布局也可提供允许用户在不同类型的菜单项之间进行区分以及示出菜单选项的整体视图的视觉指示符。此外,菜单可被显示在设备的任何适当的背景或内容之上。
图104图示了示例圆形菜单布局,其中每个片段10410表示菜单中的一个项目或选项并且诸如10420之类的视觉间隙将选项彼此分隔。默认的或当前选择的项目10430在视觉显示器的顶部(但可在显示器上的任何地方),并且当用户在使用期间以不同方式设置设备显示器的方向时可保持在显示器的顶部。图105A-图105B图示了浏览圆形菜单中的项目的示例。用户可提供诸如外环的顺时针旋转之类的输入,并且响应于此用户输入,菜单中的下一项目10520(例如在当前选择的项目10510右侧)可被突出以供选择。显示器的中心的内容10530可自动变化以反映用户的旋转输入,或者在特定实施例中可仅在用户提供另一输入(例如一旦期望的菜单项被突出则按压或点击外环)之后才变化。图105C-图105D图示了一示例,其中通过旋转外环来浏览圆形菜单,使得菜单中的下一项目10550(例如当前选择的项目10540的顺时针方向或右侧)被突出以供选择。在此示例中,用户的输入也引起中心“指针”10560的旋转,该指针指向与当前选择的菜单项相对应的突出菜单片段。在此示例中,显示器的中心的内容自动变化以反映用户的旋转。
图106A-图106C各自图示了设备的GUI的圆形菜单布局的不同对齐和布置。圆形菜单可例如被直接显示在显示器的边界上(如图106A中所示)或者可被示出在显示器的更内侧,或者作为覆盖被显示在设备的背景上(在图106B-图106C中示出)。图107A-图107C图示了设备的GUI的圆形菜单布局的其他形式和对齐。作为示例,菜单可由布置成圆形的(各种可能大小的)线段10710、布置成半圆的线段10720或者布置成圆形或半圆的点10730或10740构成。在特定实施例中,当前选择的或默认的菜单项10732的视觉指示符可保持在显示器的顶部中心,并且菜单中的项目10734的视觉指示符可基于用户输入而向左或向右移动(图107C)。在其他实施例中,当前选择的或者默认的项目10732的视觉指示符可移动经过菜单的项目的指示符,这些指示符的位置保持固定(图107B)。在特定实施例中,取代线段或点,菜单中的项目的视觉指示符可以是与菜单项相关联的图标(例如面包屑图标)。图108图示了菜单布局不需要是圆形的,而可以是任何适当的布局,包括菜单项10810的指示符分散在整个显示器上的布局。利用用户输入(例如对外环的旋转),不同的项目可根据其在菜单布局中的位置被选择。作为示例,如果用户以顺时针方式旋转,则顺时针方向上的下一菜单项10820可被选择。
图109A-图109C图示了关于当前选择或显示的菜单项10915的“左侧”和“右侧”(例如在交互和转变模型层次体系中)的菜单项的不同菜单布局。在图109A中,所有菜单项10910都均匀分布在围绕显示器的圆形菜单上。在图109B中,菜单包括间隙,其指示出当前显示或选择的菜单项10915的左侧的项目10910和右侧的项目的区分(例如根据本文描述的交互和转变模型)。图109C图示了一示例,其中在当前选择或显示的项目10915的左侧的项目10910比右侧的更多,使得圆形菜单的左手侧片段的大小被调整以适应可用于选择的项目的数目。在大数目的菜单项的情况下(例如超出特定阈值,比如40个捕捉的图像),圆形菜单的片段可消失,并且呈现给用户的视觉指示符可以是允许用户循环滚动经过各种菜单项的滚动条11020,如图110A中所示。在其他实施例中,类似的滚动条型视觉指示符11020可允许设备的用户在固定的值范围11030上操纵绝对或固定的值(例如相机变焦水平),如图110B中所示。在另外的其他实施例中,滚动条型视觉指示符的长度可向用户示出特定值的水平。例如,如果用户在利用设备的外环控制电视的音量,则随着用户(顺时针)转动环以增大音量水平,视觉指示符11120将变得更长,直到其环绕或几乎环绕整个显示器为止,如图111A-图111C中所示。
在特定实施例中,GUI可既显示参考或背景内容的项目,又显示要对该参考或背景内容执行的可用动作或功能的指示。图112图示了参考内容和情境性覆盖动作或功能在GUI内的示例布局。可基于所呈现的不同类型的参考或背景内容来选择不同类型的布局(例如包括图示的那些)以例如最小化对参考或背景内容的遮蔽。例如,如果参考或背景内容是人的图片,则可选择不遮蔽照片的中心的覆盖。在特定实施例中,可以逐个像素地确定参考或背景内容的像素的感知亮度(例如覆盖之后的)。在情境性覆盖与参考或背景内容(例如图像)之间的对比度太低(例如基于预定的阈值)的情况下,可以使用在相反方向上推动下层颜色的模糊阴影。示例算法可包括:确定在覆盖下方的像素,减小它们的饱和度,取视觉亮度的逆(例如使得颜色保持相同但选择亮度来产生对比度),模糊,并且创建下层参考或背景内容与覆盖之间的合成。图113A-图113C图示了与背景或参考内容(这里是由设备的相机捕捉的图像)合成的情境性覆盖的示例11310-11350。如图所示,情境性覆盖可允许用户执行动作或功能(例如删除图像11130或共享图像11325,搜索咖啡11330,搜索餐馆11340或者让一位置成为“收藏”位置11350),向用户提供确认(例如确认图像已被共享11320),或者向用户提供任何其他类型的信息。在特定实施例中,情境性覆盖可用在GUI的菜单布局内的任何地方,除了交互和转变模型层次体系的顶级以外。
在特定实施例中,在设备的GUI中显示的图标可优化设备的能量或电池使用。作为示例,图标可包括主要是黑色的背景,图标本身由细的白色笔划构成。这可允许显示屏上的白颜色的量非常低,从而允许在使用GUI时显示器的能量消耗降低。GUI中显示的图标也可包括实时通知。例如,移动电话图标可包括带有新语音邮件的数目的通知,电子邮件图标可包括带有新电子邮件的数目的通知,聊天图标可包括带有新聊天消息的数目的通知,并且电话图标可包括带有未接来电的数目的通知。在特定实施例中,设备的GUI只对用户生成的内容(例如图片、文件、联系人、通知或日程)显示除了黑和白以外的颜色。包括菜单项在内的其他信息可被显示成黑白的。
在特定实施例中,随着GUI从一个元素(例如特征、内容、项目或图标)转变到另一个(例如在接收到来自用户的输入时),GUI可显示视觉转变效果。这些转变效果可例如取决于从设备的用户接收的输入的类型。作为示例,显示器上的单次触摸可触发特定的转变效果,而外环的旋转可触发不同的一组(可能重叠的)转变效果。
在特定实施例中,用户在触摸敏感层上的触摸输入可触发包括向心式展开、定向滑动和缩放入或缩放出在内的转变效果。图114A图示了向心式模式或功能展开或放大。图114B图示了向心式模式或功能收起或缩小。图115A图示了图标的向心式放大。图115B图示了图标的向心式缩小。图116A图示了带有扭曲运动的向心式图标放大的示例。图116B图示了带有扭曲运动的向心式图标缩小的示例。图117A图示了图标的向心式摊开和向外展开的示例。图117B图示了图标的向心式折叠和向内收起的示例。图118A图示了文本垂直滑动到显示器中的示例,其中文本是通过揭开掩蔽来展现的。图118B图示了文本从显示器的左侧向右侧水平滑入的示例。图118C图示了文本在被掩蔽的区域内(例如情境性覆盖)从显示器的左侧向右侧水平滑入的示例。图119A图示了内容或图标的从右向左的水平滑动转变。图119B图示了从右向左的水平滑动转变,带有渐退效果;离开屏幕的图标或内容一旦到达屏幕的边界则逐渐淡出,并且进入屏幕的图标或内容在其穿过屏幕的边界时逐渐淡入。图119C图示了带有缩放效果的从右向左的水平滑动转变的示例;离开屏幕的内容或图标被缩小;并且进入屏幕的内容或图标被放大到全尺寸。
在特定实施例中,用户对外环的旋转可触发包括变焦、定向滑动、模糊、掩蔽、页面收起、旋转运动和加速运动在内的视觉转变效果。图120A图示了响应于外环的低加速旋转的转变的示例。在此示例中,单个旋转增量可对应于单个项目,使得逆时针的一转(例如一个旋转增量)会使得下一元素(例如图标或内容项)从左向右进入屏幕,并且元素的缩放不发生。图120B-图120C一起图示了响应于外环的高加速旋转的转变的示例。在此示例中,逆时针的单转(例如单个旋转增量)使得GUI迅速平移经过多个元素(这些元素的大小可缩小,从左进入屏幕,并且从右离开屏幕),直到用户停止转动环为止。当用户停止转动外环时,元素可放大到正常大小,并且单个图标或内容项可填满显示器。图121A图示了GUI内的转变的示例,其中内容响应于外环的旋转被拉近。图121B图示了GUI内的转变的示例,其中第一屏幕1以动画方式“折叠”,导致第二屏幕2(例如关于下一特征或内容项的)被显示给用户。
在特定实施例中,设备的GUI可包括考虑到了用户的运动并且产生反映用户的运动的视觉反馈的物理模型。作为示例,一旦有用户作出的激活输入(例如以特定手势的形式),则可通过来自设备的一个或多个传感器的输入来连续地跟踪用户的运动。视觉反馈可在用户界面中反映用户的运动,而下层内容保持静止,使得可以配准手势并且可以使用视差来在UI特征或控件与下层内容之间进行区分。在特定实施例中,物理模型可包括具有阻尼的广义弹簧模型。在这种模型中,项目可被布置成层。更深的层在该物理模型中可具有“更僵硬”的弹簧,以将项目保持在原位。这可使得用户界面的底层在设备被移动时轻微移动,而顶层可移动得更多,从而创建视差的感觉。此外,弹簧模型可包括阻尼,这使得运动滞后,从而创建更液体状的、平滑的运动。图122图示了在GUI中使用物理模型的示例。用户将设备100戴在她的手臂上。一旦用户以向下的方式移动其手臂,在屏幕上显示的图标12210(例如灯泡)就以反映用户的运动的方式移动。然而,屏幕上的下层内容(例如背景图像)不移动。这类浮动的图标或菜单项可例如在显示器具有由于视觉拥挤而不允许同时显示许多图标或菜单项的大小时有帮助。此外,这类浮动行为也可与用于向用户呈现事件的通知手段一起使用。
在特定实施例中,设备的GUI可包括脸面作为设备的默认屏幕或壁纸,并且这些脸面可以是交互和转变模型层次体系的一部分(例如在层次体系的顶层中或者作为主屏幕)。如本文所述,这些脸面可以是可自动地对用户的活动作出情境性响应的可变化应用或模式。作为示例,脸面可取决于用户的环境、需求、品味、位置、活动、传感器数据、手势或日程而变化。脸面的可用性(或者GUI中从一个脸面到另一个脸面的转变)可基于情境信息来确定。作为示例,如果用户在其日历中安排有即将发生的事件,则设备的脸面可变化到向用户显示即将发生事件信息的日历脸面。作为另一示例,如果用户被确定为在其家附近(例如基于GPS数据),则设备的脸面可变化到与家庭自动化应用相关联的脸面。作为另外一个示例,如果用户被确定为(例如基于各种生物计量传感器,比如心率或觉醒传感器,或者基于加速度计)在活跃地运动,则设备的脸面可变化到健身模式,示出用户的测量脉搏、燃烧的卡路里、从活动(例如跑步)开始流逝的时间,以及时间。任何适当的传感器数据(例如来自包括生物计量传感器、焦点传感器或者可确定用户在驾驶车辆时的手部位置的传感器在内的传感器)可用于确定情境和适当的脸面来显示给用户。用户对设备的历史使用(例如用户使用健身应用的特定时段,比如在健身课中)也可确定在设备上显示哪个脸面。作为示例,设备可预期在用户倾向于锻炼的特定时段用户对健身模式的需求。情境性脸面也可与对通知的抑制(例如如果用户被确定为正在驾驶或者如果设备未被穿戴)或者表述通知的方式的变化(例如视觉地,或者听觉地)相关联。在特定实施例中,设备的脸面不需要与设备上的任何应用相关联并且可以是设备的显示器上的壁纸或背景。脸面可专用于特定的信息通道(例如日历馈送、健康或活动馈送、通知、天气馈送或者新闻)。作为示例,严酷天气通知或提醒(例如从天气馈送接收)可使得天气脸面与通知一起被显示在显示器上。无论脸面的类型如何,脸面都可显示时间(例如以模拟或数字格式)。脸面可以是用户可定制的。用户的定制或品味可由用户明确输入(例如输入到设备或配对设备上的管理软件)或者由设备直接获知(例如利用传感器和使用数据来创建随着时间流逝的模型)。图123图示了示例脸面,包括模拟手表12310、带有圆形菜单布局的模拟手表12320、健康模式脸面12330和天气脸面12340。图124图示了设备的一组示例脸面12410-12440,其中显示了日历和约会信息。
在特定实施例中,设备可被穿戴在用户的肢体上(不会遮蔽用户的脸并且不要求用户握持着设备)并且可包括增强现实(AR)功能。此AR功能可基于使用身体运动来瞄准设备的相机,由于用户的本体感受,这可允许更高准确度的瞄准。这类系统可允许设备的用户观看真实世界中的物体,同时用户在显示器上观看该物体的一个版本(例如由设备的相机捕捉)。此AR能力的一个示例在图16中图示。这种AR系统可允许使用用户肢体的相反两侧的对齐的相机和传感器的“透视”能力。如本文所述,由此类布置可使能各种AR应用。在特定实施例中,可以特别为设备设计应用来允许即刻的机会性使用。此外,可在设备上提供委托模型,以允许使用外部资源来提高可用于在设备上运行的应用的广度,同时招致更少的(或者不招致)就处理要求或能量使用而言的惩罚。在特定实施例中,设备可控制其他设备(例如经由网络发现并与设备通信配对的附近设备)或者被其他设备控制。这类控制可经由邻近、手势或者传统的接口来实现。配对可利用包括设备的相机在内的各种技术来实现,本文将更详细论述。
图125图示了设备的自动相机激活决策流的示例。在特定实施例中,相机是否被使能以及相机的自动激活(例如用于物体识别)是否被使能可取决于设备当前所处的应用或模式。在特定实施例中,在设备上可使能自动相机激活12510。如果使能了此特征(在步骤12520确定)并且如果在设备上有充分的CPU容量和电力可用(例如用来从图像计算感兴趣的特征,这在步骤12530确定),则设备的相机(例如外向相机)可自动捕捉、处理或显示12560一个或多个图像,如果该相机被用户稳定地保持在瞄准位置达预定量的时间的话(例如由可穿戴设备上的惯性测量单元检测到或者由图像的模糊计算出,这在步骤12540确定)。在其他实施例中,相机可始终被激活并搜索图像。在另外的其他实施例中,相机可只在用户手动触发图像捕捉时(例如按压或点击外环,或者叩击显示器,这在步骤12550确定)才捕捉图像并执行特征识别。在特定实施例中,当相机被激活时(通过任何适当的方法),增强现实(AR)功能可被使能。AR功能可被自动使能(取决于例如设备上可用的CPU容量和电力)。在其他实施例中,AR功能可由用户经由用户作出的任何适当输入来明确使能。用户可例如在显示器上提供触摸输入以使能AR功能。作为示例,用户可捕捉比如鸟之类的物体(例如通过使设备的相机指向鸟),并且用户可触摸在显示器上显示的鸟的图像。此动作可使能设备的AR功能,使得例如设备将鸟识别为物体并且向用户返回关于鸟的信息。在其他实施例中,如本文所述,用户可执行一个或多个手势来使能AR功能,以及利用AR功能执行任务(例如通过在设备的相机的视野中执行键入手势来使用“虚拟”键盘)。
在特定实施例中,如果设备不具有自己计算感兴趣的特征的能力,则设备可捕捉图像,将图像传送到通信耦合的设备(例如附近的设备,比如电话或个人计算机)或者传送到基于因特网的服务,在这里可远程计算感兴趣的特征。一旦确定了感兴趣的特征,就可查阅基于因特网的服务或本地数据目录以获得关于识别的物体的额外信息。如果找到信息,则可在设备上将相关数据连同识别的特征一起显示给用户。
设备在特定实施例中可具有小形态因素并且就可用存储器、处理和能量而言可以是受约束的。委托模型可允许设备将一个或多个处理任务(例如与AR功能有关的任务)的一些部分委托给附近设备(例如电话或个人计算机)或者例如委托给基于网络或基于因特网的服务。作为示例,对于可委托的任务,要求该任务的应用向系统(例如设备的操作系统的内核)提供该任务的特性或简档,包括任务的延时敏感性,处理要求和网络有效载荷大小。这可对整个可委托任务的每个可委托子任务进行。由于任务经常是流水线化的,所以可以委托任务流水线的连续块。系统在特定实施例中可取得对设备的一个或多个特性的测量或者构建这些特性的模型。设备的特性可包括设备的静态属性,例如设备的硬件组件的属性,包括安装的总存储器、最大CPU速度、最大电池能量或者网络接口的最大带宽。设备的特性也可包括设备的动态属性,例如设备的操作属性,包括可用存储器、当前CPU容量、可用能量、当前网络连通性、基于网络的服务的可用性、一个或多个用户之间的平均用户行为的计数或者任务的预测或预期处理时间(例如给定特定的使用场景)。在特定实施例中,设备可具有包含设备特性的先前和当前测量的模型以帮助确定将来设备行为。基于任务特性或简档和这些测量或模型,以及基于是否可在设备上执行该任务,系统可委托(或者不委托)任务或任务流水线的一个或多个部分。例如,如果设备上的可用存储器不能够支持任务的处理(例如播放视频),则可以委托任务的一个或多个部分。作为另一示例,如果设备的CPU容量不能够支持处理任务(例如如果CPU由于其现有负载而正以最大容量运行),则可以委托任务的一个或多个部分。作为另一示例,如果设备的电池水平较低并且预期电池不会在任务的预期处理时间那么长的时间中向设备提供能量,则可以委托任务的一个或多个部分。作为另一示例,如果设备的网络连通性较低或者不存在,则可以不委托任务的一个或多个部分(例如如果设备也具有足够的可用存储器、CPU容量和能量的话)。作为另一示例,如果一个或多个基于网络的服务对设备可用(例如用于处理的基于云的服务)并且设备具有适当的网络连通性(例如良好的可用带宽),则可以委托任务的一个或多个部分。作为另一示例,如果设备的用户通常(例如历史上)委托视频的播放,则可以委托播放视频的任务的一个或多个部分。作为另一示例,如果任务的预测处理时间(例如基于包含设备特性的先前和当前测量的模型来预测)超过特定阈值(例如几分钟),则可以委托任务。按任何适当组合的设备的任何适当特性(例如静态或动态属性)可用于确定是否委托任务。另外,设备的任务的任何适当特性(例如包括任务简档或任务的特性,包括延时敏感性、处理要求或者网络有效载荷大小)可单独地或者与设备特性相结合地用于确定是否委托任务。此外,设备(例如设备行为)的任何模型可以单独地或者与设备或任务特性相结合地用于确定是否委托任务。在特定实施例中,与设备配对的设备也可包括委托模型,使得配对设备(例如电话)执行相同步骤,基于其自己的能量、连通性、运行时要求和可行性的模型来委托任务。委托的任务可在配对设备(例如电话)上被处理或运行到完成,并且处理委托的任务的结果可被返回给设备。在特定实施例中,当设备不具有任何网络连通性或者当在设备的范围中没有配对设备时设备可在独立模式中操作(例如不委托任何处理任务)。一旦设备重获连通性,或者当一设备与该设备配对时,任务的委托就可继续开始。
设备的委托模型的示例算法在图126中图示。在此示例中,可委托任务过程在设备上开始(12610)。设备的系统执行电力使用分析和预测(12620)(例如基于用户的历史能量使用12630和直到设备充电为止的预期时间12640)。基于此,系统在步骤12650确定对于可委托任务的要求运行时间是否有充分的电量剩余。如果有充分的电量剩余,则设备的系统可增大电力使用12660并且在设备自身上处理可委托任务12670。然而,如果设备对于要求的运行时间不具有充分的电量,则设备可查询配对设备(例如电话)12680以确定配对设备的能量状态(12690)。如果在电话的示例中对于要求的运行时间在电话上有充分的电量剩余,则可在电话上处理任务12694。然而,如果在电话上没有充分的电量,则系统可在步骤12692确定设备是否具有到基于因特网的服务(例如云)或其他基于网络的服务的连通性。如果否,则设备可将该过程委托给电话12694。如果有连通性,则设备可将该过程委托给云12696,在这里任务被处理并且结果以后被返回给设备。在特定实施例中,可委托任务可被设备以划分方式委托给一个或多个配对设备(例如移动电话或个人计算机)或者网络/因特网服务。也就是说,可委托任务或过程的可委托子任务可被设备委托到不同的位置。
本公开预期特定设备(或设备的家族或范围)的委托模型可以是动态的或情境性的。作为示例,委托模型可考虑到特定设备(或者设备的家族)的可用存储器、CPU容量以及可用能量,这些因素全都可随着时间而变化。委托模型也可考虑到基于网络或基于云的服务的可用性(和每一者的容量),以及网络连通性(例如带宽和延时),它们也可随着时间而变化。例如,参考图127,根据第一委托模型12710(其例如可对在明年制造的设备适用),大多数处理可在设备与配对设备(例如智能电话)之间被平均划分,只有少量的委托到基于云的服务的服务器。根据第二委托模型12720(其例如可对在三年时间段中制造的设备适用),大多数处理可由设备在本地应对(例如由于小形态因素中的存储器、CPU和能量容量上的预测到的进步)。在此第二模型中,一些处理可被委托到服务器(例如比第一委托模型中多,这是由于改善的网络连通性)并且只有少量的委托可对本地配对的设备发生。根据第三委托模型12730(其例如可对在五年时间段中制造的设备适用),所有或几乎所有处理任务可在设备与基于云的服务的服务器之间被平均划分,而没有或几乎没有处理被委托给本地配对的设备。可以创建任何数目的委托模型,因为委托模型所考虑到的因素是动态的。作为示例,根据一个委托模型可在设备本地执行所有或几乎所有任务,而在另一委托模型中设备可委托所有或几乎所有任务。
设备可选择将功能委托给配对的处理丰富设备(例如电话、计算机、平板设备、电视、机顶盒、冰箱、洗衣机或烘干机)或者委托到因特网,该选择可基于能量储备或去到这些位置的每一者的连通带宽来作出。例如,具有强大处理器的设备可在能量低时委托给配对设备,或者其可在配对设备不具有充分电力储备时选择委托给因特网服务。类似地,如果去到因特网的连接表现出更高的延时,则设备的系统可选择在本地处理,以减小数据传送的大小。
在特定实施例中,整个应用或应用的一部分可被设备的用户委托给配对设备,反之亦然。这可按每应用发生。当目标设备(例如电视)上的应用要被委托给设备时,目标设备可通过配对连接(可能经由中间设备,比如智能电话或个人计算机)发送请求来在设备上加载该应用。设备随后可充当在配对设备(例如电视)上运行的服务器的客户端。类似地,在设备上运行的应用可被委托给配对设备(例如在设备上播放的视频可被委托到在配对电视上播放)。例如,如果设备在运行第一应用,并且设备的用户希望与第二应用交互,则设备可自动将第一应用的任务委托来由另一设备(例如配对的电视)处理。
图128图示了根据委托模型操作的设备中的决策流的示例。在此示例中,图像捕捉应用正在设备上运行。在设备上捕捉场景12810,并且设备确定12820其是否具有充分的CPU容量用于图像特征计算。如果设备具有足够的CPU容量,则其在本地计算场景中的感兴趣的特征12830。如果设备不具有充分的CPU容量,则其可首先确定12840其是否与具有更大处理能力的另一设备(例如移动电话或个人计算机)通信地配对。如果其与这样的设备配对,则设备可将数据发送到配对设备,这样配对设备可计算图像中的感兴趣的特征12850。如果设备未与这样的设备配对,则其可确定其是否连接到基于因特网的(例如云)服务12860。如果否,则设备不执行进一步动作。如果是,则设备可将数据发送到云服务,这样该服务可计算场景中的感兴趣的特征12870。可利用包括例如SURF在内的任何适当算法来计算感兴趣的特征(无论是在何处计算它们的)。在此示例中,可将感兴趣的特征与本地目录或基于因特网的服务相比较以确定是否找到任何匹配(并且如果是,则确定感兴趣的相关信息)12880。如果找到匹配12890,则可在设备上将结果呈现给用户12895。如果没找到匹配,则不采取进一步动作。
在特定实施例中,设备的相机或其他光学传感器可用于识别用户执行的任何手势(例如在相机与真实世界中的目标之间的空间中执行)。这些手势可例如用于作用于呈现的数据(例如真实世界目标,比如包括文本的标志)或者可用于指向特定项目,在这些项目上可执行增强现实功能。例如,用户可指向标志上的单词,使得设备翻译它并将翻译显示给用户。图17图示了设备的相机捕捉的图像的两个示例。在一个示例中,卡车1725和设备的用户的手1720都在设备的相机1705的视角内并且被设备显示(在1710处示出)。这样,用户在卡车上执行的手势可被设备识别并被设备处理来提供例如AR功能。在第二示例中,只有卡车在相机的视角内(在1715处示出),这样,用户执行的手势不被设备捕捉或识别。手势识别也可被设备委托。
在特定实施例中,物体或图像在其在设备的相机的视框内时可被设备识别。如本文所述,可以有多种方式供设备识别物体。作为一个示例,用户执行的手势(例如指示特定物体的指向手势)可使能设备上的AR功能并使得设备识别物体。作为另一示例,自动物体识别可在例如用户在一定量的时间中将相机定位在特定物体(例如一段文本)上时发生。作为第三示例,物体识别或AR功能可在例如用户在设备的相机捕捉了感兴趣的物体时叩击或触摸显示器(或者例如点击外环)时由用户明确使能。全局物体识别在一些情况中可能是计算密集且易于出错的。这样,在特定实施例中,可应用限制集合(例如杂志或目录的页面或者特定类型的物体的目录,例如植物叶子或者书籍封面)来提高准确度。对于从图像计算特征向量存在数种选择,设备的系统的设计者可从中作出选择。在一些情况中,在不同方案之间特征向量的转换可能是计算上昂贵的,使得可能匹配的数据库的选择被复制在设备上。如本文所述,可以委托特征向量的计算。
在特定实施例中,各种类型的条码可被设备识别。这些条码可用于查询基于因特网的服务以获得额外的数据,以及对带条码的项目进行购买、检阅或者添加书签以供将来检阅的选项。虽然二维条码一般可被直接读取,但设备的系统可对特别小的或者一维的条码提供额外的近对焦模式以提高识别率。如果系统缺乏对条码解码的能力,则其可简单地将相机对焦,拍摄图片,并且将识别委托给远程服务,如本文所述。图129A-图129D图示了条码识别模式的示例。设备可被指向一项目(129A),识别该项目(129B),显示从因特网获得的关于该项目的额外信息(129C),并且向用户提供界面来购买该项目(129D)。
在特定实施例中,设备可执行翻译。翻译功能可被划分成两个部分:光学字符识别(optical character recognition,OCR),以及所识别的字符、单词或短语的翻译。OCR可在设备上完成或者被委托(例如委托给配对的处理设备)以减少设备要翻译的数据量。简单单词翻译可在设备上执行或者被委托(例如委托给配对的处理设备)。与本文描述的其他功能一样,识别或翻译过程的一部分或全部可根据需要被委托。用户可以可选地使用手势来指示要翻译的单词,如图130中所示(例如单词“警告”)。由于个体单词可被白空间包围,所以系统在尝试翻译之前可分割单词。此外,如果设备能够以低延时执行OCR,则其可向用户示出文本,以便用户知道设备何时正瞄准并正确地识别正确的文本。如果自动OCR被使能,则设备可自动地识别外向相机的视角中的图像并且在设备上呈现关于所识别的图像的显示信息。如果自动翻译被使能,则设备可自动地翻译外向相机的视角中的文本并且在设备显示器上呈现翻译的文本。
图131A-图131D图示了在本文描述的各种增强现实模式中操作的设备的示例,包括条码识别模式(131A)、图像识别模式(131B)、OCR和翻译模式(131C)和物体识别模式(131D)。
图132图示了设备的增强现实系统的动作的整体流程的示例。虽然此示例图示了图像捕捉应用,但设备上的任何适当任务或过程可遵循类似的流程。此外,在设备捕捉图像之后和设备向用户显示结果之前的任何任务可以(在适当时)是设备可委托的。在此示例中,来自设备的相机的图像被捕捉(在图像捕捉片段13210中),被预处理(在片段13220中),特征被提取并识别以产生图像识别结果(在片段13230中),并且任何物体可被识别(在片段13240中)。物体数据可针对设备的用户作出的动作被格式化。用户可激活设备的增强现实模式13211(例如经由用户手势或将设备的相机指向物体达预定量的时间),并且相机的视野中的图像13212可被设备相机13213捕捉(例如基于诸如用户输入或自动相机激活之类的触发事件)以产生相机图像13214。此时,可进入预处理阶段13220。预处理13220可例如包括对比度增强、灰度级转换、锐化或下采样。在特定实施例中,相机可在一般增强现实模式中操作,在该模式中相机前方的任何东西都可被处理和识别。在其他实施例中,相机可在特定模式中操作(例如,OCR、条码或视觉标记)并且在处于这种模式中时只识别特定项目。在特定实施例中,如果确定图像可包括已知形状、符号或者形状或符号的组织(例如如果相机或设备处于OCR模式、条码模式或视觉标记模式中),则AR图像处理可在第一路径上进行。此第一路径开始于初步处理13221,进行到分割13231(其可例如确定符号或符号组边界,比如字母或单词),并且从以下各项中的一个或多个开始:光学字符识别13234(例如如果确定图像可包含字符,则确定这些字符是什么),条码识别13235(例如如果确定图像可包含条码,则识别条码),或者视觉标记识别(例如识别其他类型的视觉标记)13236(例如对于所有其他类型的视觉标记)。此第一路径的结果被发送到物体识别器13242。在特定实施例中,如果确定图像可包括不一定已知的特征,则AR图像处理可在第二路径上进行。第二路径开始于特征提取13222(例如其中在捕捉的图像中检测边缘或线条的存在、线条的角度的变化、边缘、感兴趣的点或者模式)。第二路径进行到图像识别13232,在其中将图像的特征与来自识别数据库13233(其可例如存在于设备上、存在于本地配对的设备上或者存在于远程服务器或计算机上)的特征数据相比较。图像识别比较的结果被提供13237并发送到物体识别器13242。在物体识别片段13240中,第一和第二路径在物体识别器13242处会聚。这里,来自物体数据库13241的结果被用于识别物体(例如利用图像识别数据库13233识别的电话是特定品牌和型号的电话)。可提供关于识别器13242识别的物体的物体数据13243(例如识别的该电话型号的价格,或者在何处可购买到该电话)。对于文本,可以有定义或翻译出现并被显示给用户。对于条码,可以有产品信息和购买识别出的物体的链接被显示给用户。在特定实施例中,数据可以是纯描述性的(例如电话的价格)或者可以是主动性的(例如用户可购买电话之处的链接)。如果数据包括动作数据13244,则动作控制器13250(其控制、格式化并为设备的用户输出GUI)可向用户示出包括主动数据(例如用于购买电话的链接)的UI 13255。如果用户选择了动作13260(例如点击链接),则动作控制器向用户示出动作UI 13265(例如链接的打开),并且如果动作被确认13270,则该动作(例如与该链接相关联的网页的实际打开)被执行13275。
图133图示了网络环境的示例。如本文所述,在特定实施例中,设备13310可与其他设备(例如附近设备)配对。设备可直接连接到个人区域网13320(其可经由同一网络上的其他设备桥接到局域网),或者设备可直接连接到局域网13330。个人区域网可包括例如非WI-FI无线电技术,比如蓝牙、NFC或ZIGBEE。个人区域网可例如包括智能媒体网关13322(例如媒体服务器)、智能TV 13324、另一处理提供者13326或者电话13328。电话13328可允许设备连接到蜂窝网络13340,并且从该处连接到因特网13350。局域网13330可包括例如具有或不具有认证的WI-FI。局域网可例如包括本地无线网络路由器13332、智能媒体设备13334、智能家电13336和家庭自动化技术13338。局域网进而可经由例如本地路由器13332连接到全球因特网13350,该本地路由器连接到因特网服务(例如专有云服务13352或其他云服务伙伴13354)。一些设备可被该设备经由直接接入(例如通过个人区域网)或通过局域网到达。设备可到达的这些设备可与该设备配对并且可被该设备控制或控制该设备。设备可利用例如任何适当的RF技术连接到个人区域网或局域网。如图133中所示,配对到周围的目标设备可首先在RF网络上发生。这允许设备知道什么在“附近”。这可在个人区域网上发生(例如自组织网络或对等网络)或者可使用诸如802.11无线之类的中介式网络(例如局域网)。一旦建立了邻居关系,设备就可请求附近设备进入配对模式。这可直接进行或者经由诸如移动电话之类的具有更大范围的连通性选项的配对处理设备进行。一旦目标设备进入了配对模式,它们就可展示其配对信号。例如,具有显示器的设备可在其显示器上示出视觉标签,而其他的可使能NFC标签,以允许扫描器识别它们。也可使用其他方案,例如从列表中选择或者按个人身份识别码。一旦设备被唯一地识别为配对目标,设备就可与目标设备交换安全性令牌以完成配对。
图134图示了可用于将目标设备与设备配对的不同类型的配对技术的示例。目标设备——其可以是诸如电话之类的智能设备——可包括被动式NFC标签13402或主动式NFC发送器13404(其可被设备的NFC标签读取器13420和NFC解码器13428识别);NFC解码器13406(其可识别设备的NFC标签写入器13422写入的NFC标签),被动式视觉标签13408(例如贴纸),条码13410,或者其他显示信息13412(其可被设备的相机13424识别);或者其他配对系统13416。目标设备的主动式标签生成器13414可创建显示信息13412或者将信息提供给目标设备的其他配对系统13416(其被镜像配对系统13426利用设备的配对码解码器13438识别)。设备可将数据写入到NFC标签(例如利用NFC标签写入器13422)以将此数据发送到可与设备配对的其他目标设备。设备写入的标签可被目标设备上的NFC标签解码器13406识别。设备可包括多种解码器中的任何一种,包括条码解码器13430、视觉标签解码器13432、图像识别器13434或者其他基于图像的解码器13436(例如用于OR码、徽标或LED的闪烁模式的解码器),所有这些都从设备的相机13424取得输入。在设备接收并识别配对信息之后,其可对相关信息解码(例如通过各种解码器)以着手与目标设备配对。在特定实施例中,配对可利用运动实现——运动敏感目标设备(例如移动电话或遥控器)可通过在与设备相同的手中握持并移动目标设备来与设备配对(例如如果两个设备都包括加速度计,则相似的运动模式可被检测到并用于将设备配对)。作为另一示例,固定的目标设备可通过例如在将该固定目标设备握持在与设备相同的手中的同时以随机模式叩击该固定目标设备来与设备配对(例如如果两个设备都包括触摸检测,则相似的叩击图案可被检测到并用于将设备配对)。此外,配对可利用音频进行——如果设备和目标设备都具有音频接收能力,则用户可发出声音(例如说出短语),两个设备都检测到该声音并设置配对。设备的任何适当的技术(包括例如增强现实功能)都可用于与本地设备配对并控制本地设备。设备和目标设备可各自连接到其他可能的中间网络设备13440,并且也连接到局域网13450。
图135图示了用于将目标设备与设备配对的示例过程(例如利用本文描述的方法中的任何一种)。一旦配对模式被使能13510,设备就确定RF网络是否包含可配对的目标设备13512。如果否,则不采取进一步动作(例如设备可继续周期性地扫描)。如果是,则设备可请求可配对设备进入配对模式13514。设备随后可(按任何顺序,或者以并行方式)进行到经由不同的可用技术扫描可用目标设备。这些可包括NFC标签扫描13516、相机的视角中的视觉标签扫描13518、相机的视角中的条码扫描13520或者任何其他的方法13522。如果经由这些方法之一检测到目标设备,则将目标设备与设备配对13524。一旦配对已发生,设备就可向用户示出用于控制(一个或多个)配对设备的菜单项。设备可允许对配对设备的视觉手势控制和基于运动的手势控制。例如,用户可作出手势(例如挥动她的手)以改变配对的电视上的频道,或者可作出捏撮手势以将视频媒体从设备传送到配对的显示器(例如利用AR功能)。经由RF网络中介的设备控制可以既是本地的又是可保证安全的。图136图示了在设备上对于配对且受控制的电视使能的示例控件,包括主动开/关图标13610,收藏频道13620、当前频道显示13630和音量13640。如本文所述,来自用户的任何适当的输入可用于控制配对设备的功能。例如,手势输入、点击或按压输入或者触摸输入可用于例如改变频道、调整音量或者控制配对电视的其他功能。
在特定实施例中,用于设备的配对和控制模型可包括以下特性。设备可充当一应用的主机,该应用与远程设备(例如智慧配件,比如可控制的恒温器)交互或者控制远程设备的一个或多个功能。先前可能是该应用的主机的智能电话(或其他本地配对的设备)现在可以仅充当本地目标设备,设备可将与远程设备的交互或控制有关的某些功能委托给该目标设备(例如去到远程设备的更长距离无线连通性、向远程设备发送命令、从远程设备接收数据或者处理任务)。对远程智慧配件设备的控制可由设备利用任何适当的手段进行,例如包括视觉手段(例如使用相机)或基于运动的手势。在其他实施例中,本地配对的智能电话可继续充当与远程智慧配件交互的应用的主机,但设备可提供一些或全部用户界面来用于去到和来自应用的数据输入和输出(例如智能电话容宿的应用的“轻”版本)。例如,用户可利用设备控制应用,但智能电话可仍充当应用的主机。
在特定实施例中,设备可结合一个或多个服务操作。这些服务可属于包括安全性、能量、家庭自动化和控制、内容共享、保健、体育和娱乐、商务、车辆和社交应用在内的类别。
示例安全性应用包括以下的。设备可向用户附近的另一设备(例如与设备配对的另一设备)认证用户(穿戴着解锁的设备的用户)。可通过由用户利用包括例如旋转设备的外环在内的任何适当输入来输入的代码来解锁设备。作为示例,在用户旋转(或者按压或点击)外环的同时,显示器可示出与用户作出的旋转(或者按压或点击)相对应的字母数字或符号数据。例如,如果用户在顺时针方向上将外环旋转一个旋转增量(或者例如点击或按压外环一次),则显示器可向用户示出“1”,并且如果用户在顺时针方向上将外环旋转两个旋转增量(例如在一定时间段内,比如一毫秒)(或者例如点击或按压外环两次),则显示器可向用户示出“2”。在特定实施例中,与用户作出的旋转(或者按压或点击)相对应的字母数字或符号数据的显示可允许用户利用暗码锁的比喻来解锁设备。也可利用生物计量数据(例如通过用户的皮肤或骨骼签名)来解锁设备。
在示例能量应用中,设备可自动显示关于房间或者用户所位于的其他位置的能量消耗的信息。设备也可能够显示关于其他配对设备的能量消耗的信息并且随着用户改变位置而动态地更新所有此信息。
在示例家庭控制应用中,用户可利用例如外环的旋转或者手势输入来选择并直接控制配对的家庭控制设备。
用户可使用手势来控制去到或来自设备的内容的共享或传送(例如将在设备上播放的视频传送到配对的电视,如本文所述)。此外,在设备上可为在另一更大设备上示出的内容(例如播放电影的电视屏幕)提供辅助信息(例如电影字幕)。
设备可自动确定保健情境(例如用户是否在锻炼或睡眠)。当其确定此情境时,设备可打开与保健情境相对应的应用(例如用于记录锻炼期间的心率、锻炼期间的运动、锻炼的持续时间、锻炼期间的脉搏血氧、睡眠模式、睡眠的持续时间或者皮肤电反应)。设备可例如测量用户的健康相关数据(例如心率、运动或脉搏血氧)并将此数据的一些或全部发送到配对设备或服务器。虽然是在保健情境中例示的,但相关情境的确定(例如基于用户的行为)、相应应用的打开、数据的记录或者此数据的发送可在任何适当情境中适用。
设备可辅助体育相关应用,例如自动评估用户的高尔夫挥杆并且建议纠正。
在商业设定中,设备可在用户拾起产品时自动识别产品(例如利用RFID、NFC、条码识别或者物体识别)并且可提供关于该产品的信息(例如营养信息、来源信息或者评论)或者购买该产品的选项。对产品的支付可例如利用设备上的视觉条码技术来完成。在特定实施例中,设备可用于利用NFC、RFID或短距离通信的任何其他适当形式来为产品支付。在支付期间,用户的信息可例如被设备认证,设备可检测用户的生物计量信息(例如骨骼结构或皮肤签名)。设备也可在用户靠近其购物列表(例如存储在设备上)或者另一列表(例如用户的朋友的愿望列表)上的产品时自动向用户提供指示(例如振动)。
设备可充当用于解锁或开启一个或多个车辆的钥匙。用户可例如利用外环输入代码以解锁或开启车辆(例如利用NFC技术),如早前所述。在特定实施例中,解锁车辆可要求用户生物计量信息和用户输入的代码两者,实现基于车辆的应用的增强的安全性。此外,设备可包括一个或多个用户的简档,每个简档包含车辆设定(例如温度或座位位置)。作为另一示例,特定用户的生物计量信息不仅可用于解锁设备,而且可用于确定在车辆的操作期间加载哪个用户简档。设备与车辆的邻近可自动使得车辆实现用户的简档的车辆设定。设备也可操作用于GPS导航(或者直接在设备上,或者例如当与电话配对并控制电话时)。
设备可访问对混合现实游戏或者大型多玩家的基于现实的游戏提供支持的服务并与该服务联合操作。此功能可例如包括注册、用户数据的管理(例如用户简档和游戏相关数据,比如完成的级别或者用品的库存)以及成就列表的管理。设备和服务的功能也可包括连通性的管理(例如集线器功能),其处理脆弱的无线通信信道并向第三方游戏服务器提供统一API。
设备可访问如下服务并与该服务联合操作:该服务允许设备的用户发表位置、签到或者其他基于位置的数据,这些数据允许各种服务访问关于用户的位置和状态的最当前信息的一致仓库。作为示例,设备的用户可利用相似的设备找到朋友。服务和设备一起可处理状态更新、简档管理、应用访问许可、黑名单或者用户到用户访问许可。该服务可以是私密数据的可信且集中的触点。通过组合对统一位置服务的访问,在特定实施例中可节约能量和电池寿命。在特定实施例中,可基于用户的位置使某些功能令牌可用。应用可例如在设备上检查以查明此令牌是否可用并相应地动作。在服务器侧,API可允许开发者看到对令牌的使用或者允许赎回。在特定实施例中,信息可被设备分发到其他用户(例如分发到单个其他用户,或者以广播模式分发到多个用户)。
设备可访问提供允许设备接收并发送轮询的统一轮询接口的服务并与该服务联合操作。设备和服务一起可管理分发列表、记分标准和轮询可用性框架(例如,既是时间上的也是地理上的)。此服务可在设备上以及在服务器上被暴露以使得第三方可使用API来写应用并且经由在线API接收返回的结果。
在特定实施例中,设备可访问对于设备的圆形显示器上的文本、图像或其他信息的呈现提供优化的服务并与该服务联合操作。作为示例,网站可被渲染或格式化以用于在计算机监视器上显示,但服务可以通过强调图像并截短文本来为更小的圆形显示器定制渲染和格式化。定制的渲染和格式化可例如是在设备和一个或多个服务器或本地配对设备之间可委托的任务。此服务也可包括新闻或广告服务。
图137图示了示例计算机系统13700。在特定实施例中,一个或多个计算机系统13700执行本文描述或图示的一个或多个方法的一个或多个步骤。在特定实施例中,一个或多个计算机系统13700提供本文描述或图示的功能。在特定实施例中,在一个或多个计算机系统13700上运行的软件执行本文描述或图示的一个或多个方法的一个或多个步骤或者提供本文描述或图示的功能。特定实施例包括一个或多个计算机系统13700的一个或多个部分。这里,在适当时,提到计算机系统可涵盖计算设备,反之亦然。另外,在适当时,提到计算机系统可涵盖一个或多个计算机系统。
本公开预期计算机系统13700的任何适当数目。本公开预期计算机系统13700采取任何适当的物理形式。作为示例而不是限制,计算机系统13700可以是嵌入式计算机系统、片上系统(system-on-chip,SOC)、单板计算机系统(single-board computer system,SBC)(例如模块上计算机(computer-on-module,COM)或模块上系统(system-on-module,SOM))、桌面计算机系统、膝上或笔记本计算机系统、交互式数字亭、大型机、计算机系统的网格、移动电话、个人数字助理(personal digital assistant,PDA)、服务器、平板计算机系统或者这些之中的两个或更多个的组合。在适当时,计算机系统13700可包括一个或多个计算机系统13700;可以是一元化的或者分布式的;跨越多个位置;跨越多个机器;跨越多个数据中心;或者存在于云中,该云可包括一个或多个网络中的一个或多个云组件。在适当时,一个或多个计算机系统13700可在没有实质性的空间或时间限制的情况下执行本文描述或图示的一个或多个方法的一个或多个步骤。作为示例而不是限制,一个或多个计算机系统13700可以实时地或者以分批模式执行本文描述或图示的一个或多个方法的一个或多个步骤。在适当时,一个或多个计算机系统13700可在不同的时间或者在不同的位置执行本文描述或图示的一个或多个方法的一个或多个步骤。
在特定实施例中,计算机系统13700包括处理器13702、存储器13704、存储装置13706、输入/输出(input/output,I/O)接口13708、通信接口13710和总线13712。虽然本公开描述和图示了具有按特定布置的特定数目的特定组件的特定计算机系统,但本公开预期具有按任何适当布置的任何适当数目的任何适当组件的任何适当的计算机系统。
在特定实施例中,处理器13702包括用于执行指令的硬件,例如构成计算机程序的那些指令。作为示例而非限制,为了执行指令,处理器13702可从内部寄存器、内部缓存、存储器13704或存储装置13706取回(或取得)指令;解码并执行它们;然后将一个或多个结果写入到内部寄存器、内部缓存、存储器13704或存储装置13706。在特定实施例中,处理器13702可包括用于数据、指令或地址的一个或多个内部缓存。本公开预期处理器13702在适当时包括任何适当数目的任何适当的内部缓存。作为示例而非限制,处理器13702可包括一个或多个指令缓存、一个或多个数据缓存以及一个或多个转化后备缓冲器(translationlookaside buffer,TLB)。指令缓存中的指令可以是存储器13704或存储装置13706中的指令的拷贝,并且指令缓存可加速处理器13702对这些指令的取回。数据缓存中的数据可以是存储器13704或存储装置13706中的数据的拷贝,供在处理器13702处执行的指令对其进行操作;在处理器13702处执行的先前指令的结果,供在处理器13702处执行的后续指令访问或者供写入到存储器13704或存储装置13706;或者其他适当的数据。数据缓存可加速处理器13702的读取或写入操作。TLB可以为处理器13702加速虚拟地址转化。在特定实施例中,处理器13702可包括用于数据、指令或地址的一个或多个内部寄存器。本公开预期处理器13702在适当时包括任何适当数目的任何适当的内部寄存器。在适当时,处理器13702可包括一个或多个算术逻辑单元(arithmetic logic unit,ALU);可以是多核处理器;或者可包括一个或多个处理器13702。虽然本公开描述和图示了特定处理器,但本公开预期任何适当的处理器。
在特定实施例中,存储器13704包括用于存储供处理器13702执行的指令或者供处理器13702操作的数据的主存储器。作为示例而非限制,计算机系统13700可从存储装置13706或另一来源(例如另一计算机系统13700)加载指令到存储器13704。处理器13702随后可将指令从存储器13704加载到内部寄存器或内部缓存。为了执行指令,处理器13702可从内部寄存器或内部缓存取回指令并对它们解码。在指令的执行期间或者之后,处理器13702可将一个或多个结果(其可以是中间或最终结果)写入到内部寄存器或内部缓存。处理器13702随后可将这些结果中的一个或多个写入到存储器13704。在特定实施例中,处理器13702只执行一个或多个内部寄存器或内部缓存中或者存储器13704中的指令(而不是存储装置13706或别处的)并且只对一个或多个内部寄存器或内部缓存中或存储器13704中的数据操作(而不是存储装置13706或别处的)。一个或多个存储器总线(其中每一者可包括地址总线和数据总线)可将处理器13702耦合到存储器13704。总线13712可包括一个或多个存储器总线,如下文所述。在特定实施例中,一个或多个存储器管理单元(memory managementunit,MMU)存在于处理器13702与存储器13704之间并且方便由处理器13702请求的对存储器13704的访问。在特定实施例中,存储器13704包括随机访问存储器(random accessmemory,RAM)。此RAM在适当时可以是易失性存储器,并且此RAM在适当时可以是动态RAM(dynamic RAM,DRAM)或者静态RAM(static RAM,SRAM)。另外,在适当时,此RAM可以是单端口或多端口RAM。本公开预期任何适当的RAM。在适当时,存储器13704可包括一个或多个存储器13704。虽然本公开描述和图示了特定存储器,但本公开预期任何适当的存储器。
在特定实施例中,存储装置13706包括用于数据或指令的大容量存储装置。作为示例而非限制,存储装置13706可包括硬盘驱动器(hard disk drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或者通用串行总线(Universal Serial Bus,USB)驱动器或者这些之中的两者或更多者的组合。在适当时,存储装置13706可包括可移除或不可移除的(或固定的)介质。在适当时,存储装置13706可以在计算机系统13700内部或外部。在特定实施例中,存储装置13706是非易失性固态存储器。在特定实施例中,存储装置13706包括只读存储器(read-only memory,ROM)。在适当时,此ROM可以是掩模编程ROM、可编程ROM(programmableROM,PROM)、可擦除PROM(erasable PROM,EPROM)、电可擦除PROM(electrically erasablePROM,EEPROM)、电可更改ROM(electrically alterable ROM,EAROM)或者闪存或者这些之中的两者或更多者的组合。本公开预期大容量存储装置13706采取任何适当的物理形式。在适当时,存储装置13706可包括促进处理器13702与存储装置13706之间的通信的一个或多个存储控制单元。在适当时,存储装置13706可包括一个或多个存储装置13706。虽然本公开描述和图示了特定的存储装置,但本公开预期任何适当的存储装置。
在特定实施例中,I/O接口13708包括为计算机系统13700与一个或多个I/O设备之间的通信提供一个或多个接口的硬件、软件或者这两者。在适当时,计算机系统13700可包括这些I/O设备中的一个或多个。这些I/O设备中的一个或多个可使能人与计算机系统13700之间的通信。作为示例而非限制,I/O设备可包括键盘、小键盘、麦克风、监视器、鼠标、打印机、扫描仪、扬声器、静态相机、触控笔、平板设备、触摸屏、轨迹球、视频相机、另一适当的I/O设备或者这些之中的两者或更多者的组合。I/O设备可包括一个或多个传感器。本公开预期任何适当的I/O设备和用于它们的任何适当的I/O接口13708。在适当时,I/O接口13708可包括一个或多个设备或软件驱动器,使得处理器13702能够驱动这些I/O设备中的一个或多个。在适当时,I/O接口13708可包括一个或多个I/O接口13708。虽然本公开描述和图示了特定的I/O接口,但本公开预期任何适当的I/O接口。
在特定实施例中,通信接口13710包括为计算机系统13700与一个或多个其他计算机系统13700或一个或多个网络之间的通信(例如基于封包的通信)提供一个或多个接口的硬件、软件或者这两者。作为示例而非限制,通信接口13710可包括网络接口控制器(network interface controller,NIC)或者网络适配器,用于与以太网或其他基于线路的网络通信,或者无线NIC(wireless NIC,WNIC)或无线适配器,用于与诸如WI-FI网络之类的无线网络通信。本公开预期任何适当的网络和用于它的任何适当的通信接口13710。作为示例而非限制,计算机系统13700可与自组织网络、个人区域网(personal area network,PAN)、局域网(local area network,LAN)、广域网(wide area network,WAN)、城域网(metropolitan area network,MAN)、体域网(body area network,BAN)或者因特网的一个或多个部分或者这些之中的两者或更多者的组合通信。这些网络中的一者或多者的一个或多个部分可以是有线或无线的。作为示例,计算机系统13700可与无线PAN(wireless PAN,WPAN)(例如蓝牙WPAN)、WI-FI网络、WI-MAX网络、蜂窝电话网络(例如全球移动通信系统(Global System for Mobile Communications,GSM)网络)或者其他适当的无线网络或者这些之中的两者或更多者的组合通信。在适当时,计算机系统13700可包括用于这些网络中的任何一者的任何适当的通信接口13710。在适当时,通信接口13710可包括一个或多个通信接口13710。虽然本公开描述和图示了特定的通信接口,但本公开预期任何适当的通信接口。
在特定实施例中,总线13712包括将计算机系统13700的组件耦合到彼此的硬件、软件或者这两者。作为示例而非限制,总线13712可包括加速图形端口(AcceleratedGraphics Port,AGP)或其他图形总线、增强工业标准体系结构(Enhanced IndustryStandard Architecture,EISA)总线、前端总线(front-side bus,FSB)、超传输(HYPERTRANSPORT,HT)互连、工业标准体系结构(Industry Standard Architecture,ISA)总线、INFINIBAND互连、低引脚数(low-pin-count,LPC)总线、存储器总线、微通道体系结构(Micro Channel Architecture,MCA)总线、外围组件互连(Peripheral ComponentInterconnect,PCI)总线、快速PCI(PCI-Express,PCIe)总线、串行先进技术附接(serialadvanced technology attachment,SATA)总线、视频电子标准协会本地(VideoElectronics Standards Association local,VLB)总线,或者其他适当的总线或者这些之中的两者或更多者的组合。在适当时,总线13712可包括一个或多个总线13712。虽然本公开描述和图示了特定总线,但本公开预期任何适当的总线或互连。
这里,在适当时,一个或多个计算机可读非暂态存储介质可包括一个或多个基于半导体的或其他集成电路(integrated circuit,IC)(例如现场可编程门阵列(field-programmable gate array,FPGA)或专用IC(application-specific IC,ASIC))、硬盘驱动器(hard disk drive,HDD)、混合硬盘驱动器(hybrid hard drive,HHD)、光盘、光盘驱动器(optical disc drive,ODD)、磁光盘、磁光驱动器、软盘、软盘驱动器(floppy disk drive,FDD)、磁带、固态驱动器(solid-state drive,SSD)、RAM驱动器、安全数字卡或驱动器、任何其他适当的计算机可读非暂态存储介质,或者这些之中的两者或更多者的任何适当的组合。在适当时,计算机可读非暂态存储介质可以是易失性的、非易失性的或者易失性和非易失性的组合。
在特定实施例中,显示器可支持用户输入,例如文本、符号或者上述的任何适当组合的输入。例如,文本和符号可包括字母数字字符,比如字母、单词、数值符号、标点等等;语素文字,比如中文字符、日文字符等等;用于在视觉上传达含义的任何符号、字符或者符号或字符的组合,比如一种或多种语言的单词或语法,或者上述的任何适当组合。下面的公开将上述示例的一些或全部称为“文本”,除非另外指出。
在特定实施例中,可在相对较小的电子显示器上输入文本,其中相对较小的电子显示器例如是移动或可穿戴设备上的显示器,比如本文更充分描述的可穿戴电子设备上的显示器。本公开设想了被输入到任何适当的显示器上的文本,所述显示器包括任何适当的小显示器,例如钥匙链大小的屏幕、手表大小的屏幕、数字相机屏幕、小规模电视屏幕、小规模平板屏幕以及任何其他类型的包括屏幕的数字小规模设备。本公开预期任何适当形状的屏幕,例如方形屏幕、矩形屏幕、圆形屏幕、椭圆形屏幕或者任何其他适当形状。在特定实施例中,显示器上的文本输入可包括与显示器的交互,例如利用用户的手指或者诸如触控笔之类的工具。在特定实施例中,显示器上的文本输入可包括与显示器是其一部分的设备的非显示部分的交互,例如与电子可穿戴设备的可旋转元件的交互,这在本文中将更充分描述。在特定实施例中,文本输入可包括与设备的任何适当元件的交互或者对设备的任何适当元件的激活,所述元件例如是麦克风、加速度计、陀螺仪、光学传感器或者任何其他适当的元件。本公开预期利用任何适当手段在任何适当设备的任何适当显示器上的文本输入,包括与设备的任何适当元件的交互或者对设备的任何适当元件的激活。
在特定实施例中,文本输入可包括由以下各项的一者或两者进行输入:用户的(一只或两只)手的一部分,例如一根或多根手指,或者用户握持的附加工具,例如笔或触控笔。在特定实施例中,文本输入可使用预测性方法来基于情境,例如基于用户已经输入的字符或者基于显示器上显示的内容,来建议或选择一个或多个字符、单词或者其组合。在特定实施例中,可在现有视觉内容之上输入文本,从而使得显示器——例如小显示器——的至少一部分能够在从用户接受输入的同时提供视觉反馈。如本文更充分描述的,文本输入可用于创建特殊字符、数字、符号和空格或换行符;删除字符;或者在字母之间切换,例如在大写字母和小写字母之间切换。
图138A图示了具有示例圆形显示器13802的示例设备,该圆形显示器13802包含用于输入文本的显示部分、用于显示输入的文本的部分和用于显示可用于输入的文本的部分。在图138A的示例中,可用文本包括围绕显示器13802的外边缘以圆形方式布置的字符集合13804。虽然图138A的示例中的字符集合13804包括英语字母表的大写字母,但本公开预期字符集合13804可以是任何适当的文本,包括字符、字母、数字、符号或者上述的任何组合。图139D-F显示了可在显示器上,例如在图139E的圆形显示器13904的外部部分上显示的可用于输入的文本的示例。如图139A中所示以及如本文更充分描述的,显示器可包括环绕显示器的可旋转元件,例如示例可旋转元件13906,其可用于促进文本输入。
图138A的显示器13802包括显示的文本,例如“Hello.It was”。光标出现在“Hello”的“ll”之后。光标可用于指示当前文本交互位置,以例如输入文本、删除文本等等。在特定实施例中,文本输入可包括与显示器13802交互以生成空格。在特定实施例中,挥扫手势、叩击手势或者其任何适当组合可用于生成空格。例如,用户可将一根或多根手指放置在图138B的触摸位置13806并且向左挥扫以生成空格。空格可在光标的位置生成或者在最接近触摸位置13806的文本的位置生成。作为另一示例,用户可将一根或多根手指放置在图138C的触摸位置13808并且向右挥扫以生成空格。本公开预期用户可在任何适当方向上挥扫,例如向上或向下挥扫,以生成空格。在特定实施例中,用户可通过在显示器13802上叩击来输入空格。例如,用户可用一根手指在图138D的触摸位置13810上或其附近叩击。用户可在触摸位置13810上或其附近叩击任何适当次数,例如一次或两次,以生成空格。在特定实施例中,用户可在触摸位置触摸并保持预定量的时间以输入空格。在特定实施例中,用户可通过基本上同时触摸显示器13802上的两个位置,例如图138E的位置13812,来输入空格。用户可在这些位置上或其附近触摸任何适当次数,例如一次或两次,以输入空格。在特定实施例中,如图138D和138E中所示,输入空格的触摸位置可在显示的文本上或其附近。然而,触摸位置可在显示器的任何适当部分上。虽然本公开描述了输入空格的文本输入的示例方法,但本公开预期这些方法可用于输入任何适当的字符。另外,本公开预期这些方法的任何一者可用于删除一个或多个字符、单词或者单词的部分。例如,这些方法的任何一者可用于删除最后输入的字符或单词,或者光标左侧或右侧的字符。在特定实施例中,删除字符或单词的文本输入可发生在显示的文本的一部分上,例如通过从图138B的触摸位置13806向左挥扫。在特定实施例中,可旋转元件可用于选择文本来在文本输入或删除中添加。例如,设备可包括环绕显示器的可旋转环,例如图139A所示的环13906。在任何适当方向上旋转该环可选择一个或多个字符。例如,当光标如图139A中显示那样定位时,用户可逆时针旋转环13906以选择单词“Heljo”,如图139B中所示。用户随后可利用任何适当的方法,例如从图139C的触摸位置13908向右挥扫,来删除选择的文本。
以上描述的方法的任何一者可用于输入符号,例如标点符号,比如句号。这些方法也可用于适当地在可用于输入的文本的类型之间转变显示器。例如,用户可在显示器上叩击或挥扫或者可以旋转可旋转元件以在图139D-F的显示器之间转变显示器。就像输入或删除任何类型的文本那样,本公开预期可用于显示的文本之间的转变可由任何适当的手势完成,例如通过一次或两次叩击、挥扫、捏撮(例如,用两根或更多根手指捏拢或拉开)或者上述的任何适当组合。
在特定实施例中,用户可通过任何适当的手势选择光标位置,例如通过叩击显示器上用户希望光标出现的显示文本的位置。
在特定实施例中,随着用户输入文本,显示器可显示一个或多个建议的字符、单词或者单词的部分。例如,图140A的显示器14002在条带14008中图示了建议的文本。用户可通过任何适当的方法,例如通过旋转可旋转元件14006,通过在该条带(或者显示器的任何其他适当部分)上向左、向右、向上或向下挥扫;通过在显示器上执行任何适当的手势或组合;或者通过上述的任何适当组合,来在建议的文本之间切换,例如在条带14008中显示的单词之间切换。例如,用户可使用可旋转元件14006在显示的建议之间导航并且可使用触摸功能来为文本输入选择一个或多个字符14004。在特定实施例中,条带14008可包括突出的部分,其指示出如果用户选择该建议,例如通过在突出的部分上执行手势,则将会输入的建议的文本。在特定实施例中,用户可从右向左或从左向右挥扫以在不同的建议文本选项之间切换。在特定实施例中,用户可从左向右挥扫以添加空格字符,从右向左挥扫以删除最后输入的字符,并且从上到下或从下到上挥扫以在不同的建议文本选项之间切换。在特定实施例中,用户可从右向左挥扫以添加空格字符;从左向右挥扫以删除最后字符,并且从下到上或从上到下执行两指挥扫以在不同的建议文本选项之间切换。在特定实施例中,用户可从右向左或从左向右挥扫以在不同的建议文本选项之间切换,可向右旋转可旋转元件添加空格字符,并且可向左旋转可旋转元件以删除最后输入的字符。
在特定实施例中,文本输入可包括由以下各项的一者或两者进行手写输入:用户的(一只或两只)手的一部分,例如一根或多根手指,或者用户握持的附加工具,例如笔或触控笔。在特定实施例中,手写输入可使用预测性方法来基于情境,例如基于用户已经输入的字符或者基于显示器上显示的内容,来建议或选择一个或多个字符、单词或者其组合。在特定实施例中,可在现有视觉内容之上输入手写文本,从而使得显示器——例如小显示器——的至少一部分能够在从用户接受输入的同时提供视觉反馈。如本文更充分描述的,手写文本输入可用于创建特殊字符、空格或换行符,删除字符,在字母、数字或符号之间切换,例如在大写字母和小写字母之间切换。在特定实施例中,手写输入可包括由设备的传感器捕捉的手势,例如由触摸敏感显示器、由光学传感器、由运动传感器或者由任何其他适当的传感器或传感器的组合捕捉的手势。
图141A图示了包含手写输入部分14106和输入文本部分14104的示例显示器14102。对于此实施例和对于本文描述的其他实施例,本公开预期部分14104和14106可至少部分重叠。在特定实施例中,部分14106可包括显示器14102的显示内容的一部分,从而利用更多屏幕空间。例如,部分14106可在键盘或者可通过对字符的选择来输入的字符的其他显示之上。从而,用户可决定选择文本或描绘文本来输入文本。本公开预期部分14102和部分14106可采取任何适当的形状和大小,这些形状和大小可基于显示器的形状和大小。例如,部分14104和14106当在圆形显示器上呈现是可以是圆圈的部分。在图141A的示例中,当用户的手指在设备的显示表面上描绘每个字母时,可在屏幕上输入文本。附加的特征可帮助用户更迅速地输入文本。显示器14102的上部的显示部分14104示出了正输入或已输入的文本。图141A的示例随着用户正完成在部分14106上描绘的“M”在输入部分14104中图示了“M”。本公开预期用户可利用任何适当的手写输入来输入文本。例如,虽然图141A图示了用户描绘“M”以生成字符“M”,但用户可例如在部分14106上向右挥扫以生成空格。
在特定实施例中,文本预测可用于辅助文本输入。例如,图141B图示了在显示器的部分14108中建议的文本。在部分14108中建议的单词是基于用户在部分14106中的文本输入的。用户可在部分14108中建议的文本之间导航,例如通过在部分14108上挥扫,来访问额外的建议。本公开预期部分14108可采取任何适当的大小和形状,这取决于显示其的物理显示器的大小和形状。
在特定实施例中,可显示一个或多个视觉引导,例如图案,以方便用户对手写文本的输入。视觉引导可辅助用户执行输入文本所必要的手势。在特定实施例中,视觉引导可始终被显示、在用户请求时显示、在用户犯了一个或多个错误时显示(例如,当用户频繁地删除刚刚输入的手写字符时),在用户首次使用手写功能时显示,或者在任何其他适当的时间显示。在特定实施例中,每个字符在一图案内可具有若干个表示,从而使得用户可使用多于一种方式来输入文本。图142A图示了具有网格14204形式的视觉引导的示例显示器14202。显示器14202可包括用于显示输入的文本的部分,例如显示文本14206的部分。利用用户的(一根或多根)手指或者诸如笔之类的工具,用户可描摹网格14204的一个或多个线条以输入字符。图142B图示了可用于输入英语字母表中的大写和小写A-K的示例踪迹。网格的显示,例如其网格线的形状、其相对对齐和它们呈现的视觉图案,可取决于设备、屏幕大小和文本输入的目的而变化。在特定实施例中,对数字或符号的输入或者可被集成在同一网格中,或者可具有用于它们自己的特定网格。例如,当只有数字是有效输入时,可呈现比图142A中显示的那个更简单的网格。本公开预期用于文本输入的网格的任何适当形状和图案。图143A-B和144A-B分别图示了具有用于输入文本14404和14406的示例网格14304和14404的示例显示器14302和14402。
在特定实施例中,用户可在除了设备的显示器以外的表面上书写文本,并且书写的文本可被设备捕捉并显示在设备的显示器上。设备可通过任何适当的方法捕捉书写的文本,例如通过光学传感器或者通过在数字纸上或另一设备上书写的有线或无线连接的笔来捕捉。在特定实施例中,文本可被直接传送到显示器,并且更多相关动作,像是文本的校正、删除或直接使用,可在显示器上可供用户使用。在特定实施例中,这些选项也可在连接的笔上可用,使得用户可直接使用或发送文本,而不触摸屏幕或设备本身。例如,用户可通过笔上的物理输入方法,例如使用按钮;通过在文本之后描绘特定符号;通过用笔作出特定手势,例如叩击或双叩击表面;或者上述的任何适当组合,来使用或发送文本。
在特定实施例中,用户可利用不被约束于设备的显示器的手势来输入文本。例如,在特定实施例中,手势可以是在设备的光学传感器前方作出的手写符号,例如表示字符的符号。本公开预期这种手势可被任何适当的光学传感器捕捉,例如结合本文描述的可穿戴设备描述的任何传感器。在特定实施例中,手势可由用于穿戴或握持设备的手臂或手作出。本公开预期由任何适当的传感器捕捉的任何适当的手势,包括结合本文描述的可穿戴设备描述的手势和传感器。
图145A图示了用于在可穿戴设备14502的显示器14504上输入文本的手势输入的示例。手势,例如由用户的手指14514作出的对字符14512的书写或描摹,可被光学传感器14508捕捉并作为文本14506输入在显示器14504上。手势可在空气中作出或者在任何适当的表面上作出。在特定实施例中,设备14502可包括一个或多个传感器,例如加速度计,其捕捉戴着可穿戴设备14502的用户的手臂14516的运动。例如,手臂14516可描摹字符14512,并且该运动可被设备14502检测并显示在显示器14502上。
如图145B中所示,文本可由不一定对应于该文本的视觉表示的手势来输入。例如,用户的戴着可穿戴设备14502的手臂14518的手指,例如拇指和中指,可来到一起将一个或多个文本字符输入到设备14502的显示器上。这种手势可被任何适当的传感器捕捉,例如由检测(一根或多根)手指的运动的光学传感器或者检测由拇指和中指相遇所生成的振动的麦克风捕捉。手势可在空气中执行、在表面上执行,或者既在空气中也在表面上执行。当独立于表面执行时,手势可基于感测用户的手指和手在何处触摸。每个字母可对应于由特定手指或手指的特定部分作出的手势。例如,拇指在前面触摸中指可对应于“a”,拇指触摸中指的中间可对应于“c”,并且拇指触摸食指的前面可对应于“e”。在特定实施例中,拇指与四根手指组合可映射整个字符集合,例如英语字母表。在特定实施例中,文本输入可至少部分取决于两根或更多根手指彼此接触的次数。例如,使食指与拇指触摸三次可对应于“c”。本公开预期任何适当的手势对应于任何适当的书面语言或交流方案的任何适当文本。在特定实施例中,手势可识别用户希望输入的字符的类型(例如,大写、小写、数字等等)。在特定实施例中,手势可在表面上作出以指示输入文本。例如,特定的字符或单词可至少部分基于表面上的叩击的长度或数目来输入,和/或由用于叩击表面的手指的数目来输入。在特定实施例中,用户可编程与特定手势相对应的特定字符、字符的组合或单词。虽然本公开描述了被作出来生成特定字符的特定手势,但本公开预期任何这种手势或手势的组合(既有仅由手作出的手势,也有涉及表面的手势)可用于适当地生成单词、符号或者单词和符号的部分。
在特定实施例中,字符的完整集合可被显示在显示器上。用户可能够通过任何适当的方法,例如挥扫、叩击、物理交互、使用可旋转元件、本文描述的任何选择方法或者任何其他适当的方法,来直接访问每个显示的字符。在特定实施例中,字符的空间分布可基于显示器的物理参数,以及基于字母频率、字母组合频率、字母邻近度和字符集合中的字符的总数。
图146A-C图示了用于显示英语字母表的小显示器的示例字符布局,并且在图146C中图示了用于显示英语字母表和额外的常见标点符号的小显示器的示例字符布局。例如,图146A的显示器14602可具有圆形形状并且字符集合14604可被显示在显示器14602的外环中;显示器14606可采取方形或矩形形状并且字符集合14608可被显示在显示器14606的外周中;并且显示器14610可采取方形或矩形形状,而字符集合14612占据显示器14612的方形或矩形部分,例如图146C中所示的下部。本公开预期任何适当的显示器形状和字符集合布局。字符集合的显示的确切布局可取决于具体设备、屏幕大小和应用而变化。
在特定实施例中,在显示器上显示的字符(或其他适当的文本部分)当被用户选择时可被突出。例如,图146D-E图示了对被用户的手指选择的字符的示例突出14614和14616。在特定实施例中,突出14614或14616可随着用户的手指在不被从屏幕移除的情况下在屏幕上四处移动而移动。一旦手指被从屏幕移除,在移除时被突出的字符就被输入了。在特定实施例中,当没有突出字符时,不添加字符。视觉突出可被额外地用于将用户导向哪个字符接下来更有可能出现,或者完全移除不能与已经输入的字符创建单词的字符。没有触摸确切位置的错误可由单词预测和识别来校正。虽然图146D-E的示例图示了基于特定的示例选择方法的突出,但本公开预期当使用任何适当的选择方法时的突出。
不同键盘格式中的字母的排序是示范性的,并且可基于任何适当的考虑而改变,例如以下各项中的一个或多个:字母表顺序;与正规(qwerty)键盘布局的相似性;频繁在彼此之后出现的字母不被放置在彼此旁边,而是放置得尽可能远,以例如使差错的可能性最小化、提供更好的单词预测并且在用户在屏幕上未被手指覆盖的部分上键入的同时使其对用户可见;频繁在彼此之后出现的字母被放置在彼此旁边,以例如允许更快的键入;最频繁的字母被放置得更靠右/靠下,以例如促进用户在选择字符时对显示的字符的剩余部分的查看;或者频繁的字母被放置得远离屏幕的中心,在中心处许多字母可能比在屏幕的边缘更靠近在一起,以例如允许键入时的更好精确性。例如,图149A-C图示了设备的显示器14902上的特定布局14904、14906和14908。
在特定实施例中,一个或多个字符的外观可基于设备的情境被更改,例如基于在设备的显示器上已输入或正输入的字符被更改。在特定实施例中,字符更改可用于将用户的注意力吸引到预测接下来会选择或者有可能接下来会选择的字符。在特定实施例中,字符更改可包括从显示器移除字符,改变显示器上的字符的大小,改变显示器上的字符的不透明度(例如,使得字符更透明),在显示器上四处移动字符(例如,使得某些字符看起来更显著),或者任何其他适当方法。图147A-C图示了基于用户在显示器14702上正选择的字符来更改字符的示例。在图147A中,用户正从显示器14702上显示的完整字符集合14704中选择字符。用户可选择字符14706,字符14706随后在图147C中被显示在显示器14702上。在图147A中显示了完整字符集合,而在图147B中基于显示器14702上“H”的显示只显示了某些字符。例如,在“H”之后很不可能被选择的字符可被完全移除,而最有可能被选择的字符可被强调,例如如字符集合14708中所示通过加粗元音。图147C图示了另一示例字符集合14112,其例示了基于用户在图147A中对“E”的选择来移除和强调字符。在特定实施例中,一旦一个或几个字符被键入,不太可能被选择的字符(例如,在所选择的语言中不会形成单词的那些字符)变得不可见并且剩余单词的虚拟触摸区域可被增大,以例如辅助用户更迅速并且以更低的精确性输入字符。
虽然本公开描述了字符集合的示例布局,但本公开预期任何适当的布局。例如,图147图示了按顺时针方向布置的字母顺序字符。图148A图示了按逆时针方向将会布置的第一字符和最末字符(在图148A-C中没有示出额外的字符)。图148C示出了包括第一字符和最末字符之间的空格14808的逆时针布置。空格14808大于图147A中分隔字符“Z”和“A”的空格。图148B图示了一种顺时针布置,其在末端字符之间也包括比图147A中所示相对更大的空格。
在特定实施例中,可以按层次结构或基于级别的结构呈现字符布局。图150A-D图示了示例层次布局。图150A图示了包括具有第一级别15004和第二级别15006的字符布局的显示器5002。在特定实施例中,级别15004可包括用户最频繁选择的字符。在特定实施例中,在级别15004中的字符上叩击可导致输入该字符。在特定实施例中,在级别15004下方的一行上叩击可输入级别15004中最接近触摸点的字符。在特定实施例中,用户可通过从级别15004向下挥扫到级别15006中的期望字符来选择级别15006中的字符。
在特定实施例中,分层的键盘可压缩成更小的键盘,例如具有最频繁选择的字符的键盘。压缩可基于情境,这将在本文更充分描述,或者基于用户命令,并且可促进用户对显示器的非字符部分上(尤其是相对较小的屏幕上)的内容的查看。图150B-D图示了图150A中显示的键盘的压缩版本15010、15012和15014。如图150B中所示,在特定实施例中,一旦用户从第一级别挥扫到了第二级别,用户就可在第二级别内水平挥扫以从该级别选择字符。
在特定实施例中,用户可通过将物体——例如用户的手指之一——连续挥扫过显示器上显示的字符来输入字符。从而,用户可利用一个手势选择若干个字符,这些字符可能形成一个单词或多个单词。没有触摸确切位置的错误可由单词预测和识别来校正。在特定实施例中,当用户从显示器移除手指时,被挥扫的字符被添加到显示器。在特定实施例中,在输入文本之后可自动添加空格字符。在特定实施例中,任何适当的输入,例如手势(比如水平或垂直挥扫或双叩击),可将空格字符改变成句号、逗号或者任何其他适当的字符。本公开预期字符的任何适当布置或显示,包括本文更充分论述的具体示例,并且预期任何适当的文本更改,例如字符的添加、移除、突出或重布置,可与挥扫结合使用来选择字符来显示在显示器上。例如,随着用户挥扫字符,可如图147A-C的示例中所述移除或强调字符。在特定实施例中,挥扫可从显示器上的预设地方开始,例如从具有绕着显示器的边缘布置的字符集合的显示器的中心附近开始,如图146A-B中所示。在特定实施例中,通过使每个字符串与创建该串的挥扫手势等同,挥扫可促进用户对通常输入的字符串的输入。图151A-D图示了示例字符集合布置和在该显示器上创建示例字符串的示例挥扫手势。图151A图示了包括矩形字符集合15014的矩形显示器1502。用户的手指15108可创建跨字符集合15104的挥扫手势14106以创建字符串“apple”,如图151A中所示。在图151B中,用户可从图示的手指位置开始并且创建跨字符集合14112的手势15114以在显示器15114上创建字符串“world”。在图151C中,用户可通过挥扫过字符集合15118来创建手势15112以在显示器15116上创建字符串“upper”。在图151D中,用户可通过挥扫过字符集合15124来创建手势15128以在显示器15126上创建字符串“hea”。在特定实施例中,用户可能必须返回到显示器的特定区域,例如显示器的中心,以在挥扫了第一字符之后输入字符。例如,在图151D中,在用户挥扫“h”之后,另一字符直到用户经过中心为止不被输入,在此之后“e”被输入,等等依此类推。在特定实施例中,选择可通过挥扫经过字符来发生,如图151D中所示。在特定实施例中,选择可通过在挥扫运动中环绕字符来发生,如图151C中所示。
在特定实施例中,可通过用户的手指在屏幕上的一次连续拖曳来添加文本。显示的字符集合根据手指运动在连续动画中移动,并且随着每个选择的字符,要添加的新字符集合出现。手指的释放可暂停该动画,从而让用户能够访问其他功能。一旦屏幕再次被触摸,就可继续暂停的键入。两个字符之间的空格或者一些特殊字符在字符集合内也可供选择。图152A图示了示例的文本输入部分15204。用户可通过在显示器15202上从例如触摸点15206起在部分15204附近挥扫或挥扫到部分15204上来从部分15204中选择字符。图152B图示了输入文本的示例。随着用户的手指靠近部分15204或来到部分15204的上下文中,具有供选择的字符的列15208可出现。在特定实施例中,列15208的一些或全部可随着用户选择字符而变化,并且一些可显示已经选择的字符。例如,用户可能已选择了“h”和“e”,由两个最左列15208表示。如图152C中所示,用户可通过在列内垂直挥扫来从该列中的字符作出选择,例如在图152C的列15208中。在特定实施例中,在保持手指与显示器接触的同时,用户可往回挥扫经过先前选择的字符以删除这些字符。本公开预期文本选择区域15204可在显示器15202的任何适当部分中采取任何适当的形状。例如,该部分可以是水平朝向的,并且相应的动画于是可表现为供用户选择的字符行。
在特定实施例中,可通过用户的手指在屏幕上的一次连续拖曳来输入文本。例如,手指可被放置在预定的位置,例如屏幕的底部的中心,如图153A的触摸点15310所指示。用户可通过朝着字符集合15306作出轻微移动来选择字符,这将行15308描绘到触摸点15310附近。输入文本可被显示在显示部分15304上。例如,图153A中,用户将“h”然后将“e”描绘到触摸点15310。用户可通过在字符的方向上移动来既选择字符又在触摸点15310附近描绘特定字符。例如,在图153B中,用户通过从触摸点15310朝着该字符移动而选择了“f”。从而,“hf”被显示在部分15304上。在特定实施例中,从触摸点向后移动(例如,远离行15308)删除先前输入的字符。
图154A-B对于在矩形显示器的周界显示的字符集合15404图示了上述实施例。用户通过将手指放置在显示器的中心部分15402,例如放置在图154B中的触摸点15408,并且朝着期望的(一个或多个)字符移动,来选择字符。图154B图示了在触摸点15408附近描绘的字符集合15410。在特定实施例中,特殊字符,例如方形15406,可输入空格。在特定实施例中,用户可通过在部分15402上执行手势,例如向左或向右挥扫,来删除先前输入的字符。图154C-D对于具有圆形字符集合15414和圆形中心部分15412的圆形显示器图示了类似的功能。用户可通过从例如触摸点15416移动以在触摸点15416附近描绘字符,如图154D的字符集合15418所显示,来选择字符。
在特定实施例中,随着用户选择字符来输入,例如通过在连续挥扫期间选择字符,可重布置字符。图155A-D图示了在挥扫同时的字符重布置的示例。图155A图示了具有输入文本显示区域15502和初始字符集合15504的显示器。初始字符集合可采取任何适当的配置,例如让元音出现在更靠近字符集合的中心处。在图155B中,用户在触摸点15506处选择了字符“a”,并且字符集合15508相对于字符集合15504被重布置。例如,在“a”之后更有可能输入的字母可被移动得更靠近触摸点15506。图156C-D分别图示了随着用户通过挥扫输入文本而导致字符集合15510和15152的额外重布置。与本文描述的选择字符的挥扫的其他示例一样,用户在挥扫手势期间可通过在字符上暂停来选择该字符。从而,用户可选择不一定在用户的当前触摸点旁边的字符,只要通过经过该字符而不在该字符上暂停即可。在特定实施例中,特定的手势,例如向左挥扫或向右挥扫,可导致特定的字符,例如空格,或者导致特定的功能,例如删除先前字符。
在特定实施例中,小显示器屏幕可导致按钮或输入域的有限集合。为了补偿,显示器可包括被分组成若干个触摸区域的字符集合,以例如针对击中个体小虚拟按钮的困难性作出补偿。在特定实施例中,不同的布局和分组可基于屏幕的交互的物理参数,以及基于字母频率、字母组合频率、字母邻近性和/或上下文。
在特定实施例中,用户可通过叩击包含用户希望输入的(一个或多个)字符的群组来输入文本。单词预测引擎随后可计算从叩击的组合最有可能想要哪个字符串(例如,单词)。在特定实施例中,另外的建议单词可与选择的单词一起被呈现或者从选择的单词可访问,并且用户可通过例如挥扫来从另外的单词之中作出选择。在特定实施例中,用户可通过在预定长度的时间内按压群组预定次数来从该群组中选择个体字符,其中每个预定次数对应于特定的字符。在特定实施例中,用户可通过在群组上按压并保持直到期望的字母出现或被输入为止,来从群组中选择个体字符。
图156A-H图示了矩形屏幕上的特定分组15604。被选择的文本可在显示部分15602中示出。如图151A-H所示,本公开预期具有任何适当数目、形状、位置、分布、区域和种类或类型的字符的任何适当群组。图156I图示了具有群组15610和文本显示部分15608的圆形显示器。图156J-N图示了具有各种类型的群组和文本输入区域的圆形显示器。例如,图156J图示了布置在显示器的下半圆中的群组15612,而输入的文本可显示在部分15614上。群组可包括例如包含特殊字符的半圆群组15616。图156L图示了布置在圆形显示器的更大部分上的群组15618,该部分大到足以使得群组15620构成圆形。图156N图示了在显示器上按四等分布置的群组15622,其中文本显示区域15624布置在显示器的中间或中间附近的水平部分中。
图156O图示了具有文本显示部分15626和布置成群组15628的字符集合的矩形显示器。在特定实施例中,群组可由视觉指示符而不是划定群组的线条来指示。例如,图156P图示了由可见触摸点划分的群组,例如触摸点15630和15632。每个群组由最靠近该触摸点的字母构成。例如,触摸点15630包含字母“Q”、“W”和“A”。在特定实施例中,群组可由诸如颜色之类的视觉线索来识别。在特定实施例中,当用户触摸群组或群组内的字符时,该群组的视觉指示符可被突出,将用户更改到用户已选择的群组。
在特定实施例中,用户可通过在包含字符的群组上执行手势来选择该字符。图157A图示了具有文本显示部分15702和群组15706的矩形显示器。用户可通过用手指15710触摸群组,例如在触摸点15708上触摸,来选择字符。从群组中选择的特定字符可由从触摸点起的挥扫的长度和/或方向来确定。例如,在图157A中,与选择“f”相比,为了选择“g”用户可向右挥扫得更远。在特定实施例中,群组内的字符可被显示在显示器上以促进用户的选择。例如,图157B图示了当用户对触摸点15716进行触摸时在垂直行中显示的群组15717内的字符。向显示的位置挥扫可导致选择在该位置显示的字符。图157C图示了带有字符15722的放大预览的字符集合15720的水平布局。用户可通过触摸字符,例如在触摸点15724处触摸,或者通过触摸屏幕并水平或垂直挥扫以选择期望的字符,来选择字符。被选择的字符可被显示在文本输入区域15718中。图157D图示了具有群组15728的示例字符集合。用户可挥扫过群组以将来自群组的字符输入到文本输入区域15726中。例如,用户可执行挥扫手势15730来在显示器上输入“Apple”。与其他示例实施例一样,用户可通过挥扫过字符来选择该字符,或者单词预测引擎可在挥扫手势执行期间或之后确定要从群组选择的适当字符。在特定实施例中,在字符串被输入到显示器15726上之后可自动添加空格。在特定实施例中,手势(比如水平或垂直挥扫或双叩击)可将该空格字符改变成句号、逗号或者任何其他适当的(一个或多个)字符。
图158A-B图示了促进手腕可穿戴设备的屏幕上的文本输入的键盘。通过将字符集合放置在手指从其进入屏幕的角落,屏幕的其余部分的更大一部分在用户输入文本期间可对用户可见。当像图158A中那样将设备穿戴在左手上时,用户用右手从右下角与字符集合15804交互。用户可通过例如在触摸点15806上或者从触摸点15806起叩击或挥扫来选择字符,以在显示器的文本输入区域15802中输入文本。当像图158B中那样将手腕可穿戴设备穿戴在左手上时,用户可访问字符集合15808(其在特定实施例中可以是或不是字符集合15804的镜像)以输入文本,例如通过在触摸点15810上或从触摸点15810起叩击或挥扫。在特定实施例中,用户可旋转图158A-B的字符集合的半圆以访问另外的字符。更频繁使用的字符可以永久可见或初始可见,而较少使用的字符可在屏幕上被挥扫。在特定实施例中,手腕可穿戴设备可感测用户穿戴着设备的手并且相应地设置显示器的方向。
在特定实施例中,尤其是在具有相对较小屏幕的设备上,可能希望让用户用来输入文本的界面——例如键盘——覆盖尽可能小的屏幕空间。在特定实施例中,每次在屏幕上可以只有一个或几个字符可见,即使每个字符可在屏幕上具有不同的位置以促进字符的输入。
图159A-C图示了示例文本输入界面显示器。输入元素(或交互性元素)15906用于输入字符。每个字符可对应于输入元素15906中的特定位置,该输入元素15906可被称为“条带”。例如,图159A图示了“M”对应于位置15908。正被选择的字符可在显示区域15904中被显示给用户,而其他内容可在显示区域15902中显示。正如对其他实施例也适用的,显示区域15904可与显示区域15902重叠,例如通过相对透明以使得用户可透过区域15904看到区域15902的一部分。可按任何适当的顺序布置字符,例如按字母顺序。在用户正用一根或多根手指触摸输入元素15906的同时,沿着输入元素15906滑动这(一根或多根)手指可改变在显示区域15904中显示的被选择字母。例如,图159B图示了对应于“A”的触摸位置15910,并且图159C图示了对应于“Z”的触摸位置15912。当手指被从输入元素15906上释放时,在释放时选择的字符被作为文本添加到显示器。利用此键盘,在小屏幕上只需要微小量的空间,同时用户仍能够快速访问大字符集合。随着时间的过去,用户可能对字符的位置熟悉起来,从而使用更少的挥扫来找到期望的字符。在特定实施例中,在显示区域15904上执行手势可添加、编辑、移除或以其他方式更改显示的文本。仅作为一个示例,从右向左挥扫可添加空格,而从左向右挥扫可删除最后输入的字符或字符串。
本公开预期用于文本输入的条带可占据显示器上的任何适当位置。例如,图159D-F图示了显示器15914上的垂直触摸元素15916。图159D图示了触摸位置15918对应于“M”,图159E图示了触摸位置15920对应于字符“A”,并且图159F图示了触摸位置15922对应于字符“Z”。
图160图示了具有文本输入区域16004和建议字符串区域16006的显示器16002。区域16006可在来自输入区域16004的字符被选择之后出现,并且建议字符串可按被用户选择的可能性来排序。用户或者可浏览此列表,例如通过在区域16006上向上或向下挥扫,或者可继续从输入区域16004输入文本。用户可通过任何适当的方法在字符之间导航,例如通过在文本输入区域16004上向上或向下挥扫。在特定实施例中,显示区域16004可以是条带,例如图159A-F所示的那种。本公开预期区域16004、16006和16002可采取任何适当的形状或大小并且被放置在具有任何适当形状的显示器的任何适当区域上。
图161图示了具有文本输入区域16104的显示器16102。用户可利用导航图标16108和16110在字符之间导航。用户当前导航到的字符或字符串被显示在区域16106中。例如,在图161中,用户导航到了“M”。在特定实施例中,对图标16108的选择可向前或向后移动一个字符,并且对图标16110的选择可向前或向后移动预定步数。通过保持图标16108或16110按钮被按压,在区域16104中显示的(一个或多个)字符可连续循环,直到该按钮被释放为止。与图标16108和16110的交互可通过任何适当的方法发生,例如通过与物理按钮而不是显示屏幕上的虚拟按钮的交互。
图162图示了具有文本输入区域16206和建议文本区域16204的显示器16202。可通过例如在输入区域16206上水平挥扫来浏览字符集合中的字符。用户可通过利用垂直挥扫手势迅速地将字符向上挥扫预定距离,例如经过区域16204,来输入该字符。在特定实施例中,也可通过水平挥扫来滚动建议文本区域16204,并且可通过在期望的字符串上向上轻拂来作出对建议字符串的选择。
图163图示了具有可挥扫显示部分16304和16306的显示屏幕。在特定实施例中,可挥扫部分16304可包括供用户选择的字符,并且部分16306可包括在例如字母表字符、数字、符号、排版、大小写或任何其他适当的字符或字符相关功能之间切换部分16304的功能。用户可通过例如在字符上叩击,例如在触摸区域16308上叩击,来将字符输入到文本显示部分16302上。
本公开预期文本输入可由任何适当的方法进行,如本文中更充分描述的。图164A-B图示了使用圆形设备16402的可旋转元件16406来在设备16402的显示器上选择并输入文本的示例方法。要输入的文本,例如个体字符,可被显示在显示部分16404上。用户可通过旋转可旋转元件16406来在字符之间导航。例如,在部分16404中显示的字符可随着每旋转一步按字母表顺序逐字母变化。一次快速旋转几步可改变这个一对一比率以便加速字符选择。通过顺时针旋转,选择可移动到其后的字符,而通过逆时针旋转,选择可移动到先前的字符。例如,将元件16406逆时针旋转一步可将“B”转变到“A”。在显示的字符上叩击或者等待一小段时间可将选择的字符添加为输入的文本。在特定实施例中,可显示多于一个字符供选择。例如,图164B图示了在输入部分16408上示出的另外字符。这些字符之一,例如字符16410,相对于其他字符可被强调,表明如果用户叩击区域16408或者等待预定的时间,则该字符是将会输入的那个。
图165图示了由字符部分——例如部分16506——构成的文本输入部分16504。字符由字符部分构成,用户可通过例如挥扫或叩击适当的部分来选择这些字符部分。创建的字符可被显示在文本显示部分16502上,例如随着字符正被构建而显示或者在完整的字符被构造之后显示。
本公开预期用于文本的输入的图标和显示区域,包括键盘和本文描述的其他按钮,可基于设备内容被显示,基于用户命令被显示,或者被连续显示。
在本文中,“或”是包含性的而不是排除性的,除非明确地另有指示或者按上下文另有指示。因此,在本文中,“A或B”指的是“A、B或者这两者”,除非明确地另有指示或者按上下文另有指示。另外,“和”既是联合的也是各自的,除非明确地另有指示或者按上下文另有指示。因此,在本文中,“A和B”指的是“A和B,联合地或者各自地”,除非明确地另有指示或者按上下文另有指示。
本公开的范围涵盖了本领域普通技术人员将会理解的对本文描述或图示的示例实施例的所有变化、替代、变体、更改和修改。本公开的范围不限于本文描述或图示的示例实施例。另外,虽然本公开将本文的各个实施例描述和图示为包括特定的组件、元素、特征、功能、操作或步骤,但这些实施例的任何一者可包括本领域普通技术人员将会理解的在本文任何地方描述或图示的任何组件、元素、特征、功能、操作或步骤的任何组合或置换。另外,在所附权利要求中提到装置或系统或者装置或系统的组件被适配为、被布置为、能够、被配置为、被使能为、可操作来或者进行操作来执行特定的功能涵盖了该装置、系统、组件,无论它或该特定功能是否被激活、开启或解锁,只要该装置、系统或组件被这样适配、被这样布置、能够这样做、被这样配置、被这样使能、可这样操作或者这样进行操作即可。
虽然本公开在可穿戴设备的情境中描述了特定结构、特征、交互和功能,但本公开预期这些结构、特征、交互或功能在适当时可被应用到、被用于或者被用在任何其他适当的电子设备中(例如智能电话、平板设备、相机或者个人计算机设备)。

Claims (45)

1.一个或多个包含指令的非暂态计算机可读存储介质,所述指令当被一个或多个处理器执行时可操作来:
在小显示器上显示交互性元素,该交互性元素具有多个位置,每个位置对应于来自字符集合的一字符,其中来自所述字符集合的至少一些字符不被同时显示在所述显示器上;
基于输入,识别所述交互性元素内的第一位置;以及
在所述显示器上显示与所述第一位置相对应的第一字符。
2.如权利要求1所述的介质,其中,所述字符集合包括英语字母表。
3.如权利要求1所述的方法,其中,所述交互性元素不包括来自所述字符集合的任何字符。
4.如权利要求3所述的介质,其中:
所述显示器包括矩形显示器;以及
所述交互性元素包括沿着所述矩形显示器的边缘显示的第一条块。
5.如权利要求4所述的介质,其中:
来自所述用户的输入包括所述用户的手指和所述显示器的与所述第一位置相对应的部分之间的接触;以及
所述指令当被执行时还可操作来:
确定所述手指从所述第一位置到所述交互性元素内的第二位置的移动,所述移动包括与所述显示器的连续接触;
从所述显示器移除所述第一字符;以及
在所述显示器上显示与所述第二位置相对应的第二字符。
6.如权利要求1所述的介质,其中:
来自所述用户的输入包括所述用户的手指和所述显示器的与所述第一位置相对应的部分之间的接触;
在所述用户的手指接触所述显示器的与所述第一位置相对应的部分的同时,所述第一字符被显示在所述显示器的第一部分上;以及
所述指令当被执行时还可操作来:
确定所述用户从所述显示器移除了所述手指;以及
在所述显示器的第二部分上显示所述第一字符。
7.如权利要求3所述的介质,其中:
所述显示器包括圆形显示器;以及
所述交互性元素包括沿着所述圆形显示器的边缘显示的弯曲条块。
8.如权利要求1所述的介质,其中,所述交互性元素包括沿着所述显示器的边缘的第一条块。
9.如权利要求8所述的介质,其中:
所述交互性元素还包括与所述第一条块平行并相邻的第二条块;
所述第一条块包括来自所述字符集合的一个或多个字符;以及
所述第二条块包括一个或多个建议字符串。
10.如权利要求9所述的介质,其中,所述指令当被执行时还可操作来:
确定所述用户在所述第二条块上执行了挥扫手势;以及
响应于所述挥扫手势,将所述第二条块中的所述一个或多个建议字符串中的一些替换为一个或多个其他建议字符串。
11.如权利要求8所述的介质,其中,所述指令当被执行时还可操作来:
确定用户的手指接触了所述显示器的与所述第一位置相对应的第一部分;以及
确定所述手指进行了与所述条块基本垂直的、到所述显示器的在所述条块外部的第二位置的连续移动。
12.如权利要求8所述的介质,其中,所述指令当被执行时还可操作来:
确定所述用户在所述第一条块上执行了挥扫手势;以及
响应于所述挥扫手势,将所述第一条块中的一个或多个字符中的一些替换为一个或多个其他字符。
13.如权利要求8所述的介质,其中:
所述交互性元素包括与所述第一条块平行并相邻的第二条块;
所述第一条块包括来自所述字符集合的一个或多个字符;以及
所述第二条块包括可操作来更改所述第一条块中显示的字符的一个或多个图标。
14.如权利要求13所述的介质,其中,所述一个或多个图标可操作来:
改变所述第一条块中的字符的大小写;
改变所述第一条块中的字符的排版;
在所述第一条块中显示数字;
在所述第一条块中显示字母;或者
在所述第一条块中显示符号。
15.如权利要求1所述的介质,其中,所述字符包括字符成分。
16.如权利要求1所述的介质,其中:
所述显示器包括圆形显示器;
所述交互性元素包括所述显示器的半圆部分,所述半圆部分包括所述字符中的至少一者的显示。
17.如权利要求16所述的介质,其中,所述介质在可穿戴设备内,该可穿戴设备包括:
所述显示器;
围绕所述显示器的可旋转元件;以及
检测器,被配置为检测所述可旋转元件的旋转;以及
耦合到设备主体的环带。
18.如权利要求17所述的介质,其中,所述指令当被执行时还可操作来:
确定所述可旋转元件的旋转;以及
基于所述旋转,将所述半圆部分中的字符中的至少一者替换为来自所述字符集合的字符中的另一者。
19.一种设备,包括:
小显示器,被配置为:
显示交互性元素,该交互性元素具有多个位置,每个位置对应于来自字符集合的一字符,其中来自所述字符集合的至少一些字符不被同时显示在所述显示器上;以及
处理器,被配置为:
基于输入,识别所述交互性元素内的第一位置;以及
指示所述显示器显示与所述第一位置相对应的第一字符。
20.如权利要求19所述的设备,其中,所述交互性元素包括沿着所述显示器的边缘的条块。
21.如权利要求19所述的设备,其中:
所述输入包括在所述显示器上作出的手势;以及
所述处理器基于所述手势识别所述第一位置。
22.一个或多个包含指令的非暂态计算机可读存储介质,所述指令当被一个或多个处理器执行时可操作来:
在小显示器的表面的外部部分的实质部分上显示多个字符,所述显示器的表面具有包括显示表面的中心的内部部分;
基于输入,识别显示的字符中的一个或多个字符;以及
在所述显示器的包括输入的文本的部分上显示识别出的一个或多个字符。
23.如权利要求22所述的介质,其中,所述显示器包括基本上圆形的显示器;以及
所述外部部分和所述内部部分是基本上圆形的。
24.如权利要求23所述的介质,其中,所述介质在可穿戴设备内,该可穿戴设备包括:
所述显示器;
围绕所述显示器的可旋转元件;
检测器,被配置为检测所述可旋转元件的旋转;以及
耦合到所述设备的主体的环带。
25.如权利要求24所述的介质,其中,所述指令当被执行时还可操作来:
确定所述可旋转元件的旋转;以及
基于所述旋转,选择在所述外部部分上显示的字符中的至少一者。
26.如权利要求23所述的介质,其中,所述外部部分在所述显示器的表面的外边缘附近或者在所述显示器的表面的外边缘处。
27.如权利要求22所述的介质,其中,所述显示器包括基本上矩形的显示器;以及
所述外部部分和所述内部部分是基本上矩形的。
28.如权利要求27所述的介质,其中,所述外部部分在所述显示器的表面的外边缘附近或者在所述显示器的表面的外边缘处。
29.如权利要求22所述的介质,其中,来自所述用户的输入包括由所述用户的手指在一个或多个显示的字符上或一个或多个显示的字符周围作出的挥扫手势。
30.如权利要求29所述的介质,其中,当被执行时可操作来基于来自用户的输入识别显示的字符中的一个或多个字符的指令包括当被执行时可操作来识别以下各项的指令:
所述用户的手指与所述内部部分之间的接触;
所述用户的手指从所述内部部分到所述外部部分的第一移动;
所述用户的手指在执行所述第一移动之后挥扫的第一字符;
所述用户的手指从所述外部部分到所述内部部分的第二移动;
所述用户的手指从所述内部部分到所述外部部分的第三移动;以及
所述用户的手指在执行所述第三移动之后挥扫的第一字符。
31.如权利要求30所述的介质,其中,所述第三移动包括从所述外部部分挥扫到所述显示器的中心或挥扫到所述显示器的中心附近。
32.如权利要求22所述的介质,其中,所述指令当被执行时还可操作来基于识别的字符而移除、突出或不强调所述外部部分上显示的一个或多个字符。
33.一个或多个包含指令的非暂态计算机可读存储介质,所述指令当被一个或多个处理器执行时可操作来:
在小显示器的第一部分上显示多个交互性元素,每个交互性元素包括:
多个字符;以及
视觉指示符,其指示出所述多个字符被分组在一起;
在交互性元素内显示来自该交互性元素的多个字符的至少一个字符;
基于输入,识别所述多个交互性元素中的一个或多个。
34.如权利要求33所述的介质,其中,所述多个交互性元素包括:
在层次体系的第一层的第一交互性元素;以及
在层次体系的第二层的第二交互性元素。
35.如权利要求34所述的介质,其中,所述第一交互性元素的多个字符包括比所述第二交互性元素中的多个字符更频繁被使用的字符。
36.如权利要求34所述的介质,其中:
所述第一交互性元素包括:
具有多列的第一行,每列包括一个或多个字符;或者
具有多行的第一列,每行包括一个或多个字符;以及
所述第二交互性元素包括:
所述显示器的边缘和所述第一行之间的第二行,所述第二行具有多列,每列包括一个或多个字符;或者
所述显示器的边缘和所述第一列之间的第二列,所述第二列具有多行,每行包括一个或多个字符。
37.如权利要求36所述的介质,其中,当被执行时可操作来显示多个交互性元素的指令包括当被执行时可操作来作出以下动作的指令:
在所述显示器上显示所述第一交互性元素;以及
响应于由用户的手的一部分在所述显示器上作出的手势,在所述显示器上显示所述第二交互性元素。
38.如权利要求37所述的介质,其中,所述手势包括:
所述用户的手指与所述第一交互性元素之间的接触;以及
从所述第一交互性元素起在所述显示器的边缘的方向上的连续移动。
39.如权利要求33所述的介质,其中,所述视觉指示符包括交互性元素的周界的一条或多条线。
40.如权利要求33所述的介质,其中,所述视觉指示符包括交互性元素中的多个字符的每一者附近的图标。
41.如权利要求33所述的介质,其中,所述视觉指示符包括交互性元素中的多个字符的着色。
42.如权利要求33所述的介质,其中,所述视觉指示符响应于来自用户的输入而出现。
43.如权利要求33所述的介质,其中:
来自用户的输入包括所述用户的手指与交互性元素之间的接触;以及
所述指令当被执行时还可操作来:
在交互性元素的外部显示该交互性元素的字符;以及
识别所述用户的手指从该交互性元素到在该交互性元素外部显示的字符之一的运动;以及
选择该字符以输入到所述显示器。
44.如权利要求43所述的介质,其中:
所述多个交互性元素包括一行交互性元素并且在交互性元素外部显示的字符包括一列字符;或者
所述多个交互性元素包括一列交互性元素并且在交互性元素外部显示的字符包括一行字符。
45.如权利要求33所述的介质,其中,所述用户的输入识别所识别的交互性元素的字符中的至少一者,所述输入包括以下各项中的一个或多个:
所述用户的手指在交互性元素上作出的叩击的次数,该交互性元素中的每个字符对应于预定的叩击次数;或者
所述用户的手指与交互性元素之间的接触的持续时间,该交互性元素中的每个字符对应于一个或多个预定的持续时间。
CN201580021006.XA 2014-02-28 2015-03-02 交互式显示器上的文本输入 Expired - Fee Related CN106233240B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461946509P 2014-02-28 2014-02-28
US61/946,509 2014-02-28
US14/633,673 US10691332B2 (en) 2014-02-28 2015-02-27 Text input on an interactive display
US14/633,673 2015-02-27
PCT/KR2015/001992 WO2015130150A1 (en) 2014-02-28 2015-03-02 Text input on an interactive display

Publications (2)

Publication Number Publication Date
CN106233240A true CN106233240A (zh) 2016-12-14
CN106233240B CN106233240B (zh) 2020-11-24

Family

ID=54006783

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580021006.XA Expired - Fee Related CN106233240B (zh) 2014-02-28 2015-03-02 交互式显示器上的文本输入

Country Status (5)

Country Link
US (1) US10691332B2 (zh)
EP (1) EP3111314A4 (zh)
KR (1) KR102319421B1 (zh)
CN (1) CN106233240B (zh)
WO (1) WO2015130150A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106686497A (zh) * 2016-12-27 2017-05-17 广东小天才科技有限公司 一种可穿戴设备的音量调整方法及可穿戴设备
CN106873899A (zh) * 2017-03-21 2017-06-20 网易(杭州)网络有限公司 输入信息的获取方法及装置、存储介质和处理器
CN108594935A (zh) * 2018-04-10 2018-09-28 努比亚技术有限公司 一种穿戴设备控制方法、设备及计算机可读存储介质

Families Citing this family (134)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0864145A4 (en) * 1995-11-30 1998-12-16 Virtual Technologies Inc TACTILE FEEDBACK FOR HUMAN / MACHINE INTERFACE
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
NL2010357C2 (en) * 2013-02-14 2014-08-18 Optelec Dev B V Low vision device and method for recording and displaying an object on a screen.
US11422695B2 (en) * 2013-03-27 2022-08-23 Texas Instruments Incorporated Radial based user interface on touch sensitive screen
CN105144028B (zh) * 2013-06-07 2018-08-17 意美森公司 触觉效果信号交换解锁
US9465985B2 (en) 2013-06-09 2016-10-11 Apple Inc. Managing real-time handwriting recognition
USD791793S1 (en) 2013-12-05 2017-07-11 Nikon Corporation Display screen with graphical user interface
USD765668S1 (en) * 2013-12-05 2016-09-06 Nikon Corporation Display screen with graphical user interface
USD750646S1 (en) * 2013-12-26 2016-03-01 Omron Healthcare Co., Ltd. Display screen of mobile device with graphical user interface
EP3111303A4 (en) * 2014-02-28 2017-08-23 Vikas Gupta Gesture operated wrist mounted camera system
CN105204796B (zh) * 2014-06-17 2019-01-15 联想(北京)有限公司 一种信息处理方法及电子设备
USD760735S1 (en) * 2014-06-26 2016-07-05 Xiaomi Inc. Display screen or portion thereof with a graphical user interface
USD763866S1 (en) * 2014-06-26 2016-08-16 Xiaomi Inc. Display screen or portion thereof with a graphical user interface
USD763865S1 (en) * 2014-06-26 2016-08-16 Xiaomi Inc. Display screen or portion thereof with a graphical user interface
USD751090S1 (en) * 2014-06-26 2016-03-08 Xiaomi Inc. Display screen or portion thereof with a graphical user interface
AU2015279544B2 (en) 2014-06-27 2018-03-15 Apple Inc. Electronic device with rotatable input mechanism for navigating calendar application
USD789974S1 (en) * 2014-07-18 2017-06-20 Xiaomi Inc. Display screen or portion thereof with animated graphical user interface
US10135905B2 (en) 2014-07-21 2018-11-20 Apple Inc. Remote user interface
KR20230042141A (ko) 2014-08-02 2023-03-27 애플 인크. 상황 특정 사용자 인터페이스
USD823312S1 (en) * 2014-08-11 2018-07-17 Sony Corporation Display panel or screen with graphical user interface
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
EP4050467A1 (en) 2014-09-02 2022-08-31 Apple Inc. Phone user interface
US10261674B2 (en) * 2014-09-05 2019-04-16 Microsoft Technology Licensing, Llc Display-efficient text entry and editing
CN105446608A (zh) * 2014-09-25 2016-03-30 阿里巴巴集团控股有限公司 信息搜索方法、信息搜索装置及电子装置
JP2018508900A (ja) * 2015-03-03 2018-03-29 イマージョン コーポレーションImmersion Corporation ウェアラブルデバイス表面触覚相互作用
WO2016144385A1 (en) 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
US9921644B2 (en) 2015-04-21 2018-03-20 Dell Products L.P. Information handling system non-linear user interface
US9720550B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Adaptable input active zones at an information handling system projected user interface
US10139854B2 (en) 2015-04-21 2018-11-27 Dell Products L.P. Dynamic display resolution management for an immersed information handling system environment
US11243640B2 (en) 2015-04-21 2022-02-08 Dell Products L.P. Information handling system modular capacitive mat with extension coupling devices
US9983717B2 (en) 2015-04-21 2018-05-29 Dell Products L.P. Disambiguation of false touch inputs at an information handling system projected user interface
US9753591B2 (en) 2015-04-21 2017-09-05 Dell Products L.P. Capacitive mat information handling system display and totem interactions
US11106314B2 (en) 2015-04-21 2021-08-31 Dell Products L.P. Continuous calibration of an information handling system projected user interface
US9720446B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Information handling system projected work space calibration
US9690400B2 (en) * 2015-04-21 2017-06-27 Dell Products L.P. Information handling system interactive totems
US9791979B2 (en) 2015-04-21 2017-10-17 Dell Products L.P. Managing inputs at an information handling system by adaptive infrared illumination and detection
US9804733B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Dynamic cursor focus in a multi-display information handling system environment
US9804718B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Context based peripheral management for interacting with an information handling system
USD795917S1 (en) 2015-05-17 2017-08-29 Google Inc. Display screen with an animated graphical user interface
US10042548B2 (en) * 2015-06-02 2018-08-07 Facebook, Inc. Methods and systems for providing user feedback using an emotion scale
US10572571B2 (en) * 2015-06-05 2020-02-25 Apple Inc. API for specifying display of complication on an electronic watch
US10175866B2 (en) 2015-06-05 2019-01-08 Apple Inc. Providing complications on an electronic watch
US11327640B2 (en) 2015-06-05 2022-05-10 Apple Inc. Providing complications on an electronic device
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
KR101685891B1 (ko) * 2015-07-21 2016-12-13 현대자동차주식회사 터치 입력장치 및 터치 입력장치의 제어방법
KR102430941B1 (ko) * 2015-08-11 2022-08-10 삼성전자주식회사 생체 상태 정보 제공 방법 및 이를 지원하는 전자 장치
EP4321088A3 (en) 2015-08-20 2024-04-24 Apple Inc. Exercise-based watch face
USD823859S1 (en) * 2015-08-28 2018-07-24 Snap Inc. Display screen portion having graphical user interface with transitional icon
USD786297S1 (en) * 2015-09-02 2017-05-09 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD786914S1 (en) * 2015-09-07 2017-05-16 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
KR102483379B1 (ko) * 2015-09-21 2023-01-02 삼성디스플레이 주식회사 표시장치
US20170102697A1 (en) * 2015-10-08 2017-04-13 General Motors Llc Selecting a vehicle function to control using a wearable electronic device
USD786916S1 (en) * 2015-10-29 2017-05-16 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US10137777B2 (en) 2015-11-03 2018-11-27 GM Global Technology Operations LLC Systems and methods for vehicle system control based on physiological traits
KR102413657B1 (ko) * 2015-11-05 2022-06-28 삼성전자주식회사 회전체의 회전 인식 방법 및 그 방법을 처리하는 전자 장치
US20170131775A1 (en) * 2015-11-10 2017-05-11 Castar, Inc. System and method of haptic feedback by referral of sensation
JP6470674B2 (ja) * 2015-12-22 2019-02-13 ミネベアミツミ株式会社 携帯機器
USD800768S1 (en) * 2015-12-24 2017-10-24 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD800767S1 (en) * 2015-12-24 2017-10-24 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
KR102588521B1 (ko) * 2016-01-04 2023-10-13 삼성전자주식회사 전자 장치에서 데이터를 표시하는 장치 및 방법
USD813888S1 (en) * 2016-02-04 2018-03-27 Coway Co., Ltd. Display screen with graphical user interface
KR101767070B1 (ko) * 2016-04-21 2017-08-10 현대자동차주식회사 차량, 및 그 제어방법
USD801985S1 (en) * 2016-05-27 2017-11-07 Samsung Electronics Co., Ltd. Display screen with graphical user interface
AU2017100667A4 (en) 2016-06-11 2017-07-06 Apple Inc. Activity and workout updates
DK179374B1 (en) 2016-06-12 2018-05-28 Apple Inc Handwriting keyboard for monitors
US10514822B2 (en) * 2016-08-24 2019-12-24 Motorola Solutions, Inc. Systems and methods for text entry for multi-user text-based communication
US10139930B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system capacitive touch totem management
US10146366B2 (en) 2016-11-09 2018-12-04 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10139951B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system variable capacitance totem input management
US10496216B2 (en) 2016-11-09 2019-12-03 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10139973B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system totem tracking management
CA3046399A1 (en) * 2016-12-13 2018-06-21 Magic Leap, Inc. 3d object rendering using detected features
USD823879S1 (en) * 2016-12-22 2018-07-24 Omron Healthcare Co., Ltd. Display screen with graphical user interface for a sphygmomanometer with wireless communication device
US20180232136A1 (en) * 2017-02-14 2018-08-16 Fitbit, Inc. Gestural swipe user input
USD846566S1 (en) * 2017-03-27 2019-04-23 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
US10627911B2 (en) 2017-04-25 2020-04-21 International Business Machines Corporation Remote interaction with content of a transparent display
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
US11120264B2 (en) 2017-06-02 2021-09-14 Apple Inc. Augmented reality interface for facilitating identification of arriving vehicle
US10558278B2 (en) 2017-07-11 2020-02-11 Apple Inc. Interacting with an electronic device through physical movement
EP3674865B1 (en) * 2017-10-09 2023-12-06 Huawei Technologies Co., Ltd. Display processing method and electronic device
US11301836B2 (en) * 2017-10-12 2022-04-12 Ncr Corporation Portable point-of-sale (POS) device
USD843864S1 (en) 2017-11-07 2019-03-26 Fitbit, Inc. Low-profile fitness tracker
US10134084B1 (en) * 2017-11-17 2018-11-20 Capital One Services, Llc Augmented reality systems for facilitating a purchasing process at a merchant location
US10459528B2 (en) 2018-02-28 2019-10-29 Dell Products L.P. Information handling system enhanced gesture management, control and detection
GB2572386B (en) * 2018-03-28 2021-05-19 Canon Europa Nv An image processing system and an image processing method
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
US11327650B2 (en) 2018-05-07 2022-05-10 Apple Inc. User interfaces having a collection of complications
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10978018B2 (en) * 2018-05-29 2021-04-13 Samsung Electronics Co., Ltd. Virtual reality resource management for virtual reality head mounted display devices
US20190369754A1 (en) * 2018-06-01 2019-12-05 Apple Inc. Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
USD871435S1 (en) * 2018-06-06 2019-12-31 Fennec Corp. Display screen or portion thereof with animated graphical user interface
US10635199B2 (en) 2018-06-28 2020-04-28 Dell Products L.P. Information handling system dynamic friction touch device for touchscreen interactions
US10852853B2 (en) 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US10795502B2 (en) 2018-06-28 2020-10-06 Dell Products L.P. Information handling system touch device with adaptive haptic response
US10761618B2 (en) 2018-06-28 2020-09-01 Dell Products L.P. Information handling system touch device with automatically orienting visual display
US10817077B2 (en) 2018-06-28 2020-10-27 Dell Products, L.P. Information handling system touch device context aware input tracking
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
US10831346B2 (en) * 2018-10-30 2020-11-10 International Business Machines Corporation Ergonomic and sensor analysis based user experience design
USD910011S1 (en) 2019-04-25 2021-02-09 Fitbit, Inc. Smart watch
USD910617S1 (en) 2018-11-06 2021-02-16 Firbit, Inc. Smart watch
US11960701B2 (en) 2019-05-06 2024-04-16 Apple Inc. Using an illustration to show the passing of time
US11340778B2 (en) 2019-05-06 2022-05-24 Apple Inc. Restricted operation of an electronic device
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
KR20210016752A (ko) * 2019-08-05 2021-02-17 윤현진 중증 환자를 위한 영문 입력자판
USD923652S1 (en) * 2019-08-23 2021-06-29 Beijing Xiaomi Mobile Software Co., Ltd. Display screen or portion thereof with animated graphical user interface
US10852905B1 (en) 2019-09-09 2020-12-01 Apple Inc. Techniques for managing display usage
USD900810S1 (en) * 2019-09-20 2020-11-03 Shenzhen Yawell Intelligent Technology Co., Ltd. Smart bracelet
USD901492S1 (en) * 2019-09-26 2020-11-10 Shenzhen Yawell Intelligent Technology Co., Ltd. Smart bracelet
USD900809S1 (en) * 2019-11-04 2020-11-03 Shenzhen Yawell Intelligent Technology Co., Ltd. Smart bracelet
US11009969B1 (en) 2019-12-03 2021-05-18 International Business Machines Corporation Interactive data input
USD901493S1 (en) * 2019-12-12 2020-11-10 Jinfeng Gao Smart watch
CN111064847B (zh) * 2019-12-14 2021-05-07 惠州Tcl移动通信有限公司 一种防误触方法、装置、存储介质及电子设备
US11360651B2 (en) * 2020-02-14 2022-06-14 Dtoor Inc. Spc Mobile communication system with charging station and circular user interface
JP1684573S (zh) * 2020-03-17 2021-05-10
JP1670002S (zh) * 2020-03-17 2020-10-12
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
CN115552375A (zh) 2020-05-11 2022-12-30 苹果公司 用于管理用户界面共享的用户界面
US11372659B2 (en) 2020-05-11 2022-06-28 Apple Inc. User interfaces for managing user interface sharing
US11921998B2 (en) * 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
USD973680S1 (en) * 2020-09-02 2022-12-27 Mitsubishi Heavy Industries, Ltd. Display screen with graphical user interface
US11694590B2 (en) 2020-12-21 2023-07-04 Apple Inc. Dynamic user interface with time indicator
US11720239B2 (en) 2021-01-07 2023-08-08 Apple Inc. Techniques for user interfaces related to an event
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11995230B2 (en) 2021-02-11 2024-05-28 Apple Inc. Methods for presenting and sharing content in an environment
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time
US20220374085A1 (en) * 2021-05-19 2022-11-24 Apple Inc. Navigating user interfaces using hand gestures
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US20220382383A1 (en) * 2021-05-27 2022-12-01 Arlo Technologies, Inc. Monitoring System and Method Having Gesture Detection
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
CN117980962A (zh) * 2021-09-23 2024-05-03 苹果公司 用于内容应用的设备、方法和图形用户界面
US11949808B2 (en) * 2022-03-04 2024-04-02 Humane, Inc. Context-sensitive home screens for use with wearable multimedia devices

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020122031A1 (en) * 2001-03-01 2002-09-05 International Business Machines Corporation Character input interface for compact electronic devices
CN101052939A (zh) * 2004-07-30 2007-10-10 苹果电脑有限公司 用于触敏输入设备的基于模式的图形用户接口
US20070236475A1 (en) * 2006-04-05 2007-10-11 Synaptics Incorporated Graphical scroll wheel
CN101876878A (zh) * 2009-04-29 2010-11-03 深圳富泰宏精密工业有限公司 单词预测输入系统及方法
CN102117178A (zh) * 2009-12-30 2011-07-06 Lg电子株式会社 移动终端的显示装置和控制该显示装置的方法
US20110221685A1 (en) * 2010-03-11 2011-09-15 Jeffery Theodore Lee Device, Method, and Graphical User Interface for Performing Character Entry
US20120105312A1 (en) * 2010-10-29 2012-05-03 Microsoft Corporation User Input Device
CN102779002A (zh) * 2012-06-19 2012-11-14 邓朝进 一种触摸屏键盘及其输入方法
US8335993B1 (en) * 2008-10-24 2012-12-18 Marvell International Ltd. Enhanced touch sensitive interface and methods and software for making and using the same
CN103038728A (zh) * 2010-03-12 2013-04-10 纽昂斯通信有限公司 例如在移动电话上使用触摸屏的多模式文本输入系统
CN103488420A (zh) * 2013-09-02 2014-01-01 宇龙计算机通信科技(深圳)有限公司 虚拟键盘调整的方法和装置
CN103534676A (zh) * 2012-04-30 2014-01-22 黑莓有限公司 具有先前输入文本校正的触摸屏键盘
US20140049477A1 (en) * 2012-08-14 2014-02-20 Motorola Mobility Llc Systems and Methods for Touch-Based Two-Stage Text Input

Family Cites Families (483)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2473226A (en) 1946-08-22 1949-06-14 Sheldon Lillian Wrist band
US3062369A (en) 1960-08-30 1962-11-06 Esber E Moubayed Leak-proof variable-volume holder for frozen confections
US3477285A (en) 1967-08-04 1969-11-11 Joseph M Krafft Four-lobed diametral-strain gage
US3915534A (en) 1967-08-15 1975-10-28 Joslyn Mfg & Supply Co Grounded surface distribution apparatus
USD249874S (en) 1976-10-12 1978-10-10 Texas Instruments Incorporated Digital wrist watch
US4757456A (en) 1981-05-19 1988-07-12 Ralph Benghiat Device and method for utility meter reading
US4427303A (en) 1982-06-17 1984-01-24 Hermann Hirsch Leder Und Kunstoffwarenfabrik Electronic wristwatch
USD282914S (en) 1983-10-13 1986-03-11 Jeffrey Maron Indicator watch
USD284949S (en) 1984-04-16 1986-08-05 Kong Hung W Watch frame
USD300828S (en) 1985-08-21 1989-04-25 Divetronic Ag Wrist computer for divers
USD297121S (en) 1985-12-03 1988-08-09 Porsche Design Gmbh Sport watch
US4636047A (en) 1986-03-21 1987-01-13 Green Ronald N Wrist watch mirror accessory
USD302664S (en) 1986-09-08 1989-08-08 Dawson Jr Melvyn H Electronic watch
USD300678S (en) 1987-06-11 1989-04-11 Moulinex, Societe Anonyme Re-charging stand for a cordless electric iron
US4906207A (en) 1989-04-24 1990-03-06 W. L. Gore & Associates, Inc. Dielectric restrainer
USD362396S (en) 1990-06-27 1995-09-19 Chester Edna L Wristwatch
USD335263S (en) 1990-06-28 1993-05-04 Willis John E Wristband
USD351558S (en) 1991-11-06 1994-10-18 Junho Moon Wrist watch
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
USD355132S (en) 1992-02-28 1995-02-07 Kenneth Williams Combined sweatband and watch
USD347589S (en) 1992-03-12 1994-06-07 Labate Joseph A Wrist band and mounting for a tape measure
US5418760A (en) 1992-08-18 1995-05-23 Casio Computer Co., Ltd. Electronic devices with a liquid crystal display
USD356960S (en) 1993-02-03 1995-04-04 Societe Nouvelle Chaumet S.A. Watch with band portions
US5361169A (en) 1993-04-29 1994-11-01 Deal Jerry L Diver's mirror
USD365550S (en) 1993-05-17 1995-12-26 Timex Corporation Personal digital assistant to be worn on a wrist
USD366036S (en) 1993-05-28 1996-01-09 Timex Corporation Personal digital assistant to be worn on a wrist
USD386696S (en) 1995-02-16 1997-11-25 Christophe Walch Multipiece plastic wristwatch
US5832296A (en) 1995-04-26 1998-11-03 Interval Research Corp. Wearable context sensitive user interface for interacting with plurality of electronic devices of interest to the user
USD372878S (en) 1995-05-09 1996-08-20 Danny Finnegan Workman's magnetic wrist band for holding small metal objects
JPH0985983A (ja) 1995-09-21 1997-03-31 Canon Inc プリンタ制御装置
DE69635101T2 (de) 1995-11-01 2006-06-01 Canon K.K. Verfahren zur Extraktion von Gegenständen und dieses Verfahren verwendendes Bildaufnahmegerät
USD383985S (en) 1995-12-22 1997-09-23 Doris Davenport Combination watch and pager
US6047301A (en) 1996-05-24 2000-04-04 International Business Machines Corporation Wearable computer
USD384661S (en) 1996-08-28 1997-10-07 Garmin Corporation Portable handheld combination GPS and communication transceiver
JP3321053B2 (ja) 1996-10-18 2002-09-03 株式会社東芝 情報入力装置及び情報入力方法及び補正データ生成装置
US20040210479A1 (en) 1996-10-25 2004-10-21 Ipf, Inc. Internet-based brand marketing communication instrumentation network for deploying, installing and remotely programming brand-building server-side driven multi-mode virtual kiosks on the World Wide Web (WWW), and methods of brand marketing communication between brand marketers and consumers using the same
US6747680B1 (en) 1999-12-13 2004-06-08 Microsoft Corporation Speed-dependent automatic zooming interface
WO1999025152A2 (en) 1997-11-07 1999-05-20 Via, Inc. Interactive devices and methods
USD410854S (en) 1997-12-11 1999-06-15 Imus Co., Ltd. Wrist watch
US5915580A (en) 1997-12-24 1999-06-29 Outer Circle Products, Ltd. Container covering
USD401515S (en) 1998-01-23 1998-11-24 Yacov Yida Watch
USD404317S (en) 1998-02-05 1999-01-19 Bernice M Cameron Bottle mounted timer
JP2000050133A (ja) 1998-02-10 2000-02-18 Asulab Sa 低電力消費の携帯用物体、特にカメラおよび無線デ―タ伝送手段を含む時計
US6031525A (en) * 1998-04-01 2000-02-29 New York University Method and apparatus for writing
JPH11298362A (ja) 1998-04-06 1999-10-29 Sony Corp 小型携帯端末
USD416814S (en) 1998-05-15 1999-11-23 Nancy Lynn Welsh Ring having a time piece mounted within its central finger opening
US7854684B1 (en) 1998-06-24 2010-12-21 Samsung Electronics Co., Ltd. Wearable device
US6573883B1 (en) 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
JP3627531B2 (ja) 1998-09-30 2005-03-09 セイコーエプソン株式会社 情報処理装置
JP2002528811A (ja) 1998-10-28 2002-09-03 ヴィーア・インコーポレイテッド 柔軟−剛性ユーザーインターフェースデバイス及び方法
JP3988102B2 (ja) 1998-11-06 2007-10-10 富士フイルム株式会社 腕装着型カメラ
USD413817S (en) 1998-12-18 1999-09-14 Casio Keisanki Kabushiki Kaisha Watch case with global positioning system
US7225229B1 (en) 1998-12-18 2007-05-29 Tangis Corporation Automated pushing of computer user's context data to clients
USD421919S (en) 1998-12-22 2000-03-28 Gucci Timepieces Sa Wristwatch
US20040209657A1 (en) 1999-01-04 2004-10-21 Yoram Ghassabian Wrist-mounted telephone device
JP2000267797A (ja) 1999-03-15 2000-09-29 Seiko Epson Corp 情報処理装置
US7293231B1 (en) 1999-03-18 2007-11-06 British Columbia Ltd. Data entry for personal computing devices
GB2350523B (en) 1999-05-26 2003-11-26 Nokia Mobile Phones Ltd Communication device
US6359837B1 (en) 1999-06-30 2002-03-19 Casio Computer Co., Ltd. Camera, camera system, information recording system, timepiece, and link system for camera and timepiece
JP2001060137A (ja) * 1999-08-23 2001-03-06 Seiko Epson Corp 情報処理装置および情報入力方法
EP1079325B1 (fr) 1999-08-25 2006-04-05 Swatch Ag Montre comprenant un dispositif de commande sans contact d'un curseur d'ordinateur
USD433949S (en) 1999-10-04 2000-11-21 Chanel, Inc. Wrist watch case
US6424743B1 (en) 1999-11-05 2002-07-23 Motorola, Inc. Graphical handwriting recognition user interface
JP2001167054A (ja) 1999-12-09 2001-06-22 Casio Comput Co Ltd 携帯情報機器、認証装置及び認証システム
USD434675S (en) 1999-12-13 2000-12-05 Casio Keisanki Kabushiki Kaisha Watch case with global positioning system
JP2001251542A (ja) 1999-12-28 2001-09-14 Casio Comput Co Ltd 携帯型撮像機器
JP2005174356A (ja) 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
GB2365676B (en) 2000-02-18 2004-06-23 Sensei Ltd Mobile telephone with improved man-machine interface
GB0004688D0 (en) 2000-02-28 2000-04-19 Radley Smith Philip J Bracelet
US6597345B2 (en) 2000-03-03 2003-07-22 Jetway Technologies Ltd. Multifunctional keypad on touch screen
JP2001344039A (ja) 2000-03-31 2001-12-14 Seiko Epson Corp 情報処理装置、情報処理装置の制御方法および情報処理装置の制御プログラム
USD453005S1 (en) 2000-04-26 2002-01-22 Dinh Van Wrist-watch
JP4042340B2 (ja) 2000-05-17 2008-02-06 カシオ計算機株式会社 情報機器
JP2001344352A (ja) 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
USD455356S1 (en) 2000-06-19 2002-04-09 Rainer Saffer Watch
CN1193570C (zh) 2000-06-21 2005-03-16 精工爱普生株式会社 协同处理呼入的移动电话和无线电通信装置
US6714233B2 (en) 2000-06-21 2004-03-30 Seiko Epson Corporation Mobile video telephone system
US7081905B1 (en) 2000-06-30 2006-07-25 International Business Machines Corporation Method and apparatus for dynamically controlling scroller speed employed for a user interface of a wearable appliance
US6477117B1 (en) 2000-06-30 2002-11-05 International Business Machines Corporation Alarm interface for a smart watch
US7477890B1 (en) 2000-06-30 2009-01-13 International Business Machines Corporation Demand pull—multichannel asynchronous data and application synchronization for pervasive devices
US6556222B1 (en) 2000-06-30 2003-04-29 International Business Machines Corporation Bezel based input mechanism and user interface for a smart watch
JP3785902B2 (ja) 2000-07-11 2006-06-14 インターナショナル・ビジネス・マシーンズ・コーポレーション デバイス、デバイスの制御方法、ポインタの移動方法
JP2002099476A (ja) 2000-09-26 2002-04-05 Sanyo Electric Co Ltd ソフトウェア配信方法、ソフトウェア配信装置、およびこれらを利用可能なユーザ端末
USD463296S1 (en) 2000-10-23 2002-09-24 Eseoghene Esther Sanomi Wrist radius watch
JP3948260B2 (ja) 2000-11-22 2007-07-25 松下電器産業株式会社 テキスト入力方法及びその装置
JP2002257955A (ja) 2000-12-25 2002-09-11 Seiko Epson Corp 通信機能付腕時計装置、情報表示方法、制御プログラム及び記録媒体
JP3613177B2 (ja) 2000-12-26 2005-01-26 インターナショナル・ビジネス・マシーンズ・コーポレーション 入力対象選択装置及び方法
USD460430S1 (en) 2000-12-28 2002-07-16 Seiko Instruments Inc. Mobile phone
US20020101457A1 (en) 2001-01-31 2002-08-01 Microsoft Corporation Bezel interface for small computing devices
US20020135615A1 (en) 2001-01-31 2002-09-26 Microsoft Corporation Overlaid display for electronic devices
US6937135B2 (en) 2001-05-30 2005-08-30 Hewlett-Packard Development Company, L.P. Face and environment sensing watch
JP2003018923A (ja) 2001-07-09 2003-01-21 Onga Eng:Kk ハウス開閉装置
US6774796B2 (en) 2001-08-01 2004-08-10 Motorola, Inc. Master authenticator
EP1282018A1 (en) 2001-08-03 2003-02-05 Nokia Corporation A wearable electronic device
USD459352S1 (en) 2001-08-10 2002-06-25 Michael C. Giovanniello Wireless mouse wristband
US20130080143A1 (en) 2011-09-27 2013-03-28 Paul E. Reeves Unified desktop docking behavior with device as master
US20030046228A1 (en) 2001-08-28 2003-03-06 Jean-Marc Berney User-wearable functional jewelry with biometrics and smartcard to remotely sign and/or authenticate to e-services
US7634403B2 (en) 2001-09-05 2009-12-15 Voice Signal Technologies, Inc. Word recognition using word transformation commands
JP2003131785A (ja) 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
US6990662B2 (en) 2001-10-31 2006-01-24 Hewlett-Packard Development Company, L.P. Method and system for offloading execution and resources for resource-constrained networked devices
US6744423B2 (en) 2001-11-19 2004-06-01 Nokia Corporation Communication terminal having a predictive character editor application
US8176432B2 (en) 2001-11-20 2012-05-08 UEI Electronics Inc. Hand held remote control device having an improved user interface
US7091964B2 (en) 2001-11-30 2006-08-15 Palm, Inc. Electronic device with bezel feature for receiving input
TWI258647B (en) 2001-12-27 2006-07-21 Asulab Sa Control method for executing functions in a diary watch
GB0201074D0 (en) 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
GB2384395A (en) 2002-01-19 2003-07-23 Hewlett Packard Co Personal article capable of receiving specified items or data
US7111788B2 (en) 2002-04-22 2006-09-26 Nokia Corporation System and method for navigating applications using a graphical user interface
US7899915B2 (en) 2002-05-10 2011-03-01 Richard Reisman Method and apparatus for browsing using multiple coordinated device sets
US8001488B1 (en) 2002-05-31 2011-08-16 Hewlett-Packard Development Company, L.P. User interface dial with display
JP2004021893A (ja) 2002-06-20 2004-01-22 Sony Corp 携帯情報通信端末、プログラムおよび該プログラムを記録した記録媒体
US9886309B2 (en) 2002-06-28 2018-02-06 Microsoft Technology Licensing, Llc Identity-based distributed computing for device resources
US6968508B2 (en) 2002-07-30 2005-11-22 Motorola, Inc. Rotating user interface
JP2004072450A (ja) 2002-08-07 2004-03-04 Casio Comput Co Ltd 電子カメラ
US7386855B2 (en) 2002-08-12 2008-06-10 Ntt Docomo, Inc. Application mobility service
USD474982S1 (en) 2002-08-15 2003-05-27 Nike, Inc. Portion of a watch
US7036007B2 (en) 2002-09-09 2006-04-25 Intel Corporation Firmware architecture supporting safe updates and multiple processor types
JP2004184396A (ja) 2002-10-09 2004-07-02 Seiko Epson Corp 表示装置、時計、表示装置の制御方法、制御プログラムおよび記録媒体
JP2004178584A (ja) 2002-11-26 2004-06-24 Asulab Sa 機能、装置、又は所定の場所にアクセスするためのタッチスクリーンによるセキュリティコードの入力方法、及びその方法を実行するためのデバイス
US7199786B2 (en) 2002-11-29 2007-04-03 Daniel Suraqui Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system
US20040130581A1 (en) 2003-01-03 2004-07-08 Microsoft Corporation Interaction model
JP2004259063A (ja) 2003-02-26 2004-09-16 Sony Corp 3次元オブジェクトの表示処理装置、表示処理方法およびコンピュータプログラム
JP2004288172A (ja) 2003-03-04 2004-10-14 Sony Corp 入力装置、情報端末装置およびモード切替方法
US7096048B2 (en) 2003-04-01 2006-08-22 Sanders Donald T Portable communications device
KR100617681B1 (ko) 2003-04-15 2006-08-28 삼성전자주식회사 휴대용 단말기의 회전키 장치 사용 방법
US7385361B2 (en) 2003-05-14 2008-06-10 Matsushita Electric Industrial Co., Ltd. Ballast for high-pressure discharge lamp and method of operating the same
US20040261031A1 (en) 2003-06-23 2004-12-23 Nokia Corporation Context dependent auxiliary menu elements
US7567239B2 (en) 2003-06-26 2009-07-28 Motorola, Inc. Method and system for message and note composition on small screen devices
KR100590528B1 (ko) 2003-06-28 2006-06-15 삼성전자주식회사 착용형 손가락 움직임 감지장치 및 이를 이용한 손가락의움직임 감지방법
US20050001821A1 (en) 2003-07-02 2005-01-06 Low Tse How Option selector and electronic device including such an option selector
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US7478390B2 (en) 2003-09-25 2009-01-13 International Business Machines Corporation Task queue management of virtual devices using a plurality of processors
US20050137470A1 (en) 2003-12-08 2005-06-23 Rosenthal Robert D. Method and apparatus for low blood glucose level detection
KR100571428B1 (ko) 2003-12-24 2006-04-17 한국전자통신연구원 착용형 인터페이스 장치
WO2005065404A2 (en) 2003-12-31 2005-07-21 James Marin Rotating bezel watch
US7872669B2 (en) 2004-01-22 2011-01-18 Massachusetts Institute Of Technology Photo-based mobile deixis system and related techniques
USD546203S1 (en) 2004-02-13 2007-07-10 Cartier Creation Studio, Sa Watch
US7398151B1 (en) 2004-02-25 2008-07-08 Garmin Ltd. Wearable electronic device
JP2005244676A (ja) 2004-02-27 2005-09-08 Dowango:Kk リモコンシステム
EP1721237B1 (en) 2004-02-27 2012-08-29 Simon Richard Daniel Wearable modular interface strap
GB2411337B (en) 2004-02-27 2006-12-06 Simon Richard Daniel Modular interface strap for multi-unit wristband and necklace assemblies
US8886298B2 (en) 2004-03-01 2014-11-11 Microsoft Corporation Recall device
KR100853605B1 (ko) 2004-03-23 2008-08-22 후지쯔 가부시끼가이샤 핸드헬드 장치에서의 경사 및 평행 이동 운동 성분들의구별
US7173604B2 (en) 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
TWI370979B (en) 2004-05-14 2012-08-21 Ibm Grid computing system, information processing unit, job execution request generation unit, control method, program, and recording medium
US7404146B2 (en) 2004-05-27 2008-07-22 Agere Systems Inc. Input device for portable handset
JP4379214B2 (ja) 2004-06-10 2009-12-09 日本電気株式会社 携帯端末装置
US7840681B2 (en) 2004-07-30 2010-11-23 International Business Machines Corporation Method and apparatus for integrating wearable devices within a SIP infrastructure
US20060253010A1 (en) 2004-09-28 2006-11-09 Donald Brady Monitoring device, method and system
USD519858S1 (en) 2004-10-06 2006-05-02 Giochi Preziosi S.P.A. Watch
US20060092177A1 (en) 2004-10-30 2006-05-04 Gabor Blasko Input method and apparatus using tactile guidance and bi-directional segmented stroke
USD526973S1 (en) 2004-11-17 2006-08-22 Xirrus, Inc. Electronic device housing
US7667657B2 (en) 2004-11-30 2010-02-23 Konica Minolta Holdings, Inc. Information processing apparatus
TWM277958U (en) 2004-12-31 2005-10-11 Ind Tech Res Inst An flexible displaying device for electronic information includes a device housing
US20060149652A1 (en) 2005-01-06 2006-07-06 Fellenstein Craig W Receiving bid requests and pricing bid responses for potential grid job submissions within a grid environment
US20060197835A1 (en) 2005-03-04 2006-09-07 Anderson Robert C Wrist-attached display system for unmanned vehicle imagery and communication
USD527286S1 (en) 2005-03-22 2006-08-29 Rolex Watch U.S.A., Inc. Watch
JP2006279137A (ja) 2005-03-28 2006-10-12 Sharp Corp リモコンシステム
US20060224766A1 (en) 2005-03-31 2006-10-05 Malackowski Donald W Operating room communication bus and method
US20060288233A1 (en) 2005-04-25 2006-12-21 Douglas Kozlay Attachable biometric authentication apparatus for watchbands and other personal items
ITUD20050074A1 (it) 2005-05-11 2006-11-12 Eurotech S P A Dispositivo di risparmio energetico per un'apparecchiatura elettronica portatile
US9606634B2 (en) 2005-05-18 2017-03-28 Nokia Technologies Oy Device incorporating improved text input mechanism
US8117540B2 (en) 2005-05-18 2012-02-14 Neuer Wall Treuhand Gmbh Method and device incorporating improved text input mechanism
US20060271867A1 (en) 2005-05-27 2006-11-30 Wang Kong Q Mobile communications terminal and method therefore
EP2393204A3 (en) 2005-06-16 2013-03-06 Systems Ltd Keyless Data entry system
US7487467B1 (en) 2005-06-23 2009-02-03 Sun Microsystems, Inc. Visual representation and other effects for application management on a device with a small screen
US20070004969A1 (en) 2005-06-29 2007-01-04 Microsoft Corporation Health monitor
JP2007014471A (ja) 2005-07-06 2007-01-25 Sumitomo Precision Prod Co Ltd 無線センサ端末
USD550105S1 (en) 2005-07-18 2007-09-04 Garmin Ltd. GPS exercise monitoring device
KR100814395B1 (ko) 2005-08-30 2008-03-18 삼성전자주식회사 조그 키와 사방향 키를 이용한 사용자 인터페이스 제어장치 및 그 방법
JP2007064758A (ja) 2005-08-30 2007-03-15 Sony Corp 携帯型電子機器、表示制御プログラム、表示制御方法、時計装置
JP4676303B2 (ja) 2005-10-18 2011-04-27 株式会社日立製作所 端末装置
US20070100244A1 (en) 2005-10-31 2007-05-03 Chin-Shu Lin Wrist-worn monitor for heartbeat detection
US7454841B2 (en) 2005-11-01 2008-11-25 Hunter Engineering Company Method and apparatus for wheel alignment system target projection and illumination
USD547212S1 (en) 2005-11-10 2007-07-24 Dias M Carlos Wrist watch
CN100514314C (zh) 2005-12-28 2009-07-15 松下电工株式会社 网络设备系统
KR100761262B1 (ko) 2005-12-28 2007-09-28 엘지전자 주식회사 이동통신단말기의 문자입력 장치
US7860536B2 (en) 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
USD537409S1 (en) 2006-01-10 2007-02-27 Sony Corporation Combined charger and infrared ray emitter
JP5220278B2 (ja) 2006-01-27 2013-06-26 任天堂株式会社 ゲーム装置および手書き入力プログラム
USD537371S1 (en) 2006-02-03 2007-02-27 Bell & Ross B.V. Watch
USD529402S1 (en) 2006-02-13 2006-10-03 Nike, Inc. Portion of a watch
USD528928S1 (en) 2006-02-14 2006-09-26 Nike, Inc. Portion of a watch
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
KR100754674B1 (ko) 2006-03-10 2007-09-03 삼성전자주식회사 휴대 단말의 메뉴 선택 방법 및 장치
USD537738S1 (en) 2006-03-17 2007-03-06 Citizen Tokei Kabushiki Kaisha Wrist watch case with band
EP1998666B1 (en) 2006-03-21 2014-01-01 Koninklijke Philips N.V. Indication of the condition of a user
USD545305S1 (en) 2006-03-22 2007-06-26 Mulcahy Michael R Personal data assistant, particularly for the visually impaired
JP4516042B2 (ja) 2006-03-27 2010-08-04 株式会社東芝 機器操作装置および機器操作方法
USD574263S1 (en) 2006-03-28 2008-08-05 The British Masters Sa Wristwatch
GB2437592A (en) 2006-04-10 2007-10-31 Skype Ltd Indicating communication events on an alternative interface whilst running an application on another interface
US8644396B2 (en) 2006-04-18 2014-02-04 Qualcomm Incorporated Waveform encoding for wireless applications
US7382691B2 (en) 2006-04-21 2008-06-03 Nixon, Inc. Multifunction watch system and method
USD543122S1 (en) 2006-05-10 2007-05-22 Ronald Lafever Combined flexible band and clip-on watch
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
US7539532B2 (en) 2006-05-12 2009-05-26 Bao Tran Cuffless blood pressure monitoring appliance
USD574262S1 (en) 2006-05-19 2008-08-05 Lorenz S.P.A. Wrist watch
EP1860534A1 (en) 2006-05-22 2007-11-28 LG Electronics Inc. Mobile terminal and menu display method thereof
KR100782927B1 (ko) * 2006-06-27 2007-12-07 삼성전자주식회사 휴대용 단말기에서 문자 입력 장치 및 방법
USD554636S1 (en) 2006-06-27 2007-11-06 Qualcomm Incorporated Media display unit
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
USD558209S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
USD558208S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
USD558207S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
US8511890B2 (en) 2006-08-27 2013-08-20 Nike, Inc. Rocking bezel control
USD602858S1 (en) 2006-09-06 2009-10-27 Amx Llc Remote control charging base
US8243017B2 (en) 2006-09-11 2012-08-14 Apple Inc. Menu overlay including context dependent menu icon
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
USD550614S1 (en) 2006-09-22 2007-09-11 10Charge, Inc. Battery charger
US7714839B2 (en) 2006-09-29 2010-05-11 Sony Ericsson Mobile Communications Ab Jog dial for mobile terminal
JP2008089039A (ja) 2006-09-29 2008-04-17 Jtekt Corp 円すいころ軸受及びディファレンシャル装置
US7463557B2 (en) 2006-10-06 2008-12-09 Timex Group B.V. Electronic device with changeable display configurations
US7925986B2 (en) 2006-10-06 2011-04-12 Veveo, Inc. Methods and systems for a linear character selection display interface for ambiguous text input
US7667148B2 (en) 2006-10-13 2010-02-23 Apple Inc. Method, device, and graphical user interface for dialing with a click wheel
US8355709B2 (en) 2006-10-23 2013-01-15 Qualcomm Incorporated Device that determines whether to launch an application locally or remotely as a webapp
USD575289S1 (en) 2006-12-11 2008-08-19 Hon Hai Precision Ind. Co., Ltd. Dock connector
USD545697S1 (en) 2007-01-10 2007-07-03 Nike, Inc. Portion of a watch
KR100896055B1 (ko) 2007-01-15 2009-05-07 엘지전자 주식회사 회전입력장치 구비 이동단말기 및 그 디스플레이 방법
US8311530B2 (en) 2007-01-26 2012-11-13 Research In Motion Limited Touch entry of password on a mobile device
US7966039B2 (en) 2007-02-02 2011-06-21 Microsoft Corporation Bidirectional dynamic offloading of tasks between a host and a mobile device
US8789053B2 (en) 2007-04-05 2014-07-22 Newton Howard Task execution and delegation by autonomous mobile agents based on intent knowledge base
EP2153631B1 (en) 2007-04-26 2020-02-12 Nokia Technologies Oy Improved method and apparatus for switching between different modes in a mobile communication terminal
USD590727S1 (en) 2007-04-27 2009-04-21 New Heritage Ltd. Watch case
USD590277S1 (en) 2007-04-27 2009-04-14 New Heritage Ltd. Watch case
JP5453246B2 (ja) 2007-05-04 2014-03-26 クアルコム,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
USD604643S1 (en) 2007-05-16 2009-11-24 Suunto Oy Multi-function wristwatch
US8442015B2 (en) 2007-07-20 2013-05-14 Broadcom Corporation Method and system for an atomizing function of a mobile device
JP2009005320A (ja) 2007-06-21 2009-01-08 Rumiko Aso 腕時計型携帯電話
US10178965B2 (en) 2007-06-22 2019-01-15 Ipventure, Inc. Activity monitoring system for pregnant women
KR101515089B1 (ko) 2007-08-16 2015-04-24 삼성전자 주식회사 그래픽 사용자 인터페이스 제공 장치 및 방법
US8676273B1 (en) 2007-08-24 2014-03-18 Iwao Fujisaki Communication device
US8593404B2 (en) 2007-08-27 2013-11-26 Blackberry Limited Reduced key arrangement for a mobile communication device
US7778118B2 (en) 2007-08-28 2010-08-17 Garmin Ltd. Watch device having touch-bezel user interface
ES1066912Y (es) 2007-09-13 2008-07-01 Fagor S Coop Dispositivo de control remoto para aparatos electrodomesticos
JP4960812B2 (ja) 2007-09-14 2012-06-27 株式会社リコー 画像処理装置、負荷分散システム及び負荷分散プログラム
JP5184018B2 (ja) 2007-09-14 2013-04-17 京セラ株式会社 電子機器
KR102559017B1 (ko) 2007-09-24 2023-07-25 애플 인크. 전자 장치 내의 내장형 인증 시스템들
KR100949581B1 (ko) 2007-10-08 2010-03-25 주식회사 자코드 통신단말기의 문자/숫자 입력장치 및 입력방법
US8031172B2 (en) 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
US8639214B1 (en) 2007-10-26 2014-01-28 Iwao Fujisaki Communication device
US20090134838A1 (en) 2007-11-27 2009-05-28 Puthalath Koroth Raghuprasad Circular self-powered magnetic generator
USD564367S1 (en) 2007-11-30 2008-03-18 Nike, Inc. Watch
US20090167486A1 (en) 2007-12-29 2009-07-02 Shah Rahul C Secure association between devices
US9467850B2 (en) 2007-12-31 2016-10-11 Intel Corporation Handheld device association via shared vibration
US7946758B2 (en) 2008-01-31 2011-05-24 WIMM Labs Modular movement that is fully functional standalone and interchangeable in other portable devices
RU74259U1 (ru) 2008-02-19 2008-06-20 Татаренков Валерий Владимирович Мобильный телефон-браслет
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9398046B2 (en) 2008-03-06 2016-07-19 Qualcomm Incorporated Image-based man-in-the-middle protection in numeric comparison association models
US20090234967A1 (en) 2008-03-17 2009-09-17 Nokia Corporation Method, system, and apparatus for transferring P2P file distribution tasks between devices
USD585898S1 (en) 2008-04-01 2009-02-03 Sdi Technologies, Inc. Base unit for digital media player
US8949743B2 (en) 2008-04-22 2015-02-03 Apple Inc. Language input interface on a device
US20110287757A1 (en) 2008-05-08 2011-11-24 Unify4Life Corporation Remote control system and method
US20090280861A1 (en) 2008-05-09 2009-11-12 Ashana Sabana Nisha Khan Multifunctional all-in-one detachable wrist wireless mobile communication device
US8638229B2 (en) 2008-05-29 2014-01-28 Garmin Switzerland Gmbh Swim watch
US8295879B2 (en) 2008-05-30 2012-10-23 Motorola Mobility Llc Devices and methods for initiating functions based on movement characteristics relative to a reference
DE102008027746A1 (de) 2008-06-11 2009-12-17 Kirner, Markus A. Armbanduhranordnung mit Mobiltelefon
JP2009301485A (ja) 2008-06-17 2009-12-24 Olympus Corp 情報表示システムおよびそれを用いた携帯情報端末
US8112526B2 (en) 2008-06-24 2012-02-07 International Business Machines Corporation Process migration based on service availability in a multi-node environment
US8447704B2 (en) 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
US8078873B2 (en) 2008-06-30 2011-12-13 Intel Corporation Two-way authentication between two communication endpoints using a one-way out-of-band (OOB) channel
US20100020033A1 (en) 2008-07-23 2010-01-28 Obinna Ihenacho Alozie Nwosu System, method and computer program product for a virtual keyboard
KR101546774B1 (ko) 2008-07-29 2015-08-24 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
US20100039393A1 (en) 2008-08-15 2010-02-18 At&T Intellectual Property I, L.P. Text entry on touch screen cellphones by different pressure levels
JP4899108B2 (ja) 2008-08-24 2012-03-21 照彦 矢上 腕時計型電子メモ装置
US8319742B2 (en) 2008-08-26 2012-11-27 Research In Motion Limited Portable electronic device and method of controlling same
KR20100028465A (ko) 2008-09-04 2010-03-12 백상주 포인터의 드래그 방향에 따른 문자 또는 메뉴입력 방법
US20100070913A1 (en) 2008-09-15 2010-03-18 Apple Inc. Selecting an item of content in a graphical user interface for a portable computing device
US9026462B2 (en) 2008-09-30 2015-05-05 Apple Inc. Portable point of purchase user interfaces
US20100082485A1 (en) 2008-09-30 2010-04-01 Apple Inc. Portable point of purchase devices and methods
KR101537596B1 (ko) 2008-10-15 2015-07-20 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
JP4506890B2 (ja) 2008-10-28 2010-07-21 トヨタ自動車株式会社 歩行補助装置
USD596610S1 (en) 2008-11-07 2009-07-21 Cheng Uei Precision Industry Co., Ltd. Wrist type mobile phone
US9201582B2 (en) 2008-11-11 2015-12-01 Canon Kabushiki Kaisha Display control apparatus and display control method
US8503932B2 (en) 2008-11-14 2013-08-06 Sony Mobile Comminications AB Portable communication device and remote motion input device
JP5343523B2 (ja) 2008-11-17 2013-11-13 富士通株式会社 ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP2010122934A (ja) 2008-11-20 2010-06-03 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9355554B2 (en) 2008-11-21 2016-05-31 Lenovo (Singapore) Pte. Ltd. System and method for identifying media and providing additional media content
AU326155S (en) 2008-12-22 2009-06-01 Swarovski Aktiengesselschaft Wrist watch
US8289162B2 (en) 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
US20100167646A1 (en) 2008-12-30 2010-07-01 Motorola, Inc. Method and apparatus for device pairing
US9591118B2 (en) 2009-01-01 2017-03-07 Intel Corporation Pose to device mapping
USD596509S1 (en) 2009-01-08 2009-07-21 Seiko Watch Kabushiki Kaisha Watch case
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8326221B2 (en) 2009-02-09 2012-12-04 Apple Inc. Portable electronic device with proximity-based content synchronization
EP2220997A1 (en) 2009-02-24 2010-08-25 Koninklijke Philips Electronics N.V. Device, system and method for monitoring motion sequences
US8098141B2 (en) 2009-02-27 2012-01-17 Nokia Corporation Touch sensitive wearable band apparatus and method
USD596959S1 (en) 2009-03-05 2009-07-28 Zino Davidoff Trading Ag Watch case
AU327458S (en) 2009-03-06 2009-09-03 Rado Uhren Ag Rado Watch Co Ltd Montres Rado Sa Watch
US20100245078A1 (en) 2009-03-26 2010-09-30 Wellcore Corporation Wearable Motion Sensing Device
US20100250789A1 (en) 2009-03-27 2010-09-30 Qualcomm Incorporated System and method of managing memory at a portable computing device and a portable computing device docking station
US9189472B2 (en) 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
EP2425302B1 (en) 2009-04-26 2019-03-13 NIKE Innovate C.V. Athletic watch
WO2010125744A1 (ja) 2009-04-28 2010-11-04 三菱電機株式会社 入力装置
JP5263833B2 (ja) 2009-05-18 2013-08-14 国立大学法人 奈良先端科学技術大学院大学 ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法
EP2256592A1 (en) 2009-05-18 2010-12-01 Lg Electronics Inc. Touchless control of an electronic device
US8294105B2 (en) 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
US8287320B2 (en) 2009-05-22 2012-10-16 John Mezzalingua Associates, Inc. Coaxial cable connector having electrical continuity member
JP5282661B2 (ja) 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
USD626551S1 (en) 2009-05-26 2010-11-02 Implanet Combined PDA device and base station
USD615955S1 (en) 2009-05-26 2010-05-18 Samsung Electronics Co., Ltd. Mobile phone
WO2010137325A1 (ja) 2009-05-27 2010-12-02 パナソニック株式会社 行動認識装置
US20100304673A1 (en) 2009-05-29 2010-12-02 Junichi Yoshizawa Wireless Communication Apparatus and Wireless Communication Method
US9239740B2 (en) 2009-06-16 2016-01-19 Microsoft Technology Licensing, Llc Program partitioning across client and cloud
US8560465B2 (en) 2009-07-02 2013-10-15 Samsung Electronics Co., Ltd Execution allocation cost assessment for computing systems and environments including elastic computing systems and environments
CH701440A2 (fr) 2009-07-03 2011-01-14 Comme Le Temps Sa Montre-bracelet à écran tactile et procédé d'affichage sur une montre à écran tactile.
WO2011008861A2 (en) 2009-07-14 2011-01-20 Eatoni Ergonomics, Inc Keyboard comprising swipe-switches performing keyboard actions
US8818274B2 (en) 2009-07-17 2014-08-26 Qualcomm Incorporated Automatic interfacing between a master device and object device
US8245234B2 (en) 2009-08-10 2012-08-14 Avaya Inc. Credit scheduler for ordering the execution of tasks
USD612269S1 (en) 2009-08-13 2010-03-23 P.S.L. Limited Slap-on watch
US8060560B2 (en) 2009-08-27 2011-11-15 Net Power And Light, Inc. System and method for pervasive computing
JP5254906B2 (ja) 2009-08-27 2013-08-07 京セラ株式会社 電子機器
US8572375B2 (en) 2009-09-23 2013-10-29 Microsoft Corporation Device pairing based on graphically encoded data
US8717291B2 (en) 2009-10-07 2014-05-06 AFA Micro Co. Motion sensitive gesture device
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US8279052B2 (en) 2009-11-04 2012-10-02 Immersion Corporation Systems and methods for haptic confirmation of commands
WO2011066343A2 (en) 2009-11-24 2011-06-03 Next Holdings Limited Methods and apparatus for gesture recognition mode control
US10095276B2 (en) 2009-11-25 2018-10-09 Visa International Service Association Information access device and data transfer
USD627718S1 (en) 2009-12-11 2010-11-23 Black & Decker Inc. Charger base for a hand-held vacuum cleaner
KR20110069958A (ko) 2009-12-18 2011-06-24 삼성전자주식회사 프로젝터 기능의 휴대 단말기의 데이터 생성 방법 및 장치
CA135976S (en) 2009-12-23 2011-11-24 Simone Dalla Libera Watch
US9229779B2 (en) 2009-12-28 2016-01-05 Empire Technology Development Llc Parallelizing heterogeneous network communications in smart devices based on selection of task allocation strategy
US20120256959A1 (en) 2009-12-30 2012-10-11 Cywee Group Limited Method of controlling mobile device with touch-sensitive display and motion sensor, and mobile device
EP2341420A1 (en) * 2010-01-04 2011-07-06 Research In Motion Limited Portable electronic device and method of controlling same
KR101697937B1 (ko) 2010-01-08 2017-02-01 삼성전자주식회사 멀티프로세서 시스템에서 동적 태스크 마이그레이션을 위한 방법 및 시스템
CN101815326B (zh) 2010-01-11 2011-06-15 北京邮电大学 基于协商的无线传感器网络任务分配方法
US9298270B2 (en) 2010-02-03 2016-03-29 Korea University Research And Business Foundation Written character inputting device and method
KR20110098477A (ko) * 2010-02-26 2011-09-01 신규호 원형자판을 이용한 문자입력방법 및 이를 지원하는 단말기
US8869263B2 (en) 2010-02-26 2014-10-21 Blackberry Limited Wireless communications system providing mobile device authentication bypass based upon user-wearable security device and related methods
US20120194551A1 (en) 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with user-action based command and control of external devices
US20110219427A1 (en) 2010-03-04 2011-09-08 RSSBus, Inc. Smart Device User Authentication
KR101659023B1 (ko) 2010-03-15 2016-09-23 엘지전자 주식회사 와치형 이동 단말기
US8370878B2 (en) 2010-03-17 2013-02-05 Verizon Patent And Licensing Inc. Mobile interface for accessing interactive television applications associated with displayed content
CH702862B1 (fr) 2010-03-30 2024-06-14 Smart Communications Sa Montre bracelet à affichage électronique.
US9811385B2 (en) 2010-04-28 2017-11-07 Wind River Systems, Inc. Optimizing task management
JP5681865B2 (ja) 2010-05-10 2015-03-11 レノボ・イノベーションズ・リミテッド(香港) ユーザーインターフェース装置
US8683377B2 (en) 2010-05-12 2014-03-25 Adobe Systems Incorporated Method for dynamically modifying zoom level to facilitate navigation on a graphical user interface
US20130057774A1 (en) 2010-05-19 2013-03-07 Sharp Kabushiki Kaisha Reproduction device, display device, television receiver, system, recognition method, program, and recording medium
US20110289519A1 (en) 2010-05-21 2011-11-24 Frost Gary R Distributing workloads in a computing platform
US8750857B2 (en) 2010-06-04 2014-06-10 Qualcomm Incorporated Method and apparatus for wireless distributed computing
US8935317B2 (en) 2010-06-23 2015-01-13 Microsoft Corporation Dynamic partitioning of applications between clients and servers
USD631373S1 (en) 2010-06-29 2011-01-25 Worldwide Watch Company Limited Watch
WO2012009335A1 (en) 2010-07-14 2012-01-19 Dynavox Systems Llc A wearable speech generation device
US9532734B2 (en) 2010-08-09 2017-01-03 Nike, Inc. Monitoring fitness using a mobile device
JP5234066B2 (ja) 2010-08-25 2013-07-10 横河電機株式会社 機器情報表示装置及び機器情報表示方法
CN103080920B (zh) 2010-08-29 2016-04-20 沃斯科德科技有限公司 用于无客户端移动电话中的多任务的系统和方法
US9007304B2 (en) 2010-09-02 2015-04-14 Qualcomm Incorporated Methods and apparatuses for gesture-based user input detection in a mobile device
US9489016B2 (en) 2010-09-08 2016-11-08 Live Lids, Inc. Electronic display wearable item
KR101219933B1 (ko) 2010-09-13 2013-01-08 현대자동차주식회사 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법
WO2012037200A2 (en) 2010-09-15 2012-03-22 Spetalnick Jeffrey R Methods of and systems for reducing keyboard data entry errors
USD645360S1 (en) 2010-09-17 2011-09-20 Simpel, LLC Slap band watch
USD669369S1 (en) 2010-09-20 2012-10-23 Daniel Rasumowsky Watch
US8595289B2 (en) 2010-09-21 2013-11-26 Telefonaktiebolaget L M Ericsson (Publ) Cloud phone with distributed processing
US20130165180A1 (en) 2010-09-27 2013-06-27 Adobe Systems Incorporated Integrating Operation Of Consumer Electronic Devices
US20120075204A1 (en) 2010-09-27 2012-03-29 Google Inc. Using a Touch-Sensitive Display of a Mobile Device with a Host Computer
JP2012073830A (ja) 2010-09-29 2012-04-12 Pioneer Electronic Corp インターフェース装置
US8345412B2 (en) 2010-10-01 2013-01-01 Hex Holdings, Llc Wrist band for portable electronic devices
US9462444B1 (en) 2010-10-04 2016-10-04 Nortek Security & Control Llc Cloud based collaborative mobile emergency call initiation and handling distribution system
US8506158B2 (en) 2010-10-12 2013-08-13 P.S.L. Limited Watch
AU334766S (en) 2010-10-13 2011-01-24 Swarovski Ag Case for a wristwatch
US20120096345A1 (en) 2010-10-19 2012-04-19 Google Inc. Resizing of gesture-created markings for different display sizes
US8635630B2 (en) 2010-10-25 2014-01-21 Microsoft Corporation Application lifetime management
JP2012098771A (ja) 2010-10-29 2012-05-24 Sony Corp 画像処理装置および方法、並びに、プログラム
US8814754B2 (en) 2010-11-01 2014-08-26 Nike, Inc. Wearable device having athletic functionality
US8184983B1 (en) 2010-11-12 2012-05-22 Google Inc. Wireless directional identification and subsequent communication between wearable electronic devices
USD640948S1 (en) 2010-11-15 2011-07-05 Hook-Link, LLC Magnetically hooking bracelet
JP2012108771A (ja) 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム
US8195313B1 (en) 2010-11-19 2012-06-05 Nest Labs, Inc. Thermostat user interface
JP5733656B2 (ja) 2010-11-25 2015-06-10 公立大学法人会津大学 ジェスチャ認識装置及びジェスチャ認識方法
US9155168B2 (en) 2010-12-03 2015-10-06 Surefire, Llc Wearable lighting device
CN102572565A (zh) 2010-12-15 2012-07-11 深圳市同洲软件有限公司 一种移动终端控制数字电视接收终端方法、装置和系统
USD640936S1 (en) 2011-01-01 2011-07-05 Teresa Teixeia Combined watch and bracelet
USD636686S1 (en) 2011-01-04 2011-04-26 Nike, Inc. Watch
EP2474950B1 (en) 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
US9436286B2 (en) 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
USD651099S1 (en) 2011-01-10 2011-12-27 Montblanc-Simplo Gmbh Watch case
KR101690117B1 (ko) 2011-01-19 2016-12-27 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 멀티모달 및 제스처 제어를 위한 방법 및 시스템
US20120209413A1 (en) 2011-02-14 2012-08-16 Microsoft Corporation Background Audio on Mobile Devices
US9645986B2 (en) 2011-02-24 2017-05-09 Google Inc. Method, medium, and system for creating an electronic book with an umbrella policy
USD678081S1 (en) 2011-03-14 2013-03-19 Montblanc-Simplo Gmbh Watchcase
CN102859470B (zh) 2011-03-15 2015-12-02 松下电器(美国)知识产权公司 对象控制装置、对象控制方法以及集成电路
US8655027B1 (en) 2011-03-25 2014-02-18 The United States of America, as represented by the Director, National Security Agency Method of image-based user authentication
KR20130136566A (ko) 2011-03-29 2013-12-12 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US10630795B2 (en) 2011-03-31 2020-04-21 Oath Inc. Systems and methods for transferring application state between devices based on gestural input
CN103563346B (zh) 2011-03-31 2017-10-24 索尼移动通信公司 用于建立通信会话的系统和方法
US10061387B2 (en) 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
US8811964B2 (en) 2011-04-04 2014-08-19 Numera, Inc. Single button mobile telephone using server-based call routing
USD661206S1 (en) 2011-04-06 2012-06-05 Garmin Switzerland Gmbh Electronic device
USD659093S1 (en) 2011-04-08 2012-05-08 The Gillette Company Charger
US9152373B2 (en) 2011-04-12 2015-10-06 Apple Inc. Gesture visualization and sharing between electronic devices and remote displays
KR101836403B1 (ko) 2011-04-12 2018-04-19 엘지전자 주식회사 디스플레이 장치의 리모콘 기능을 수행하는 이동 단말기
US8928589B2 (en) 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
JP5824859B2 (ja) 2011-05-02 2015-12-02 船井電機株式会社 携帯端末
CA2835120C (en) 2011-05-06 2019-05-28 Magic Leap, Inc. Massive simultaneous remote digital presence world
US8978120B2 (en) 2011-05-18 2015-03-10 Panasonic Intellectual Property Management Co., Ltd. Communication control system and method, and communication device and method
KR101844222B1 (ko) 2011-05-27 2018-04-02 엘지전자 주식회사 이동 단말기 및 이것의 모드 제어 방법
JP2012248067A (ja) 2011-05-30 2012-12-13 Canon Inc 情報入力装置、その制御方法、および制御プログラム
KR20120134732A (ko) 2011-06-03 2012-12-12 삼성전자주식회사 원격제어기를 이용하여 웹 브라우징을 수행하는 장치 및 방법
US20120317024A1 (en) 2011-06-10 2012-12-13 Aliphcom Wearable device data security
US20120316456A1 (en) 2011-06-10 2012-12-13 Aliphcom Sensory user interface
KR101819506B1 (ko) 2011-06-28 2018-01-17 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8194036B1 (en) 2011-06-29 2012-06-05 Google Inc. Systems and methods for controlling a cursor on a display using a trackpad input device
KR101251250B1 (ko) 2011-07-01 2013-04-08 알서포트 주식회사 원격 디바이스 드라이버를 이용한 원격 제어 시스템 및 원격 디바이스 드라이버를 이용한 원격 제어 방법
RU2455676C2 (ru) 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US8184070B1 (en) 2011-07-06 2012-05-22 Google Inc. Method and system for selecting a user interface for a wearable computing device
US8228315B1 (en) 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US20130018659A1 (en) 2011-07-12 2013-01-17 Google Inc. Systems and Methods for Speech Command Processing
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US20130021374A1 (en) 2011-07-20 2013-01-24 Google Inc. Manipulating And Displaying An Image On A Wearable Computing System
US9015708B2 (en) 2011-07-28 2015-04-21 International Business Machines Corporation System for improving the performance of high performance computing applications on cloud using integrated load balancing
US9256361B2 (en) 2011-08-03 2016-02-09 Ebay Inc. Control of search results with multipoint pinch gestures
USD650706S1 (en) 2011-08-08 2011-12-20 Blue Sky SRL Wrist watch
US8641306B2 (en) 2011-08-16 2014-02-04 Argotext Wristwatch keyboard
USD661275S1 (en) 2011-08-19 2012-06-05 Cox Communications, Inc. Mobile communications device with wrist band
US9720708B2 (en) 2011-08-19 2017-08-01 Advanced Micro Devices, Inc. Data layout transformation for workload distribution
USD654431S1 (en) 2011-08-29 2012-02-21 Eveready Battery Company, Inc. Charger for a lighting device
US9529448B2 (en) 2011-08-31 2016-12-27 Farzan Fallah Data entry systems and methods
US9173090B2 (en) 2011-09-15 2015-10-27 Teletech Holdings, Inc. Method for activating services associated with a product via a service center supporting a variety of products
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
CN103034362B (zh) 2011-09-30 2017-05-17 三星电子株式会社 移动终端中处理触摸输入的方法和设备
US9336687B2 (en) 2011-10-11 2016-05-10 Teletech Holdings, Inc. Method for providing learning courses via a service center supporting a variety of products
US8707211B2 (en) 2011-10-21 2014-04-22 Hewlett-Packard Development Company, L.P. Radial graphical user interface
US8467270B2 (en) 2011-10-26 2013-06-18 Google Inc. Smart-watch with user interface features
US8279716B1 (en) 2011-10-26 2012-10-02 Google Inc. Smart-watch including flip up display
US9936036B2 (en) 2011-10-28 2018-04-03 Sharp Laboratories Of America, Inc. Method and system for indirectly establishing a unique communication channel between a plurality of devices
US8935629B2 (en) 2011-10-28 2015-01-13 Flipboard Inc. Systems and methods for flipping through content
CN102368200A (zh) 2011-10-28 2012-03-07 青岛海信移动通信技术股份有限公司 一种触摸屏解锁方法及具有触摸屏的电子产品
US9164589B2 (en) 2011-11-01 2015-10-20 Intel Corporation Dynamic gesture based short-range human-machine interaction
WO2013067392A1 (en) 2011-11-02 2013-05-10 Hendricks Investment Holdings, Llc Device navigation icon and system, and method of use thereof
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
US9288229B2 (en) 2011-11-10 2016-03-15 Skype Device association via video handshake
US9007302B1 (en) 2011-11-11 2015-04-14 Benjamin D. Bandt-Horn Device and user interface for visualizing, navigating, and manipulating hierarchically structured information on host electronic devices
US9183658B2 (en) 2011-11-14 2015-11-10 Microsoft Technology Licensing, Llc Animation creation and management in presentation application programs
US20130120106A1 (en) 2011-11-16 2013-05-16 Motorola Mobility, Inc. Display device, corresponding systems, and methods therefor
US20130132848A1 (en) 2011-11-18 2013-05-23 Apple Inc. Application interaction via multiple user interfaces
US20140330900A1 (en) 2011-11-23 2014-11-06 Evernote Corporation Encounter-driven personal contact space
US8676123B1 (en) 2011-11-23 2014-03-18 Evernote Corporation Establishing connection between mobile devices using light
US9162144B2 (en) 2011-12-05 2015-10-20 Microsoft Technology Licensing, Llc Portable device pairing with a tracking system
KR101242390B1 (ko) 2011-12-29 2013-03-12 인텔 코오퍼레이션 사용자를 인증하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
US9137627B2 (en) 2011-12-30 2015-09-15 Linkedin Corporation Systems and methods for mobile device pairing
USD671858S1 (en) 2012-01-18 2012-12-04 Nike, Inc. Wristband
USD664881S1 (en) 2012-01-18 2012-08-07 Nike, Inc. Wristband
USD664880S1 (en) 2012-01-18 2012-08-07 Nike, Inc. Wristband
EP2618239B1 (en) 2012-01-19 2016-10-05 BlackBerry Limited Next letter prediction for virtual keyboard
US9026461B2 (en) 2012-01-23 2015-05-05 Bank Of America Corporation Enhanced mobile application for assisting users at a point of transaction
US9367085B2 (en) 2012-01-26 2016-06-14 Google Technology Holdings LLC Portable electronic device and method for controlling operation thereof taking into account which limb possesses the electronic device
US8872849B2 (en) 2012-01-27 2014-10-28 Microsoft Corporation Relational rendering of multi-faceted data
US20130198056A1 (en) 2012-01-27 2013-08-01 Verizon Patent And Licensing Inc. Near field communication transaction management and application systems and methods
JP5193404B2 (ja) 2012-02-10 2013-05-08 オリンパスイメージング株式会社 情報機器
US20130211843A1 (en) 2012-02-13 2013-08-15 Qualcomm Incorporated Engagement-dependent gesture recognition
USD687736S1 (en) 2012-02-16 2013-08-13 Christopher D. Wycoff Bracelet with removable chip
US9186077B2 (en) 2012-02-16 2015-11-17 Google Technology Holdings LLC Method and device with customizable power management
WO2013130682A1 (en) 2012-02-27 2013-09-06 5 Examples, Inc. Date entry system controllers for receiving user input line traces relative to user interfaces to determine ordered actions, and related systems and methods
US8947382B2 (en) 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
US20130254705A1 (en) 2012-03-20 2013-09-26 Wimm Labs, Inc. Multi-axis user interface for a touch-screen enabled wearable device
US10332112B2 (en) 2012-03-27 2019-06-25 International Business Machines Corporation Authentication for transactions using near field communication
USD680541S1 (en) 2012-04-11 2013-04-23 Coby Electronics Corp. Docking station for a portable media player
USD672255S1 (en) 2012-04-16 2012-12-11 I'M SpA Watch
US20130300719A1 (en) 2012-05-10 2013-11-14 Research In Motion Limited Method and apparatus for providing stylus orientation and position input
CN102681786B (zh) 2012-05-14 2014-12-24 华为技术有限公司 文本选择的方法及装置
US9619282B2 (en) 2012-08-21 2017-04-11 Lenovo (Singapore) Pte. Ltd. Task scheduling in big and little cores
US9360997B2 (en) 2012-08-29 2016-06-07 Apple Inc. Content presentation and interaction across multiple displays
US20140078065A1 (en) 2012-09-15 2014-03-20 Ahmet Akkok Predictive Keyboard With Suppressed Keys
US8963806B1 (en) 2012-10-29 2015-02-24 Google Inc. Device authentication
US9373230B2 (en) 2012-10-31 2016-06-21 Wal-Mart Stores, Inc. Customer reprint of a physical receipt from an electronic receipt
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US9030446B2 (en) 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US20140181758A1 (en) 2012-12-20 2014-06-26 Research In Motion Limited System and Method for Displaying Characters Using Gestures
US10063598B2 (en) 2012-12-28 2018-08-28 Nokia Technologies Oy Method and apparatus for establishing, authenticating, and accessing a content channel
US20160132233A1 (en) * 2013-02-17 2016-05-12 Keyless Systems Ltd. Data entry systems
US9274685B2 (en) 2013-03-15 2016-03-01 Google Technology Holdings LLC Systems and methods for predictive text entry for small-screen devices with touch-based two-stage text input
US20140282274A1 (en) 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a gesture performed with at least two control objects
US20140306898A1 (en) * 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Key swipe gestures for touch sensitive ui virtual keyboard
US9022291B1 (en) 2014-07-24 2015-05-05 Apple Inc. Invisible optical label for transmitting information between computing devices
US10326590B2 (en) 2014-11-11 2019-06-18 Intel Corporation Technologies for trusted device on-boarding

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020122031A1 (en) * 2001-03-01 2002-09-05 International Business Machines Corporation Character input interface for compact electronic devices
CN101052939A (zh) * 2004-07-30 2007-10-10 苹果电脑有限公司 用于触敏输入设备的基于模式的图形用户接口
US20070236475A1 (en) * 2006-04-05 2007-10-11 Synaptics Incorporated Graphical scroll wheel
US8335993B1 (en) * 2008-10-24 2012-12-18 Marvell International Ltd. Enhanced touch sensitive interface and methods and software for making and using the same
CN101876878A (zh) * 2009-04-29 2010-11-03 深圳富泰宏精密工业有限公司 单词预测输入系统及方法
CN102117178A (zh) * 2009-12-30 2011-07-06 Lg电子株式会社 移动终端的显示装置和控制该显示装置的方法
US20110221685A1 (en) * 2010-03-11 2011-09-15 Jeffery Theodore Lee Device, Method, and Graphical User Interface for Performing Character Entry
CN103038728A (zh) * 2010-03-12 2013-04-10 纽昂斯通信有限公司 例如在移动电话上使用触摸屏的多模式文本输入系统
US20120105312A1 (en) * 2010-10-29 2012-05-03 Microsoft Corporation User Input Device
CN103534676A (zh) * 2012-04-30 2014-01-22 黑莓有限公司 具有先前输入文本校正的触摸屏键盘
CN102779002A (zh) * 2012-06-19 2012-11-14 邓朝进 一种触摸屏键盘及其输入方法
US20140049477A1 (en) * 2012-08-14 2014-02-20 Motorola Mobility Llc Systems and Methods for Touch-Based Two-Stage Text Input
CN103488420A (zh) * 2013-09-02 2014-01-01 宇龙计算机通信科技(深圳)有限公司 虚拟键盘调整的方法和装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106686497A (zh) * 2016-12-27 2017-05-17 广东小天才科技有限公司 一种可穿戴设备的音量调整方法及可穿戴设备
CN106873899A (zh) * 2017-03-21 2017-06-20 网易(杭州)网络有限公司 输入信息的获取方法及装置、存储介质和处理器
CN108594935A (zh) * 2018-04-10 2018-09-28 努比亚技术有限公司 一种穿戴设备控制方法、设备及计算机可读存储介质
CN108594935B (zh) * 2018-04-10 2021-09-07 努比亚技术有限公司 一种穿戴设备控制方法、设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN106233240B (zh) 2020-11-24
EP3111314A1 (en) 2017-01-04
EP3111314A4 (en) 2017-10-25
KR102319421B1 (ko) 2021-10-29
WO2015130150A1 (en) 2015-09-03
US20150248235A1 (en) 2015-09-03
US10691332B2 (en) 2020-06-23
KR20160128378A (ko) 2016-11-07

Similar Documents

Publication Publication Date Title
CN106233240A (zh) 交互式显示器上的文本输入
CN104919389B (zh) 可穿戴电子设备上的光学传感器的放置
CN104919393B (zh) 可穿戴电子设备的转变和交互模型
CN104919394B (zh) 涉及设备的运动的可穿戴电子设备的用户手势输入
CN104919390B (zh) 可穿戴电子设备
CN104919379B (zh) 可穿戴电子设备的转变和交互模型
JP6804586B2 (ja) 着用式電子デバイスでのgui転移
CN104919420B (zh) 从可穿戴电子设备委托处理
CN104919421B (zh) 利用可穿戴电子设备控制远程电子设备
JP6463598B2 (ja) 着用式電子デバイスからのプロセッシングの委任

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201124