CN105917291A - 具有多模式显示系统的可穿戴设备 - Google Patents

具有多模式显示系统的可穿戴设备 Download PDF

Info

Publication number
CN105917291A
CN105917291A CN201480072623.8A CN201480072623A CN105917291A CN 105917291 A CN105917291 A CN 105917291A CN 201480072623 A CN201480072623 A CN 201480072623A CN 105917291 A CN105917291 A CN 105917291A
Authority
CN
China
Prior art keywords
user
display
image
hand
display system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201480072623.8A
Other languages
English (en)
Inventor
J·拉尼尔
J·S·科林
W·T·布兰克
D·伯格
P·塞里恩
J·L·瓦斯科
I·伍德
R·W·里莱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN105917291A publication Critical patent/CN105917291A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/02Detectors of external physical values, e.g. temperature
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开了涉及可穿戴多模式显示系统的实施例。在一个公开的实施例中,经由显示设备以第一显示模式显示第一紧凑图像,其中第一紧凑图像具有与第一应用相对应的第一显示分辨率。当处于第一显示模式时,接收来自用户的手腕或手部的主用户输入。作为响应,显示不同的第二紧凑图像。当该设备距用户小于预定距离时,以第二显示模式显示具有更高的显示分辨率的应用图像。当处于第二显示模式时,接收来自用户的手腕或手部的次用户输入。作为响应,在应用图像内控制图形用户界面元素。

Description

具有多模式显示系统的可穿戴设备
背景技术
移动设备(诸如智能电话)的用户希望在他们设备中有最大的便利性和使用性。可以调整这些设备的各种设计元素来增强它们的便利性和使用性。例如,可以通过最小化设备的尺寸和重量来突出设备的便携性。可以经由特定的形状因素(诸如头戴式显示器(HMD)或其它近眼显示设备)来提供对设备容易和快速的用户访问。另一方面,用户还想要他们的设备给出丰富、高质量的媒体体验,比如生成高分辨率图像和提供稳健的用户交互特征。
在为了改进设备使用性的一些示例尝试中,智能电话屏幕已经利用日渐增长的像素密度和更大的显示区域。然而,这些更大的设备可能负面地影响便携性和其他使用性和便利性准则。一些设备已经并入了诸如捏动缩放/滚动之类的用户界面功能以提供增强的交互可能性。然而,这样的方法利用用户的一只手来拿住设备并且利用利用另一只手来与设备交互,而使得这样的交互更复杂并减少了这样的设备的总体便利性。
虽然HMD识别使得穿戴者能够立即访问设备显示器,但是这样的设备不是没有其短处的。例如,一些用户不喜欢在穿戴HMD设备时他们的外观。另外,由于HMD设备持续地就位并潜在地捕获数据,因此可能产生关于第三方隐私的顾虑。
发明内容
本文公开了涉及由用户的手腕或手部可致动的可穿戴多模式显示系统的各个实施例。例如,一个公开的实施例提供了一种多模式显示系统,该多模式显示系统包括被可操作地连接到计算设备的显示设备。该显示设备包括显示堆叠,该显示堆叠包括主图像显示系统和次图像显示系统。主图像显示系统包括被配置为以第一显示模式显示第一紧凑图像的显示屏,其中第一紧凑图像包括与第一应用对应的第一显示分辨率。次图像显示系统被配置为当显示设备被检测到距用户小于预定距离时以第二显示模式显示应用图像。应用图像具有与第一应用对应的更高的第二显示分辨率。
由计算设备的处理器执行显示模式程序。该显示模式程序被配置为在显示设备处于第一显示模式时接收来自用户的手腕或手部的主用户输入。响应于主用户输入,该程序被配置为显示不同的第二紧凑图像而不是第一紧凑图像。该程序还被配置为在显示设备处于第二显示模式时接收来自用户的手腕或手部的次用户输入。响应于次用户输入,该程序被配置为控制在应用图像中显示的图形用户界面元素。
提供本发明内容以按简化形式介绍概念的选择,这些概念在下面的具体实施方式中进一步进行描述。本发明内容不旨在于标识要求保护的主题的关键特征或必要特征,其也不旨在于用来限制要求保护的主题的范围。此外,要求保护的主题不限于解决本公开中任何部分提到的任何或所有缺点的实现方式。
附图说明
图1是根据本公开的实施例的可穿戴多模式显示系统的示意图。
图2是用户查看在距用户第一距离处的可穿戴多模式显示系统的实施例的示意图。
图3是用户在距用户不同的第二距离处查看图2的可穿戴多模式显示系统的实施例的示意图。
图4是示例紧凑图像和对应的应用图像的示意图。
图5是另一示例紧凑图像和对应的应用图像的示意图。
图6是另一示例紧凑图像和对应的应用图像的示意图。
图7是包括主图像显示系统和次图像显示系统的显示堆叠的实施例的示意图。
图8是可穿戴多模式显示系统的腕表实施例的示意图。
图9是穿戴图8的腕表实施例的用户的手部和手腕的示意侧视图。
图10是穿戴图8的腕表实施例的用户的手部和手腕的示意俯视图。
图11-15是用于可穿戴多模式显示系统的形状因素的各个实施例的示意图。
图16A和16B是根据本公开的实施例的多模式显示方法的流程图。
图17是计算设备的实施例的简化示意性图示。
具体实施方式
图1示出了根据本公开的实施例的可穿戴多模式显示系统10的一个实施例的示意图。可穿戴多模式显示系统10包括被可操作地连接到计算设备18的显示设备14。在一些示例中并如下文更详细描述地,显示设备14可以被嵌入在可穿戴设计或使能用户的单手输入的其他紧凑形状因素中。附加地并且取决于显示设备14距用户的眼睛的接近度,显示设备可以被配置为以第一显示分辨率示出第一数目的像素,或者以第二显示分辨率示出第二数目的像素。
例如,当位于距用户第一距离处时,显示设备14可以提供第一、相对较低的显示分辨率,其传达与应用对应的视觉信息的概要版本。当用户将显示设备14移动到距用户更小的第二距离时,显示设备14可以提供更高的第二显示分辨率,其包括与应用对应的较大量第二的视觉信息。附加地并且如下文更详细描述的,显示设备14可以被配置为使得用户能够通过用用户的单个手腕和/或手部提供输入,来对较低分辨率图像和较高分辨率图像两者进行导航。在一些示例中,提供输入的单手可以与拿住显示设备所用的手是同一只手,或者是从显示设备被可移除地固定到的用户的手腕延伸出的手。在其他示例中,提供输入的手腕可以是显示设备被可移除的固定到的用户的手腕。
返回图1,如上文所提到的,显示设备14被可操作地连接到计算设备18。计算设备18包括可以被存储在大容量存储装置26中的显示模式程序22。显示模式程序22可以被加载到存储器30中并且由计算设备18的处理器34执行以执行下文更详细描述的方法和过程中的一个或多个。
大容量存储装置26还可以包括第一应用36和第二应用38。在一些示例中,第一应用36和/或第二应用38可以位于应用服务器40上并且由计算设备经由网络44访问。网络44可以采用局域网(LAN)、广域网(WAN)、有线网络、无线网络、个域网、或其组合的形式,并且可以包括因特网。还将理解到可穿戴多模式显示系统10可以经由网络44与其他计算设备可操作地连接。关于可穿戴多模式显示系统10的部件和计算方面的附加细节在下文参照图17进行更详细描述。
如上文所提到的,移动计算设备的用户希望最大的便利性以及高质量和丰富的媒体体验。例如,用户想要对应用的全部能力和用户体验的容易和快速访问,同时还避免典型的与形状因素相关的不便,诸如伸向口袋寻找移动设备、戴上阅读眼睛来舒适地查看较小的可视物,或者反向捏动和滚动来对信息进行查看和导航。另外地并入上文所提到的,持续地穿戴HMD设备对于一些用户可能不是可接受的,并且可能导致由第三方隐私顾虑引起的社交紧张。
为了解决这些缺点中的一个或多个缺点,在一个示例中,可穿戴多模式显示系统10的显示设备14可以包括显示堆叠46,该显示堆叠46包括主图像显示系统48和次图像显示系统52。如下文关于可穿戴多模式显示系统10的示例实施例更详细解释地,主图像显示系统48可以包括被配置为在第一显示模式60下显示第一紧凑图像58的显示屏54,其中第一紧凑图像以与第一应用36对应的第一显示分辨率进行显示。
当用户将显示设备14带到更靠近用户的眼睛到距用户小于预定距离的位置时,显示模式程序22可以被配置为在第一显示模式60与第二显示模式64之间切换。在第二显示模式64中,主图像显示系统48被去激活并且次图像显示系统52被激活以显示具有(与第一紧凑图像58相比)更大的第二显示分辨率、并且与第一应用36相对应的第一应用图像66。有利地并且如在下文更详细解释的,以此方式,可穿戴多模式显示系统10促进了对与应用相对应的各种量的视觉信息的快速和方便的用户访问和在各种量的视觉信息之间的导航。
现在参照图2-4,在一个示例中,可穿戴多模式显示系统10可以采用能够可移除地附接到与用户204的手部212相邻的手腕区域的腕表200的形状因素。如图2所示,当腕表200被检测到距用户204的眼睛220大于预定距离216时,涉及到(engage)第一显示模式60。在一些示例中,预定距离可以在大约20毫米(mm)与180mm之间、在大约40毫米(mm)与大约160mm之间、在大约60毫米(mm)与140mm之间、大约80毫米(mm)与120mm之间,或者可以是大约100mm。在一些示例中,可能存在滞后,以使得图像模式一旦被触发则保持稳定,直到距离超过距离范围的另一端。
在这一示例中,第一显示模式60对应于显示与提供恶劣天气警告的天气应用相对应的天气紧凑图像208的腕表200的显示屏。如图4的示例所示,天气紧凑图像208具有第一显示分辨率,该第一显示分辨率呈现雷雨云和闪电束的可快速识别的图标以及惊叹号。有利地,通过短暂一瞥他的腕表200,用户204就能够立刻领会到天气警告意象并且由此确定恶劣天气事件可能即将发生。还将理解到针对天气紧凑图像208和针对本文所描述的其他紧凑图像和应用图像进行描述的特定图标、文本、布局和其他设计元素仅仅作为示例被提供,并且可以利用紧凑图像和应用图像的任何合适的内容和设计。
现在参照图3并且为了快速获得有关天气事件的附加信息,用户204可以将他的手部212和腕表200举起到更靠近他的眼睛220,以使得腕表距用户的眼睛小于预定距离。如上文所提到的,当腕表200被检测到距用户的眼睛220小于预定距离时,显示器模式程序22触发第二显示模式64。在这一示例中,第二显示模式60对应于在用户204的所感知的距离处显示天气应用图像304的腕表200的次图像显示系统52。有关次图像显示系统52的附加细节在下文提供。
如在图3和图4中所示的,天气应用图像304具有第二显示分辨率,该第二显示分辨率呈现比天气紧凑图像208的第一显示分辨率更大量的、与天气应用相对应的视觉信息。在图3和图4的示例中,并且如下文更详细解释的,天气应用图像304包括:说明警告与雷暴雨和强风相关的天气细节区域308、包括风暴316的雷达图像的地图区域312、指示风暴316距用户的当前位置的距离的距离区域320,以及提供有关用户的家人的状态更新的家人状态区域324。有利地,天气应用图像304向用户204提供了快速和方便访问的高分辨率图像,该高分辨率图像提供包含大量视觉信息的大屏幕用户体验。
再参照图1,第二应用68和对应的第二紧凑图像70和第二应用图像72可以被存储在大容量存储装置26中和/或位于应用服务器40上。现在参照图5并且在一个示例中,第二应用68可以包括购物应用,该购物应用包括购物紧凑图像500和购物应用图像504。在图5的示例中,购物紧凑图像500可以包括苹果的图像并且指示用户204在他的购物清单上有3个苹果的数字3。
购物应用图像504可以包括列表区域508,该列表区域508包括具有对应的数量的购物项目的列表。在一个示例中,列表区域508包括苹果的图像和数字3,以及指示苹果售价为4个卖$1.00并且可以在商店的农产品专区中的通道1上找到的提醒。核选标记可以指示列表上的项目已经被采购。购物应用图像504还可以包括类别区域512,该类别区域512包括要被采购的项目的不同类别。当类别之一被选择时,来自该类别的项目可以被显示在列表区域508和类别细节区域516中。购物应用图像504还可以包括显示总时价和已经被用户采购的项目的数量的菜篮子价格区域520。
现在参照图6并且在另一示例中,可以经由腕表200显示各自与导航应用对应的导航紧凑图像600和导航应用图像620。在一个示例中,导航紧凑图像600可以包括指示真北或磁北的指南针图像604、指示即将到来的导航动作的下一动作区域608、指示到目的地的距离的距离区域612,以及时间和日期区域616。
与导航紧凑图像600相似,导航应用图像620可以包括指南针图像624、下一动作区域628,以及距离区域632。除此之外,导航应用图像620还可以包括示出先前行进的路径636、当前位置640和建议路径644的地图626。导航应用图像620还可以包括旅程标题区域650和兴趣点区域654以及指示到兴趣点的距离的相邻的距离区域658。
如图2和图3所示,并且还参照图4-6,紧凑图像中的每个紧凑图像可以占据腕表显示屏的基本整体。以这一方式,可穿戴多模式显示系统10可以利用紧凑的形状因素显示设备,该显示设备向用户提供了可容易访问和快速标识的视觉信息。
还将理解到应用和对应的紧凑图像和应用图像的以上示例仅出于说明目的而被提供,并且其不应被认为以任何方式进行限制。可以在本公开的范围内利用许多其他的应用的对应的紧凑图像和应用图像。例如,住宅安全应用可以利用提供用户的住宅的安全状态的概要指示的紧凑图像。对应的应用图像可以包括关于安全状态的更多细节,诸如用户的住宅的透视图(rendering)、警报系统状态、门锁状态等。
现在参照图7,提供了显示设备14的示例显示堆叠46的示意性表示。显示堆叠46包括主图像显示系统48和次图像显示系统52。在图7的示例中,显示堆叠46包括分层配置,其中按夹层配置来利用用于主图像显示系统48的第一显示技术和用于次图像显示系统52的不同的第二显示技术。
在一些示例中,主图像显示系统48可以包括诸如冷光式或反射式液晶显示器(LCD)之类的漫射型显示器,或者任何其他合适的显示技术。主图像显示系统48可以包括显示堆叠46的最内层,并且可以包括被定位在发光部件704上的显示屏54。如上文所提到的,主图像显示系统48可以被配置为经由显示屏54显示一个或多个紧凑图像。
次图像显示系统52被定位在主图像显示系统48的发光侧708上。如上文所提到的并且在图3中示出的,次图像显示系统52被配置为如从用户的眼睛220的视角查看的、在显示堆叠46后面的感知距离处显示图像。在一个示例中,次图像显示系统52可以包括使能近眼查看模式的侧面定址的透明显示器。在这样的近眼显示系统中,与在主图像显示系统48的显示屏54处显示图像相比,用户感知到大得多的、更身临其境的图像。
如图7所示,在一些示例中,次图像显示系统52可以包括光波导结构720。诸如并入硅上液晶(LCoS)显示器的微投影器之类的微投影器724可以通过准直器728和入口光栅732将包括图像的光线投射到波导结构720中。在一个示例中,位于波导结构720内的部分反射性表面740可以从该结构朝着用户的眼睛220向外反射光线。在另一示例中,并且替代在波导结构720内的部分反射性表面740,可以在波导结构720的发光侧754上提供从波导结构720朝着用户的眼睛220向外发射光线的部分反射性出口光栅750。
此外,波导结构720和(一个或多个)出口光栅可以体现透明的手段,当微投影器724被去激活时(诸如当第一显示模式60为活跃时)透明的手段使得从主图像显示系统48发出的光能够行进通过波导结构和(一个或多个)出口光栅。有利地,这一配置通过同一物理窗口使得两个显示器和两个显示分辨率对于用户可用。
在其他示例中,具有夹层配置的显示堆叠可以包括在堆叠的顶层上的较低分辨率的主图像显示系统,以及在堆叠的底层上的更高分辨率的次图像显示系统。在这一配置中,主图像显示系统是透明的以提供通过堆叠的对次级显示系统的可见性。在一些示例中,主图像显示系统可以包括透明OLED显示器或任何其他合适的透明显示技术。
如上文所提到的,当显示设备14和显示堆叠46距用户大于预定距离时,可以利用第一显示模式60,在该第一显示模式中主图像显示系统48被激活并且次图像显示系统52被去激活。在第一显示模式60中并且参照图7的示例显示堆叠46,主图像显示系统48可以经由通过透明和去激活的次图像显示系统52可查看的显示屏54来显示紧凑图像。当用户将显示设备14和显示堆叠46带到距用户小于预定距离的位置时,显示模式程序22可以在第一显示模式60与第二显示模式64之间切换。更具体地,显示模式程序22可以去激活主图像显示系统48并且激活次图像显示系统52。
将理解到本文所描述的次图像显示系统52仅出于示例目的而被提供,并且可以利用其他合适的近眼成像模式、技术和相关部件,包括但不限于利用单折叠、双折叠和三折叠光学路径的折叠式光学系统。
现在参照图1和图8,将理解到显示设备14和计算设备18可以被集成到腕表200中。此外,多模式显示系统10还可以包括位于腕表200上或腕表200中的一个或多个传感器和相关的系统。例如,显示设备14和包括被用来感测环境光的一个或多个图像传感器78。参照图8中所示的腕表200,在这一示例中,一个或多个图像传感器78可以位于腕表周围的显示区域812的传感器区域804和/或808中。
显示设备14还可以包括测量显示设备14的加速度的加速度计80。在一些示例中,来自加速度计80的数据和来自(一个或多个)图像传感器78的数据可以用来确定腕表200与用户204的眼睛220之间的距离。例如,随着用户204将他的手腕抬起以将腕表200带到更靠近他的眼睛220,加速度计可以检测与这样的移动相关联的签名加速度。此外,随着腕表200和(一个或多个)图像传感器78移动得更靠近用户的眼睛220和脸时,由(一个或多个)图像传感器检测到的环境光可以相应地减少。例如,当腕表200位于距用户的眼睛200小于预定距离时,由(一个或多个)图像传感器检测到的环境光可以小于周围环境的总环境光的预定百分比。
因此,当加速度计80检测到腕表200的签名加速度并且(一个或多个)图像传感器78检测到环境光水平减少到低于预定百分比时,显示模式程序22可以确定腕表200已经被移动到距用户的眼睛220小于预定距离的位置。换而言之,当确定存在签名加速度和降低到预定百分比以下的环境光水平的组合时,腕表200可以被确定为已经被移动到距用户的眼睛220小于预定距离的位置。如上文所描述的,显示模式程序22可以然后在第一显示模式60与第二显示模式64之间切换。
在一些示例中,还可以利用这两个条件的时间关系。这样的时间关系的示例可以是每个条件在预定时间段(诸如1.0秒)内被满足,作为确定腕表200已经被移动到距用户的眼睛220小于预定距离的位置的又一条件。还将理解,上述检测腕表220与用户204之间的距离的方法出于示例的目的被呈现,其并不旨在于以任何方式是限制性的。
在其他示例中,显示设备14可以包括惯性测量单元(IMU),其利用加速度80和一个或多个其他传感器来捕获位置数据并且由此使能对显示设备的运动检测、位置跟踪和/或定向感测。将理解到可以在IMU中利用运动感测部件的任何合适的配置。在一些示例中,IMU可以还支持其他合适的定位技术,诸如GPS或其他全球导航系统。
显示设备14还可以包括应变仪84,其可以测量与显示设备相关联的腕带的应变、弯曲和/或形状。在图8中所示的腕表200的示例中,应变仪84可以位于带部分816和818中之一或两者中。在一些示例中,应变仪84可以包括由绝缘柔性托板支撑的金属箔图案。随着用户204移动和/或弯曲他的手部212,带部分816、818和集成的箔图案被变形,促使箔的电阻改变。测量这一电阻变化并且可以确定在带部分816、818上施加的对应的应变。
有利地并且如下文更详细解释的,可以利用应变仪84来检测用户的手部212的一个或多个运动并且对应地接收用户输入。例如,一侧到另一侧或上下的手部运动可以经由在手腕区域内的特定肌腱的对应的收缩和舒张来感测。在一些示例中,可以检测用户的手腕的总周长的改变以确定用户何时在握拳。可以将这些移动中的每个移动和关于紧凑图像或应用图像的特定用户输入指令相关。还将理解到可以与腕表200或其他显示设备14一起利用应变仪84的任何合适的配置。
显示设备14还可以包括一个或多个触敏表面86,其可以接收用户触摸输入。(一个或多个)触敏表面86可以利用例如电容性感测部件、电阻式感测部件或对触摸、力和/或压力敏感的任何其他合适的触觉感测部件。在图8中所示的示例腕表200中,(一个或多个)触敏表面86可以位于带部分816、818中之一或两者中、感测区域804、808之一或两者或在其他合适的位置。有利地并且如下文更详细解释的,可以利用(一个或多个)触敏表面86来检测与来自用户的手部或用户的脸部、头部或身体的其他部分的一个或多个触摸输入相对应的用户输入。在一些示例中,(一个或多个)触敏表面86还可以检测与用户的衣物或其他物体的接触。
在一些示例中,显示设备14还可以包括注视跟踪系统,该注视跟踪系统包括被配置为以注视跟踪数据形式从用户的眼睛获取图像数据的一个或多个图像传感器。在用户已经赞成这一信息的获取和使用的情况下,注视跟踪系统可以使用这一信息来跟踪用户的眼睛的位置和/或移动。注视跟踪系统可以被配置为以任何合适的方式来确定用户的一只或两只眼睛的注视方向。例如,一个或多个光源可以促使光的闪烁从用户的每只眼睛的胶膜反射。然后可以将一个或多个图像传感器配置为捕获用户的眼睛的图像。使用这一信息,注视跟踪系统然后可以确定用户正在注视的方向和/或什么位置、物理对象、和/或视觉对象。
显示设备14还可以包括一个或多个触感设备,其可以被用来以力、振动和/或运动的形式向用户204提供反馈。显示设备14还可以包括麦克风系统92,该麦克风系统92包括用于捕获音频数据的一个或多个麦克风。在其他示例中,可以经由显示设备14的一个或多个扬声器94向用户呈现音频。
现在转向图9和图10,图示了用户204经由手部移动向多模式显示系统10提供用户输入的示例。参照图9,在一个示例中,用户204可以通过在动作箭头U的方向上向上、或在动作箭头D的方向上向下弯曲用户的手部212来提供用户输入。如图10所示,用户204还可以通过在动作箭头L的方向上向左、或在动作箭头R的方向上向右弯曲用户的手部212来提供用户输入。
腕表200可以以任何合适的方式来检测用户的手部212的这样的移动。在一个示例中,腕表200的IMU 80可以检测这样的移动。在其他示例中,一个或多个图像传感器78可以利用用户的手部212的图像数据来确定手部移动的方向。在其他示例中,应变仪84可以经由与应变仪相邻的手腕区域中的肌腱状态来感测这样的移动。应变仪84还可以感测与用户输入对应的与用户的手部212相关的移动,诸如握拳手势。
在其他示例中,用户204可以经由位于腕表200的带部分816、818中之一或两者中的触敏表面86来提供触摸输入。在另一个示例中,来自上述传感器中的两个或更多个的数据可以被分析以确定用户输入。此外,在一些示例中语音数据可以经由麦克风系统92被接收并且与上述感测方法和技术中的一个或多个组合利用以获得用户输入。
还参照图2和图3,在一个示例中,可以利用按图9和图10图示的方式的用户的手部212的移动以在第一显示模式60中选择性地显示不同的紧凑图像,并且在第二显示模式64中在应用图像的视觉信息内进行导航。例如并且如图2所示,用户204可以初始地查看经由主图像显示系统48的、被显示在外部200上的天气紧凑图像208。
为了查看不同的紧凑图像,用户204可以通过在动作箭头R的方向上向右轻拂他的手部212来提供主用户输入96。在接收到这一主用户输入96时,显示模式程序22可以经由主图像显示系统48显示与同一天气应用相对应的不同的紧凑图像。在一些示例中,不同的紧凑图像可以与不同的应用相对应。
在一些示例中,两个或更多个紧凑图像可以按线性、顺序的样式被布置。在这些示例中,用户204可以利用两个不同的手部运动来沿着紧凑图像的线性布置进行导航。例如,向右轻拂用户的手部212显示位于当前紧凑图像的右边的紧凑图像,而向左轻拂手显示位于当前图像的左边的紧凑图像。
在其他示例中,紧凑图像可以被布置在二维阵列中。在这些示例中,用户204可以利用四个不同的手部运动来在图像的阵列之中进行导航。例如,除了左和右的手部移动之外,在动作箭头U的方向上向上、和在动作箭头D的方向上向下移动用户的手部212可以显示在二维阵列中相应地位于当前图像上方和下方的紧凑图像。
此外,在一些示例中,预定手部运动可以与对当前显示的紧凑图像的选择相对应。例如,用户204可以通过执行握拳手势来选择当前显示的紧凑图像。在一些示例中,这样的选择可以触发对次图像显示系统52的激活和对与当前显示的紧凑图像相对应的应用图像的显示。
在另一示例中并且参照图3,当次图像显示系统52为活跃时,用户204可以通过提供包括手部移动的次用户输入98来在次显示模式64中被显示的应用图像的视觉信息内进行导航。次用户输入能够被用来控制在应用图像中所显示的图形用户界面元素。如图3所示,在一个示例中,光标330可以被显示并且四处穿越天气应用图像304的视觉信息。例如,当用户204如图9和图10所图示地向左、向右、向上或向下移动他的手部212时,可以使光标330形式的图形用户界面元素在对应的方向上在天气应用图像304内进行穿越。
在另一示例中,控制图形用户界面元素可以包括突出显示应用图像内的可选择项目。作为示例并参照图5,虽然光标图像可能不是可见的,但是在这一示例中,用户204可以通过上述方式移动他的手部212以突出显示想要的可选择项目(诸如类别细节区域516中的苹果项目530)来进行导航。
还将理解到,主用户输入96和次用户输入98可以包括相同的手部移动或手势。例如,虽然向左的手部移动在第一显示模式中可以显示不同的紧凑图像,但是同一向左的手部移动在第二显示模式64中可以使光标在应用图像内向左穿越。
如在第一显示模式60中,在一些示例中,当用户执行握拳手势时,可以在第二显示模式64中提供选择输入。在一个示例中并且再次参照图3,当用户执行握拳手势时,地图区域312的、以光标330的位置为中心的区域可以被放大。
将理解到用于将用户手部移动与对应的在紧凑图像和应用图像之间的导航和选择相关的上述方法仅出于示例目的被提供,并且其不旨在于以任何方式是限制性的。另外,要理解到在其他实施例中,可以利用用户的手部的任何其他合适的移动来在紧凑图像或应用图像之间进行导航,并且可以利用在特定移动与要经由显示模式程序22执行的动作之间的任何其他合适的关联。
现在参照图11-15,呈现了其他形状因素的多功能显示系统10的其他实施例的示例。要理解到这些实施例中的每个可以包括上述的系统、传感器、部件和其他计算方面中的一个或多个。例如,图11示意性图示了以怀表1100实现的多模式显示系统10。显示器1104包括如上文所述的主图像显示系统和次图像显示系统。在一些示例中,怀表1100可以包括沿着其周长1108的一个或多个部分和/或在表的与显示器1104相对的后表面上的触敏表面。这样的(一个或多个)触摸表面可以被配置为如上所述地接收用户输入。
在一些示例中,怀表1100可以被配置为在活跃部分1112中容纳显示器1104、(一个或多个)触敏表面和其他交互部件和系统。活跃部分1112可以由链1114栓到被动部分1116,该被动部分1116可以包括例如电池或其他电源和一个或多个天线。在这一配置中,用户可以拿着活跃部分1112并且与活跃部分1112交互,而被动部分1116可以保留在一件衣物的口袋中。
图12示意性图示了以垂饰项链1200实现的多模式显示系统10。显示器1204可以被安装在垂饰1206上并且包括如上所述的主图像显示系统和次图像显示系统。在一些示例中,垂饰项链1200可以包括在面向前的表面1208和/或在与面向前的表面相对的后表面上的触敏表面。这样的(一个或多个)触摸表面可以被配置为如上所述地接收用户输入。
正如怀表1100,在一些示例中,垂饰项链1200可以被配置为在垂饰1206或活跃部分中容纳显示器1204、(一个或多个)触敏表面和其他交互部件和系统。垂饰1206可以由链1214连接到被动部分(未示出),该被动部分当垂饰项链1200被穿戴时可以位于用户的颈后。被动部分可以包括例如电池或其他电源和一个或多个天线。在这一配置中,用户可以拿着垂饰1206和与其交互,而被动部分可以保留在用户的颈后。
图13示意性地图示了以胸针1300实现的多模式显示系统10。显示器1304包括如上所述的主图像显示系统和次图像显示系统。在一些示例中,胸针1300可以包括在面向前的表面1308和/或在与面向前的表面相对的后表面上的触敏表面。这样的(一个或多个)触摸表面可以被配置为如上所述地接收用户输入。在一些示例中,胸针1300可以包括(一个或多个)触敏表面和其他交互部件和系统,以及诸如电池或其他电源和一个或多个天线之类的被动部件。
图14示意性地图示了以包括手柄1402的单片眼镜1400实现的多模式显示系统10。在一些示例中,用户可以握住手柄1402并且将单片眼镜举到用户的眼睛。显示器1404可以被容纳在查看部分1406中并且可以包括如上所述的主图像显示系统和次图像显示系统。在一些示例中,单片眼镜1400可以在手柄1402的一个或多个部分上包括触敏表面。这样的(一个或多个)触摸表面可以被配置为接收用户输入,诸如来自用户的拇指的扫动运动,或由用户的把握所施加的变化的压力量。
图15示意性地图示了以手镯1500体现的多模式显示系统10。显示器1504包括如上所述的主图像显示系统和次图像显示系统。在一些示例中,手镯1500可以包括在显示器1504相对的后表面1508上的触敏表面。这样的(一个或多个)触摸表面可以被配置为诸如从用户的另一只手接收用户输入。
要理解到上文所描述的实施例出于示例目的被呈现,其并不旨在于以任何方式是限制性的。本公开的附加实施例可以包括(但不限于)被安装在手杖或拐杖的顶部上、在溜溜球中、在钱包或钱夹的外表面上、在帽子的帽舌的下侧上(在该实施例中用户可以向下弯曲帽舌来切换显示模式)、在臂章上、在钥匙链上,或者在可以被带到靠近用户的眼睛的任何其他个人项目的多模式显示系统10。
图16A和16B图示了根据本公开的实施例的多模式显示方法1600的流程图。以下对方法1600的描述参照上文所描述并在图1-15示出的可穿戴多模式显示系统10的软件和硬件部件来提供。将理解到方法1600还可以在其他情境中使用其他合适的硬件和软件部件来执行。
参照图16A,在1602处,方法1600可以包括经由可穿戴显示设备以第一显示模式显示第一紧凑图像,其中第一紧凑图像具有与第一应用相对应的第一显示分辨率。在1606处,方法1600可以包括:当显示设备处于第一显示模式时,接收来自用户的手腕或手部的主用户输入。在1610处,方法1600可以包括:响应于接收到主用户输入,替代第一紧凑图像而显示不同的第二紧凑图像。
在1614处,方法1600可以包括:当可穿戴显示设备被检测到距用户小于预定距离时,以第二显示模式显示应用图像,其中应用图像具有与第一应用相对应的更高的第二显示分辨率。在1618处,方法1600可以包括:当显示设备处于第二显示模式时,接收来自用户的手腕或手部的次用户输入。在1622处,方法1600可以包括:响应于接收到次用户输入,控制在应用图像内所显示的图形用户界面元素。例如,所述控制可以包括使光标在应用图像四处穿越。
在1626处,主用户输入和次用户输入选自以下各项:用户的手腕或手部的屈曲移动、用户的手部的向左移动、用户的手部的向右移动、用户的手部的向上移动、用户的手部的向下移动以及来自手部或者来自用户的另一手部的触摸输入。现在参照图16B,在1630处,主用户输入和次用户输入可以是相同的用户输入。
在1634处,不同的第二紧凑图像可以对应于不同的第二应用。在1638处,第一紧凑图像和不同的第二紧凑图像可以各自占据显示屏的基本整体。在1642处,方法1600可以包括在距可穿戴显示设备的感知距离处显示应用图像。在1646处,方法1600可以包括:响应于接收到次用户输入,从应用图像选择项目。
要理解到方法1600是通过示例方式提供的并且不意在为限制性的。因此,要理解的是方法1600可以包括相比图16A和16B所图示的那些步骤而言附加和/或备选的步骤。另外,要理解的是方法1600可以按任何合适的顺序来执行。再另外,要理解的是可以从方法1600省略一个或多个步骤而不脱离本公开的范围。
图17示意性示出了计算系统1700的非限制性实施例,其可以执行上文描述的方法和过程中的一个或多个。计算设备18和应用服务器40可以采用计算系统1700的形式。以简化形式示出了计算系统1700。但要理解的是,在不脱离本公开的范围的情况下,实际上任何计算机体系结构都可以被使用。在不同的实施例中,计算系统1700可以被实现在以下各项中或者按以下各项的形式:腕表、怀表、垂饰项链、胸针、单片眼镜、手镯、移动计算设备、移动通信设备、智能电话、游戏设备、大型计算机、服务器计算机、台式计算机、膝上型计算机、平板计算机、家庭娱乐计算机、网络计算设备,等等。
如图17中所示,计算系统1700包括逻辑子系统1704和存储子系统1708。计算系统1700还可以包括显示子系统1712、通信子系统1716、传感器子系统1720、输入子系统1722和/或未在图17中示出的其他子系统和部件。计算系统1700还可以包括计算机可读介质,其中计算机可读介质包括计算机可读存储介质和计算机可读通信介质。此外,在一些实施例中,本文描述的方法和过程可以被实现为计算机应用、计算机服务、计算机API、计算机库、和/或包括一个或多个计算机的计算系统中的其他计算机程序产品。
逻辑子系统1704可以包括被配置为执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统1704可以被配置为执行一个或多个指令,所述一个或多个指令是一个或多个应用程序、服务、程序、例程、库、对象、组件、数据结构、或其它逻辑构造的部分。这样的指令可被实现为执行任务,实现数据类型,变换一个或多个设备的状态,或以其他方式达到所希望的结果。
逻辑子系统1704可以包括被配置为执行软件指令的一个或多个处理器。附加地或备选地,逻辑子系统可以包括被配置为执行硬件或固件指令的一个或多个硬件或固件逻辑机器。逻辑子系统的处理器可以是单核或多核,并且在其上执行的程序可以被配置用于并行或分布式处理。逻辑子系统可以可选地包括遍布在两个或更多个设备中的个体部件,所述两个或更多个设备可以位于远程和/或被配置用于协调处理。逻辑子系统中的一个或多个方面可以被虚拟化,并由按云计算配置来配置的可远程访问的联网计算设备执行。
存储子系统1708可以包括被配置为保持由逻辑子系统1704可执行的数据和/或指令的一个或多个物理的、持久设备1704以实现本文中所描述的方法和过程。当这样的方法和过程被实现时,存储子系统1708的状态可被变换(例如,以保持不同的数据)。
存储子系统1708可以包括可移除介质和/或内置设备。存储子系统1708可以包括光存储器设备(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储器设备(例如,RAM、EPROM、EEPROM等)和/或磁存储器设备(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等),等等。存储子系统1708可以包括具有以下特征中的一个或多个特征的设备:易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址,以及内容可寻址。
在一些实施例中,逻辑子系统1704和存储子系统1708的各方面可以被集成到一个或多个共用设备中,通过所述共用设备在此所描述的功能可以至少部分地被实现。这样的硬件逻辑元件可以包括例如现场可编程门阵列(FPGA)、程序和应用专用集成电路(PASIC/ASIC)、程序和应用专用标准产品(PSSP/ASSP)、片上系统(SOC)、和复杂可编程逻辑器件(CPLD)。
图17还示出了以可移除计算机可读存储介质1724形式的存储子系统1708的方面,该可移除计算机可读存储介质1724可以被用来以非易失性方式存储数据和/或指令,所述数据和/或指令可执行用于实现本文中所描述的方法和过程。可移除计算机可读存储介质1724可以采用CD、DVD、HD-DVD、蓝光光碟、EEPROM和/或软盘,等等的形式。
要理解到的是,存储子系统1708包括一个或多个物理的、持久的设备。相反,在一些实施例中,在本文中所描述的指令的方面可以按瞬态方式通过不是由物理装置保持至少有限的持续时间的纯信号(例如,电磁信号、光信号等)来传播。此外,关于本公开的数据和/或其他形式的信息可以通过纯信号、经由计算机可读通信介质来传播。
如果被包括,则显示子系统1712可以被用来呈现由存储子系统1708保持的数据的视觉表示。随着上文描述的方法和过程改变由存储子系统保持的数据,并且从而变换存储子系统的状态,显示子系统1712的状态可以同样地被变换以视觉表示底层(underlying)数据的变化。显示子系统1712可以包括利用实际上任何类型的技术的一个或多个显示设备。这样的显示设备可以在共享的外壳中与逻辑子系统1704和/或存储子系统1708进行组合,或者这样的显示设备可以是外围显示设备。显示子系统1712可以例如包括在图1中所示的显示设备14和上文所描述的可穿戴多模式显示系统10的各个实施例的显示器。
如果被包括,则通信子系统1716可被配置为将计算系统1700通信地耦合到一个或多个网络和/或一个或多个其他计算设备。通信子系统1716可以包括与一个或多个不同的通信协议兼容的有线和/或无线通信设备。作为非限制性示例,通信子系统1716可以被配置用于经由无线电话网、无线局域网、有线局域网、无线广域网、有线广域网等进行通信。在一些实施例中,通信子系统可以允许计算系统1700经由诸如因特网之类的网络来向其他设备发送消息和/或从其他设备接收消息。
计算系统1700还包括传感器子系统1720,该传感器子系统1720包括被配置为感测不同物理现象(例如,可见光、红外光、声音、加速度、定向、位置、应变、触摸等)的一个或多个传感器。传感器子系统1720可以被配置为例如向逻辑子系统1704提供传感器数据。传感器子系统1720可以包括被配置为获取朝向和/或背对用户的图像的一个或多个图像传感器、可以被用来跟踪设备的运动的诸如加速度计之类的运动传感器,被配置为测量应变、腕带、臂带、手柄或与设备相关联的其他部件的应变、弯曲和/或形状的应变仪,和/或任何其他合适的传感器。如上所述,这样的图像数据、运动传感器数据、应变数据和/或任何其他合适的传感器数据可以被用来执行诸如确定用户与显示子系统1712的显示屏之间的距离、空间稳定由显示子系统1712显示的图像等的任务。
如果被包括,则输入子系统1722可以包括诸如麦克风,注视跟踪系统,语音识别器,游戏控制器,手势输入的检测设备,IMU,键盘,鼠标或触摸屏之类的用户输入设备或一个或多个传感器,或者与其对接。在一些实施例中,输入子系统1722可以包括选定的天然用户输入(NUI)部件或者与其对接。这样的部件可以被集成或外围设备,并且输入动作的转导和/或处理可以在板上或板外被处置。示例NUI部件可以包括用于语音和/或声音识别的麦克风;用于机器视觉和/或手势识别的红外、彩色、立体、和/或深度相机(例如,飞行时间,立体或结构光相机);用于运动检测和/或意图识别的眼睛或注视跟踪器、加速度计和/或陀螺仪;以及用于评估脑活动的电场传感部件。
术语“程序”可以被用来描述可穿戴多模式显示系统10的被实现为执行一个或多个特定功能的一个方面。在某些情况下,这样的程序可以经由执行由存储子系统1708保持的指令的逻辑子系统1704而被实例化。要理解的是,不同的程序可以从相同的应用程序、服务、码块、对象、库、例程、API、函数等等被实例化的。同样地,相同的程序可以通过不同的应用程序、服务、码块、对象、例程、API、函数等被实例化。术语“程序”是指涵盖单独或多组的可执行文件、数据文件、库、驱动程序、脚本、数据库记录等。
要理解的是,本文中所描述的配置和/或方法在本质上是示例性的,并且这些具体实施例或示例不应被以限制性的意义上考虑,这是因为许多变化是可能的。本文中所描述的具体例程或方法可以表示一个或多个的任何数量的处理策略。以此,所说明的各个动作可以按所说明的序列、按其他序列、并行地来执行,或在某些情况下被省略。同样地,上述过程的顺序可以被改变。
本公开的主题包括本文所公开的各种过程、系统和配置及其他特征、功能、动作和/或特性的所有新颖的和非显而易见的组合和子组合,及其任何和全部等同物。

Claims (10)

1.一种由用户的手腕或手部可致动的可穿戴多模式显示系统,所述可穿戴多模式显示系统包括可操作地被连接到计算设备的显示设备,所述可穿戴多模式显示系统包括:
显示堆叠,所述显示堆叠包括:
主图像显示系统,所述主图像显示系统包括被配置为以第一显示模式显示第一紧凑图像的显示屏,所述第一紧凑图像具有与第一应用相对应的第一显示分辨率;以及
次图像显示系统,所述次图像显示系统被配置为当所述显示设备被检测到距所述用户小于预定距离时以第二显示模式显示应用图像,所述应用图像具有与所述第一应用相对应的更高的第二显示分辨率;以及
由所述计算设备的处理器执行的显示模式程序,所述显示模式程序被配置为:
当所述显示设备处于所述第一显示模式时,接收来自所述用户的所述手腕或所述手部的主用户输入;
响应于所述主用户输入,替代所述第一紧凑图像而显示不同的第二紧凑图像;
当所述显示设备处于所述第二显示模式时,接收来自所述用户的所述手腕或所述手部的次用户输入;以及
响应于所述次用户输入,控制在所述应用图像中所显示的图形用户界面元素。
2.根据权利要求1所述的可穿戴多模式显示系统,还包括从以下各项选择的一个或多个传感器:图像传感器、加速度计、应变仪和触敏表面。
3.根据权利要求1所述的可穿戴多模式显示系统,其中所述主用户输入和所述次用户输入是从以下各项中被被选择:所述用户的所述手腕或所述手部的弯曲动作、所述用户的所述手部的向左移动、所述用户的所述手部的向右移动、所述用户的所述手部的向上移动、所述用户的所述手部的向下移动以及来自所述手部或者来自所述用户的另一手部的触摸输入。
4.根据权利要求1所述的可穿戴多模式显示系统,其中所述主用户输入和所述次用户输入是相同的用户输入。
5.根据权利要求1所述的可穿戴多模式显示系统,其中所述次图像显示系统被定位在所述显示堆叠中的所述主图像显示系统的发光侧上。
6.一种多模式显示方法,包括:
经由可穿戴显示设备以第一显示模式显示第一紧凑图像,所述可穿戴显示设备由用户的手腕或手部可致动,所述第一紧凑图像具有与第一应用相对应的第一显示分辨率;
当所述显示设备处于所述第一显示模式时,接收来自所述用户的所述手腕或所述手部的主用户输入;
响应于接收到所述主用户输入,替代所述第一紧凑图像而显示不同的第二紧凑图像;
当所述可穿戴显示设备被检测到距所述用户小于预定距离时,经由所述可穿戴显示设备来以第二显示模式显示应用图像,所述应用图像具有与所述第一应用相对应的更高的第二显示分辨率;
当所述显示设备处于所述第二显示模式时,接收来自所述用户的所述手腕或所述手部的次用户输入;以及
响应于接收到所述次用户输入,控制在所述应用图像中所显示的图形用户界面元素。
7.根据权利要求6所述的方法,其中所述不同的第二紧凑图像对应于不同的第二应用。
8.根据权利要求6所述的方法,其中所述第一紧凑图像和所述不同的第二紧凑图像各自占据所述显示屏的基本整体。
9.根据权利要求6所述的方法,还包括在距所述可穿戴显示设备的感知距离处显示所述应用图像。
10.根据权利要求6所述的方法,还包括:响应于接收到所述次用户输入,从所述应用图像选择项目。
CN201480072623.8A 2014-01-08 2014-12-18 具有多模式显示系统的可穿戴设备 Pending CN105917291A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/150,642 2014-01-08
US14/150,642 US20150193102A1 (en) 2014-01-08 2014-01-08 Multi-mode display system
PCT/US2014/071005 WO2015105649A1 (en) 2014-01-08 2014-12-18 A wearable device with a multi-mode display system

Publications (1)

Publication Number Publication Date
CN105917291A true CN105917291A (zh) 2016-08-31

Family

ID=52345556

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480072623.8A Pending CN105917291A (zh) 2014-01-08 2014-12-18 具有多模式显示系统的可穿戴设备

Country Status (5)

Country Link
US (1) US20150193102A1 (zh)
EP (1) EP3092545A1 (zh)
KR (1) KR20160106621A (zh)
CN (1) CN105917291A (zh)
WO (1) WO2015105649A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113485783A (zh) * 2021-09-07 2021-10-08 深圳传音控股股份有限公司 处理方法、处理设备及存储介质
WO2023005362A1 (zh) * 2021-07-30 2023-02-02 深圳传音控股股份有限公司 处理方法、处理设备及存储介质

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1328597A (en) * 1995-11-30 1997-06-19 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US10073578B2 (en) 2013-08-13 2018-09-11 Samsung Electronics Company, Ltd Electromagnetic interference signal detection
US10101869B2 (en) 2013-08-13 2018-10-16 Samsung Electronics Company, Ltd. Identifying device associated with touch event
US10141929B2 (en) 2013-08-13 2018-11-27 Samsung Electronics Company, Ltd. Processing electromagnetic interference signal using machine learning
CN107621777A (zh) * 2014-03-07 2018-01-23 联想(北京)有限公司 电子设备和采集控制方法
KR101482620B1 (ko) * 2014-06-04 2015-01-14 김재완 영상 프레임을 이용한 보안 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9727296B2 (en) * 2014-06-27 2017-08-08 Lenovo (Beijing) Co., Ltd. Display switching method, information processing method and electronic device
US10649500B2 (en) * 2014-07-21 2020-05-12 Beam Authentic, Inc. Centralized content distribution in a wearable display device network
CN105511846B (zh) * 2014-09-24 2018-12-14 联想(北京)有限公司 电子设备和显示控制方法
CN105527825B (zh) * 2014-09-28 2018-02-27 联想(北京)有限公司 电子设备和显示方法
US10488936B2 (en) 2014-09-30 2019-11-26 Apple Inc. Motion and gesture input from a wearable device
US9690542B2 (en) * 2014-12-22 2017-06-27 Microsoft Technology Licensing, Llc Scaling digital personal assistant agents across devices
US9734779B2 (en) * 2015-02-12 2017-08-15 Qualcomm Incorporated Efficient operation of wearable displays
US9747015B2 (en) 2015-02-12 2017-08-29 Qualcomm Incorporated Efficient display of content on wearable displays
CN106019606B (zh) * 2015-03-27 2019-08-27 联想(北京)有限公司 电子设备
US9939899B2 (en) 2015-09-25 2018-04-10 Apple Inc. Motion and gesture input from a wearable device
CN106940591A (zh) * 2016-01-04 2017-07-11 百度在线网络技术(北京)有限公司 可穿戴设备的视图显示方法、装置以及可穿戴设备
US10478099B2 (en) 2016-09-22 2019-11-19 Apple Inc. Systems and methods for determining axial orientation and location of a user's wrist
CN113589927B (zh) * 2021-07-23 2023-07-28 杭州灵伴科技有限公司 分屏显示方法、头戴式显示设备和计算机可读介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102117178A (zh) * 2009-12-30 2011-07-06 Lg电子株式会社 移动终端的显示装置和控制该显示装置的方法
US20130033485A1 (en) * 2011-08-02 2013-02-07 Microsoft Corporation Changing between display device viewing modes
US20130222270A1 (en) * 2012-02-28 2013-08-29 Motorola Mobility, Inc. Wearable display device, corresponding systems, and method for presenting output on the same

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020158812A1 (en) * 2001-04-02 2002-10-31 Pallakoff Matthew G. Phone handset with a near-to-eye microdisplay and a direct-view display
US6956544B2 (en) * 2003-12-22 2005-10-18 Motorola, Inc. Dual mode display
US8351910B2 (en) * 2008-12-02 2013-01-08 Qualcomm Incorporated Method and apparatus for determining a user input from inertial sensors
CH702862B1 (fr) * 2010-03-30 2024-06-14 Smart Communications Sa Montre bracelet à affichage électronique.
US8902125B1 (en) * 2011-09-29 2014-12-02 Rockwell Collins, Inc. Reconfigurable handheld device
US8279716B1 (en) * 2011-10-26 2012-10-02 Google Inc. Smart-watch including flip up display
US20140180595A1 (en) * 2012-12-26 2014-06-26 Fitbit, Inc. Device state dependent user interface management
US10185416B2 (en) * 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102117178A (zh) * 2009-12-30 2011-07-06 Lg电子株式会社 移动终端的显示装置和控制该显示装置的方法
US20130033485A1 (en) * 2011-08-02 2013-02-07 Microsoft Corporation Changing between display device viewing modes
US20130222270A1 (en) * 2012-02-28 2013-08-29 Motorola Mobility, Inc. Wearable display device, corresponding systems, and method for presenting output on the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023005362A1 (zh) * 2021-07-30 2023-02-02 深圳传音控股股份有限公司 处理方法、处理设备及存储介质
CN113485783A (zh) * 2021-09-07 2021-10-08 深圳传音控股股份有限公司 处理方法、处理设备及存储介质

Also Published As

Publication number Publication date
KR20160106621A (ko) 2016-09-12
EP3092545A1 (en) 2016-11-16
US20150193102A1 (en) 2015-07-09
WO2015105649A1 (en) 2015-07-16

Similar Documents

Publication Publication Date Title
CN105917291A (zh) 具有多模式显示系统的可穿戴设备
CN108475120B (zh) 用混合现实系统的远程设备进行对象运动跟踪的方法及混合现实系统
KR102311622B1 (ko) 신체 액티비티들과 연관된 어포던스들의 스크롤가능한 목록의 디스플레이
US20220253759A1 (en) Systems and methods for altering display of virtual content based on mobility status change
CN105739813B (zh) 用户终端设备及其控制方法
CN104335142B (zh) 用于透明头戴式显示器的用户接口交互
EP3311250B1 (en) System and method for spawning drawing surfaces
US20140267637A1 (en) Hybrid stereoscopic viewing device
US10311638B2 (en) Anti-trip when immersed in a virtual reality environment
KR102206044B1 (ko) 뱅글 타입의 모바일 디바이스와 그 제어 방법 및 ui 표시 방법
CN105393192A (zh) 用于近眼显示器的网状分层菜单显示配置
CN106133647A (zh) 多模式显示系统
KR20150118813A (ko) 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
EP2506118A1 (en) Virtual pointer
EP3172646A1 (en) Smart placement of virtual objects to stay in the field of view of a head mounted display
Williamson et al. Multimodal mobile interactions: usability studies in real world settings
CN110168475A (zh) 将用户接口装置导入虚拟现实/增强现实的系统
CN105027033A (zh) 用于头部安装显示器的基于人体手势的区域和空间选择
KR20160128119A (ko) 이동 단말기 및 이의 제어방법
CN105144035A (zh) 利用触觉单元阵列模拟有形用户界面交互和手势
CN103858073A (zh) 增强现实系统的免触摸界面
CN109308205A (zh) 应用程序的显示适配方法、装置、设备及存储介质
Brancati et al. Touchless target selection techniques for wearable augmented reality systems
KR20160026594A (ko) 근접 센서 및 이의 제어 방법
CN108089700A (zh) 用于显示图像的电子设备及其控制方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160831

WD01 Invention patent application deemed withdrawn after publication