CN105829948A - 可佩戴显示输入系统 - Google Patents

可佩戴显示输入系统 Download PDF

Info

Publication number
CN105829948A
CN105829948A CN201480069912.2A CN201480069912A CN105829948A CN 105829948 A CN105829948 A CN 105829948A CN 201480069912 A CN201480069912 A CN 201480069912A CN 105829948 A CN105829948 A CN 105829948A
Authority
CN
China
Prior art keywords
touch
sensitive bar
user
sensitive
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480069912.2A
Other languages
English (en)
Other versions
CN105829948B (zh
Inventor
R·桑切斯
C·布朗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN105829948A publication Critical patent/CN105829948A/zh
Application granted granted Critical
Publication of CN105829948B publication Critical patent/CN105829948B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开了涉及用于可佩戴显示设备的输入系统的各实施例。例如,在一个公开的实施例中,可佩戴显示设备包括至少一个从该设备的显示梁延伸的镜腿臂。第一触敏条在臂的顶侧上沿第一轴延伸。第二触敏条在臂的与顶侧相对的底侧上平行于第一触敏条延伸。第一触敏条的至少一部分和第二触敏条的一部分从第二轴的角度来看重叠。第一触敏条和第二触敏条两者都被配置为从一个或多个用户手指沿第一轴滑动中生成线性触点输入信号,其中所述线性触点输入信号被提供给用户界面程序。

Description

可佩戴显示输入系统
背景
为了促成高保真度用户输入和跨大范围的体验和应用一致的用户控制,许多移动电子设备利用了多维输入模态。例如,平板和移动电话典型地提供了跨二维区域跟踪手指或指示笔的位置和运动的触摸输入表面。为了适应典型的人类手指协调和大小,在这些设备中的触摸传感器和对应的输入表面区域典型地被配置为在每个维度适应至少30毫米(mm)的手指运动。典型地,这些设备在用户输入期间通过搁在一个表面上或由用户的手握持被安全地支撑。
然而,对于诸如眼镜和其他可佩戴显示设备之类的较小形状因素的设备,这些设备的减小的表面区域限制了可用的输入模态。例如,一幅眼镜的典型受限的表面区域使得对通过人类手指的二维触摸输入的并入成为挑战。此外,由于眼镜典型地被有些松散地佩戴以实现舒适,触摸输入功能的一些实现可以引起眼镜和对应的显示系统的不期望的移动。
概述
本文中公开了涉及用于可佩戴显示设备的输入系统的各实施例。例如,一种公开的实施例提供了用于操作上与计算设备相连的可佩戴显示设备的输入系统。可佩戴显示设备包括至少一个从该设备的显示梁延伸的镜腿臂。输入系统包括在镜腿臂的顶侧上沿第一轴延伸的第一触敏条、以及在镜腿臂的与顶侧相对的底侧上平行于第一触敏条延伸的第二触敏条。第一触敏条的至少一部分和第二触敏条的至少一部分从第二轴的角度来看重叠。
第一触敏条和第二触敏条两者都被配置为从一个或多个用户手指沿第一轴滑动中生成线性触点输入信号。线性触点输入信号被提供给由计算设备的处理器执行的用户界面程序。
提供本概述以便以简化的形式介绍以下在详细描述中进一步描述的一些概念。本发明内容并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。而且,所要求保护的主题不限于解决该公开的任一部分中所注的任何或全部缺点的实现方式。
附图简述
图1是根据本公开的一实施例的用于可佩戴显示系统的输入系统的示意图。
图2是根据本公开的一实施例的合并入输入系统的示例可佩戴显示系统的透视图。
图3是图2的可佩戴显示设备的侧视图。
图4是图2的可佩戴显示设备的镜腿臂的一部分的俯视图。
图5是示出了接触触敏条的食指和拇指的图4的镜腿臂的该部分的侧向剖面图。
图6是图4和5的镜腿臂的该部分的仰视图。
图7是根据本公开的另一实施例的可佩戴显示设备的镜腿臂的一部分的俯视图。
图8是图7的镜腿臂的该部分的侧视图。
图9是根据本公开的另一实施例的可佩戴显示设备的镜腿臂的一部分的俯视图。
图10是图9的镜腿臂的该部分的侧向剖面图。
图11是根据本公开的另一实施例的可佩戴显示设备的镜腿臂的一部分的俯视图。
图12是图11的镜腿臂的该部分的侧向剖面图。
图13是根据本公开的一实施例的可通过输入系统导航的示例用户界面的示意图。
图14A、14B和14C是根据本公开的一实施例的用于通过多个、平行的控制轴控制用户界面的方法的流程图。
图15是计算设备的一实施例的简化示意解说。
详细描述
图1是用于可佩戴显示系统14(例如在附图2和3中示出并将在下面更详细描述的眼镜200)的输入系统10的一个实施例的示意图。输入系统10包括位于可佩戴显示系统14的相对表面上的第一触敏条18和第二触敏条22(也可参见图5)。如将在下面更详细描述的,第一触敏条18和第二触敏条22可以从用户26的一个或多个手指的接触中接收触摸输入。
可佩戴显示设备14包括被配置为显示供用户26观看的图像的显示系统30。可佩戴显示设备14还在操作上连接到包括用于控制显示系统30的显示程序36的计算设备32。显示程序36可被存储到计算设备32的大容量存储40中、加载到存储器44中并由计算设备32的处理器48执行以执行下文更为详细地描述的方法和过程中的一个或多个。计算设备32还可以包括也可被存储在计算设备的大容量存储40中、加载到存储器44中并由处理器48执行以执行一个或多个特定功能的一个或多个应用程序38。
图1中解说的示例示出计算设备32被集成到显示设备14中。将理解,在其他示例中,计算设备32可以是与显示设备14分开的组件或设备。在这些示例中,计算设备32可以采用例如智能电话、膝上型计算机、笔记本或平板计算机之类的移动计算设备、台式计算设备、网络计算机、家庭娱乐计算机、交互式电视机、游戏系统或其他合适类型的计算设备的形式。
计算设备32可使用有线连接,或可采用经由WiFi、蓝牙或任何其他合适的无线通信协议的无线连接来与显示设备14在操作上连接。关于计算设备32的组件和计算方面的附加细节在下文中参考图15更详细地描述。
在一些示例中,可佩戴显示设备14可以包括生成创建虚拟现实或混合现实体验的图像的头戴式显示(HMD)设备。现在还参考图2和3,提供了采用一副眼镜200的形式的可佩戴HMD显示设备14的一个示例。在该示例中,眼镜200包括由显示梁202支撑在用户的眼睛前方的透明显示器204。将明白,在其他示例中,眼镜200可以采取其中透明、半透明或不透明显示器被支撑在查看者的一只或两只眼睛前方的其他合适的形式。也将认识到也可以在本公开的范围内使用具有各种形状因素的许多其他类型和配置的可佩戴显示设备。此类可佩戴显示设备可包括但不限于手表、怀表、手镯、胸针、吊坠项链、单片眼镜以及其他适当的可佩戴显示设备。
参考在图2和3中所示的眼镜200,在本示例中,透明显示器204可被配置成向透过该透明显示器查看物理环境的用户在视觉上增强该物理环境的外观。例如,该物理环境的外观可以由经由透明显示器204呈现的图形内容(例如,一个或多个像素,每一像素具有相应色彩和亮度)来增强。
透明显示器204还可被配置成使用户能够透过正在显示虚拟对象表示的一个或多个部分透明的像素查看物理环境中的物理现实世界对象。在一个示例中,透明显示器204可包括位于透镜212内的图像生成元件(诸如例如透视有机发光二极管(OLED)显示器)。作为另一示例,透明显示器204可包括在透镜212边缘上的光调制器。在这一示例中,透镜212可以担当光导以供将光从光调制器递送到用户的眼睛。这样的光导可以使用户能够感知位于用户正在查看的物理环境内的2D图像或3D全息图像,同时还允许用户查看物理环境中的物理对象。
如上所述,眼镜200包括第一触敏条18和第二触敏条22。第一触敏条18和第二触敏条22可以利用例如电容触摸感测组件、电阻触摸感测组件或任何其他合适的对触摸、压力和/或张力敏感的触觉感测组件。如将在下面更详细描述的,第一触敏条18和第二触敏条22可以从用户的一个或多个手指的触摸中感测一种或多种形式的触摸输入。在一些示例中,眼镜200还可以包括用于从用户接收输入的一个或多个按键。
在一些示例中,眼镜200还可以包括各种其他传感器和相关系统。例如,眼镜200可包括利用至少一个面向外的传感器(如光学传感器)的光学传感器系统。面向外的传感器可以检测其视野内的运动,如用户视野内的用户或人或物理对象所执行的基于姿势的输入或其他运动。面向外的传感器还可从物理环境和该环境内的物理对象捕捉二维图像信息和深度信息。例如,面向外的传感器可包括深度相机、可见光相机、红外光相机,和/或位置跟踪相机。
眼镜200可包括经由一个或多个深度相机的深度感测。在一个示例中,每一深度相机可包括立体视觉系统的左和右相机。来自这些深度相机中的一个或多个的时间分辨的图像可被彼此配准和/或与来自另一光学传感器(如可见光谱相机)的图像配准,且可被组合以产生深度分辨的视频。
在其他示例中,结构化光深度相机可被配置成投影结构化红外照明并对从照明被投影到其之上的场景中反射的该照明进行成像。基于所成像的场景的各个区域内邻近特征之间的间隔,可构造该场景的深度图。在其他示例中,深度相机可以采取飞行时间深度相机的形式,其被配置成将脉冲的红外照明投影到该场景上以及检测从该场景反射的照明。可以理解,在本发明的范围内可使用任意其他合适的深度相机。
面向外的传感器可以捕捉用户位于其中的物理环境的图像。在一个示例中,显示程序36可包括使用这样的输入来生成可对该用户周围的物理环境进行建模的虚拟环境的3D建模系统。
眼镜200还可包括位置传感器系统,该位置传感器系统利用一个或多个运动传感器来实现对眼镜的位置跟踪和/或取向感测。例如,位置传感器系统可被用来确定用户的头部的头部姿态取向。在一个示例中,位置传感器系统可包括配置成六轴或六自由度的位置传感器系统的惯性测量单元。这一示例位置传感器系统可以例如包括用于指示或测量眼镜200在三维空间内沿三个正交轴(例如,x、y、z)的位置变化以及该眼镜绕这三个正交轴的取向(例如,翻滚、俯仰、偏航)变化的三个加速度计和三个陀螺仪。
位置传感器系统还可以支持其他合适的定位技术,如GPS或其他全球导航系统。眼镜200还可以包括用于接收音频的一个或多个话筒和/或用于广播音频的一个或多个扬声器。
如上所述,眼镜200还可以包括具有与眼镜的各传感器和系统通信的逻辑子系统和存储子系统的集成计算设备32,如在下文参考图15更详细地讨论的。在其他示例中,眼镜200与分开的计算设备通信连接,所述眼镜可以包括存储子系统,所述存储子系统具有可由逻辑子系统执行以接收来自传感器的信号输入并将此类输入转发到计算设备(以未经处理或经处理的形式)以及经由显示系统30向用户呈现图像的指令。
将领会,眼镜200和相关的传感器以及上面描述的并在图1-5中解说的其他组件是作为示例来提供的。这些示例不旨在以任何方式进行限制,因为任何其他合适的传感器、组件,和/或传感器和组件的组合可被使用。因此,将理解,眼镜200可以包括未偏离本公开文本范畴的附加和/或替代的传感器、相机、话筒、输入设备、输出设备等。
现在将提供对输入系统10和对应的可佩戴显示设备14的示例实施例和使用情况的描述。如在附图2和3中所说明的实施例中所示,眼镜200包括右镜腿臂220和左镜腿臂222,它们从眼镜的显示梁202延伸出来。右镜腿臂220和左镜腿臂222中的每个包括当眼镜200被佩戴时延伸在用户的耳后的向下成角度的远侧部分224。右镜腿臂220和左镜腿臂222中的每个可以采用具有矩形横截面的横梁的形式,该横梁可以逐渐变细为远侧部分224处的光滑圆头。将理解,在其他示例中,右镜腿臂220和左镜腿臂222可以具有方形、圆形、椭圆形或其他合适的横截剖面轮廓。
如以上并且还参考图4-6所述,右镜腿臂220和左镜腿臂222中的一个或两者包括位于臂的顶侧230上的第一触敏条18和位于臂的相对的、底侧234上的第二触敏条22。在图2-6所示的实施例中,眼镜200的右镜腿臂220包括第一触敏条18和相对的第二触敏条22,而左镜腿臂222不包括触敏条。在其他示例中,眼镜200的左镜腿臂220包括第一触敏条18和相对的第二触敏条22,而右镜腿臂220不包括触敏条。在其他示例中,镜腿臂220、222都可包括第一触敏条18和相对的第二触敏条22。
第一触敏条18和第二触敏条22可以从一个或多个用户手指的触摸中接收触摸输入。如在图4-6中所示,第一触敏条18在X轴方向中延伸,并且第二触敏条22平行于第一触敏条在X轴方向中延伸。另外,第一触敏条18的一部分和第二触敏条22的一部分从Z轴的角度看重叠。
如图2和5所示,用户食指240可以触摸第一触敏条18并可以正X轴方向(如由行动箭头A所指示的)或以负X轴方向(如由行动箭头B所指示的)在第一触敏条上并沿着第一触敏条滑动。再次参考图1,用户食指240沿第一触敏条的一个轴的这种线性移动可以生成线性触点输入信号60,该信号被提供给存储在计算设备32上的并由处理器48执行的用户界面程序64。如下更加详细地描述,这种线性触点输入信号60可以由用户界面程序64用于导航通过显示设备14所显示的用户界面。
参考图2和5并以类似的方式,用户拇指250可以触摸第二触敏条22并可以以正X轴方向或以负X轴方向在第二触敏条上并沿着第二触敏条滑动。用户拇指250沿着第二触敏条22的一个轴的这种线性移动也可以生成被提供给用户界面程序64的线性触摸输入信号60。通过这种配置,将可以理解,在一些示例中,食指240可以在第一触敏条18上相对于在第二触敏条22上的拇指250滑动,反之亦然。
有利地且如下更加详细描述的,这种配置允许输入系统10向用户界面程序64提供通过手指跨过触敏条的运动生成的精确的、线性触点输入信号60。在一些示例中,可以将来自第一触敏条18和/或第二触敏条22的各个体线性触点输入信号提供给用户界面程序64并供其使用。在其他示例中,这样的个体线性触摸输入信号60可以被用于确定在两个手指之间的相对运动,其中这样的相对移动对应于在用户界面程序64中的一个或多个命令。
在一些示例中,第一触敏条18和/或第二触敏条22还可以被配置为检测变化的用户手指在Z轴方向中施加的压力量。在这些示例中,当一个或多个用户手指在Z轴方向中按压触敏条时,压力输入信号68被生成并被提供给用户界面程序64。
例如,第一触敏条18和/或第二触敏条22可以包括可测量条的挠曲或弯曲的应变计。在一个示例中,应变计可以包括由绝缘的可弯曲衬背所支撑的金属箔图案。当第一触敏条18或第二触敏条22被挠曲且集成的箔图案变形时,箔的电阻变化被测量且施加在条上的对应的压力可被确定。将理解,这些压力感测组件是出于示例的目的被提供的,并且可使用任何其他合适的压力感测技术和组件。
在一些示例中,第一触敏条18和第二触敏条22可以是单触敏条。或者可表达为,第一触敏条18和第二触敏条22可以被配置为检测沿着其表面区域的各单个触点。
在其他示例中,第一触敏条18和/或第二触敏条22可以是多点触敏条。或者可表达为,第一触敏条18和/或第二触敏条22可以被配置为检测沿其各表面区域的两个或多个不同的触点。例如,第一触敏条18可以被配置为检测两个不同的用户手指的两个接触点。因此,在该示例中,第一触敏条18可以生成与两个不同的用户手指沿该条的表面滑动对应的两组线性触点输入信号60。
在图4-6中所示出的示例中,第一触敏条18具有长度502,该长度502大于第二触敏条22的长度504。有利地,当用用户的食指240和拇指250抓住镜腿臂220时,这种配置可以在人体工程学上匹配典型的用户的手和手指形式。更具体地且还是参考图2,当通过用户食指240和拇指250之间类似捏住的紧握来握住眼镜200时,由于拇指通过臂的底侧234提供反支撑,用户可相对容易地沿镜腿臂220的顶侧230滑动食指。还将理解,当眼镜200由用户佩戴时,鼻部支撑254和镜腿臂的远侧部分224也可以支撑眼镜,并为与臂的顶侧230接合的食指提供额外的反支撑。
另外,人类食指与拇指的长度相比更长的长度由第一触敏条18与第二触敏条22的长度504相比更长的长度502来适应。有利地,这种配置提供各用户输入表面,这些用户输入表面对应于可能与这些表面交互的用户的食指和拇指的相对长度。
如图5所示,第一触敏条18还可以延伸为比第二触敏条22更靠近眼镜200的显示梁202部分。这种配置还对应于用户的食指240和拇指250在镜腿臂220上的自然紧握定位,并提供了食指可与其接合的扩展的触敏表面区域。
在一些示例中,第一触敏条18可以具有在大约25mm和75mm之间、或在大约37mm和大约63mm之间、或大约为50mm的长度502。在一些示例中,第二触敏条22可以具有在大约25mm和75mm之间、或在大约37mm和大约63mm之间、或大约为50mm的长度504。在图5的示例中,第一触敏条18可具有大约50mm的长度502,而第二触敏条22可具有大约35mm的长度504。还将理解,可以使用第一触敏条18和第二触敏条22的任何合适的长度组合。
在一些示例中,第一触敏条18可以具有在大约1mm和5mm之间、或在大约2mm和大约4mm之间、或大约为3mm的宽度510。类似地,第二触敏条22可以具有在大约1mm和5mm之间、或在大约2mm和大约4mm之间、或大约为3mm的宽度610。
在图4-6的示例中,第一触敏条18和第二触敏条22被嵌入在镜腿臂220内,使得它们分别与顶侧230和底侧234基本上齐平。现在参考图7和8,在另一个示例中,第一触敏条18和第二触敏条22分别在镜腿臂220的顶侧230和底侧234之上略微突出。在这种配置中,这些条在镜腿臂的表面之上的略微突出可以提供将用户的手指或拇指引导到条的末端的触觉界标。另外,在该示例中,第一触敏条18和第二触敏条22具有相同的长度并且与眼镜200的显示梁202间隔相同的距离。
在其他示例中,一个或多个按键被提供在镜腿臂220的顶侧230上和/或底侧234上。在一个示例中并且现在参考图9和10,单个按键260可以被提供在镜腿臂220的顶侧230上与第一触敏条18的末端邻近的地方。当被按压时,按键260可以将按键输入信号72提供给用户界面程序64。如下更加详细描述的,用户26可以单独地或结合第一触敏条18和/或第二触敏条22来使用按键260以通过用户界面程序64控制应用程序38的附加功能子集。
可以理解,按键260可以采用各种形状和形式。在一些示例中,按键260可勉强对人类眼睛可见,同时也在镜腿臂220的顶侧230之上突出达足以被用户的食指240的指尖感受到的量。至激活的按键行程可以是任何距离,例如诸如0.5mm。按键可以向用户提供对激活的触觉反馈,例如通过点击或振动。另外,按键260可以提供触觉界标以帮助用户26定位第一触敏条18的末端。
在其他示例中,取代按键260或作为其补充,第二按键可以被提供在第一触敏条18的相对末端处。在其他示例中并且为了提供关于触敏条的末端的简单的触觉界标,取代按键260,在触敏条的任一末端或两个末端处可提供一个或多个非功能性突出。在又一些示例中,可以在第一触敏条18的各末端之间提供一个或多个按键。
如上所述,在一些示例中,一个或多个按键被提供在镜腿臂220的底侧234上。现在参考图11和12,在一个示例中,按键270可以被提供在第二触敏条22的两个末端之间。另外并如图11所示,底部按键270可以在Z轴方向中相对于在镜腿臂220的顶侧230上的两个按键260中的每个按钮有偏移。有利地且通过该配置,用户拇指可以在正Z轴方向中按压底部按钮270,同时用户的食指在负Z轴的方向中在第一触敏条18上提供稳定且相反的力,而无需按压顶部按键260之一。
在其他示例中,按键270可以被定位在第二触敏条22的任一末端或两个末端处。因此,在这些不同的示例中,在镜腿臂220的底侧234上的一个或多个按键可以被个别地或与在镜腿臂的顶侧230上的一个或多个按键260组合用于激活和/或控制应用程序38的附加功能子集。
现在参考图13,现在将提供由输入系统10所提供的用户界面功能的示例。由于输入系统10通过第一触敏条18和第二触敏条22提供了多个、平行的控制轴,用户可以方便地使用沿两个不同且平行的轴的触摸输入来控制显示设备14、导航应用和/或管理数据的可视化。
图13示意性地示出了可通过用户界面程序64来启用并通过输入系统10来控制的用户界面1300的一个示例。查看区域1304示出了由显示程序36经由显示设备14向用户26显示的当前视图。在该示例中,查看区域1304示出通过照片查看应用所显示的照片1310。
在查看区域1304的左侧示出的是文本消息区域1320,该区域可以显示由用户26接收的文本消息。在该示例中,文本消息的几个单词的部分延伸到查看区域1304中并且由此可由用户26查看。通过此方式,用户界面1300可以向用户26提供指示在一系列应用和/或菜单中文本消息区域1320与照片查看应用邻近的视觉线索。
在查看区域1304的右侧示出的是菜单区域1330,该区域可以提供与可被启动的各种应用相对应的可选择图标的可滚动列表。一个或多个附加区域也可以被顺序地提供在与文本消息区域1320和菜单区域1330邻近的地方。
在一个示例中且还参考图5,查看在查看区域1304中的照片1310的用户26可以通过用用户的食指240触摸第一触敏条18并以行动箭头B的方向沿X轴滑动食指来将文本消息区域1320移动到查看区域1304。类似地,用户26可以通过以相反的行动箭头A的方向上沿X轴滑动食指240来将菜单区域1330移动到查看区域1304。
在查看查看区域1304中的照片时,用户26也可以使用第二触敏条22来操纵照片的显示和/或在照片查看应用内导航。在一个示例中,通过用用户的拇指250触摸第二触敏条22并以行动箭头A和B的方向沿X轴滑动拇指,用户26可以放大或缩小照片1310。当所述缩放因子大于100%时,沿第一触敏条18滑动食指240可以向左或向右平移所显示的视图。一旦在平移模式中,沿第二触敏条22滑动拇指250可以向上或向下平移所显示的视图。
在另一个示例中,以行动箭头A和B的方向沿X轴滑动拇指可以使来自照片的顺序排列的不同的照片滚动通过查看区域1304。例如,照片可以被按顺序地布置并以对应于图13中的行动箭头V的方向被向上或向下滚动遍历。
在其他示例中,并且当文本消息区域1320被显示在查看区域1304中时,以行动箭头A和B的方向沿X轴在第二触敏条22上滑动拇指250可以滚动遍历附加的消息文本和/或可以以对应于行动箭头V的方向滚动到不同的文本消息。在其他示例中且当菜单区域1330被显示在查看区域1304中时,沿X轴在第二触敏条22上滑动拇指250可以通过例如以对应于箭头V的方向选择性地突出显示不同的图标来在不同的可选择应用图标间导航。
在一些示例中,用户26可以通过用用户的食指240轻击第一触敏条18或通过在食指和拇指之间挤压第一触敏条18和第二触敏条22来选择显示在查看区域1304中的可选择项目。在其他示例中,用户26可以通过同时以第一X轴方向沿第一触敏条18滑动食指240以及以相对的X轴方向沿第二触敏条22滑动拇指250来选择显示在查看区域1304中的可选择项目。
在一些示例中,用户26可以通过第一触敏条18和/或第二触敏条22激活屏上控件。例如,用户可以通过在食指和拇指之间挤压第一触敏条18和第二触敏条22来激活音量控件并使得其通过显示设备14被显示。
将理解,前述的利用第一触敏条18和第二触敏条22以与显示在显示设备14上的用户界面交互的示例仅出于说明的目的被提供,而不旨在以任何方式进行限制。通过第一触敏条18和第二触敏条22的用户触摸输入的许多其他变形和组合以及通过用户界面程序64的对应的动作、命令、激活等等也是可能的。
图14A和14B示出根据本公开的一实施例的通过多个、平行的控制轴控制用户界面的方法1400的流程图。参考以上描述并在图1-13中示出的输入系统10和用户界面1300的软件和硬件组件来提供以下对方法1400的描述。可以理解,方法1400还可在使用其他合适的硬件和软件组件的其他上下文中来执行。
参考图14A,在1402,方法1400可以包括通过第一触敏条和第二触敏条提供两个不同且平行的控制轴以通过用户界面控制显示设备、导航应用和/或管理数据的可视化。在一个示例中,在1406,方法1400可以包括提供示出由显示程序经由显示设备向用户显示的第一应用的当前视图的查看区域。第一应用可以是照片查看应用、文本消息应用、应用菜单或任何其他合适的应用或操作系统特征。
在1410,方法1400可以包括将左侧应用区域提供在与所述查看区域邻近的地方。在1414,方法1400可以包括向用户提供指示左侧应用区域中的第二应用与在查看区域中可视的第一应用邻近的视觉线索。例如,在第二应用是可显示文本消息的文本消息应用的情况下,文本消息的几个单词的部分可以延伸到可由用户查看的查看区域中。以此方式,方法1400可以提供指示在一系列应用和/或菜单中文本消息应用与第一应用邻近的视觉线索。
在1418,方法1400可以包括将右侧应用区域提供在与查看区域的右侧邻近并与左侧应用区域横向相对的地方。一个或多个附加区域也可以被顺序地提供在与左侧应用区域和/或右侧应用区域邻近的地方。
在其中文本消息区域与查看区域邻近的一个示例中,在1422,方法1400可以包括从第一触敏条接收与用户的食指以第一方向沿该条滑动相对应的输入。在1426,方法1400可以包括,响应于接收到该输入,将文本消息区域移动到查看区域中。类似地,在应用菜单区域与查看区域的右侧邻近的情况中,在1430,方法1400可以包括从第一触敏条接收与用户的食指以和第一方向相反的第二方向沿该条滑动相对应的输入。在1434,方法1400可以包括,响应于接收到该输入,将应用菜单区域移动到查看区域中。在一些示例中,应用菜单区域可以提供与可以被启动的各种应用相对应的可选择图标的可滚动列表。
在1438,方法1400可以包括通过照片查看应用查看查看区域中的照片。在1442,方法1400可以包括使用第二触敏条来操纵照片的显示和/或在照片查看应用内导航。在一个示例中,在1446,方法1400可以包括通过用拇指触摸第二触敏条并沿X轴方向滑动拇指来放大或缩小照片。在1450,方法1400可以包括当所述缩放因子大于100%时,通过沿第一触敏条滑动食指来向左或向右平移所显示的视图。在1452,所述方法1400可以包括一旦处于平移模式中,通过沿第二触敏条滑动拇指来向上或向下平移所显示的视图。
在另一个示例中,在1454,方法1400可以包括通过以第一方向或第二相反的方向沿X轴滑动拇指来使来自照片的顺序排列中的不同照片滚动通过查看区域。例如,照片可以被顺序地布置并以对应于图13中的行动箭头V的方向向上或向下被滚动遍历。
在其他示例中并且当文本消息区域被显示在查看区域中时,在1458,方法1400可以包括通过沿X轴在第二触敏条上滑动拇指来滚动遍历附加的消息文本和/或滚动到不同的文本消息。在其他示例中并且当菜单区域被显示在查看区域中时,在1462,方法1400可以包括通过沿X轴在第二触敏条上滑动拇指来在不同的可选择应用图标间导航。在可选择图标间进行导航可以包括例如选择性地突出显示不同的图标。
在1466,方法1400可以通过用食指轻击第一触敏条或通过在食指和拇指之间挤压第一触敏条和第二触敏条来选择显示在查看区域中的可选择项目。在其他示例中,在1470,方法1400可以包括通过同时以第一X轴方向沿第一触敏条滑动食指以及以相反的X轴方向沿第二触敏条滑动拇指来选择显示在查看区域中的可选择项目。
在一些示例中,在1474,方法1400可以包括通过第一触敏条和/或第二触敏条来激活屏上控件。例如,在1478,方法1400可以包括通过在食指和拇指之间挤压第一触敏条和第二触敏条来激活音量控件并使得其通过显示设备被显示。
将可以理解,前述的利用第一触敏条和第二触敏条来与显示在显示设备上的用户界面交互的示例是仅仅出于说明的目的提供的,并不是要以任何方式进行限制。通过第一触敏条和第二触敏条的用户触摸输入的方法的许多其他变形和组合以及通过用户界面程序的对应的动作、命令、激活等等也是可能的。
还能够理解,方法1400是以举例方式提供的,并且不旨在为限制性的。因此,可以理解,方法1400可包括相比于图14A和14B中示出的那些步骤而言附加的和/或替换的步骤。并且,可以理解,方法1400可用任何适当的次序执行。而且,可以理解,一个或多个步骤可从方法1400中省略,而不背离本发明的范围。
图15示意性示出了可以执行上述方法和过程之中的一个或更多个的计算系统1500的非限制性实施例。计算设备32可以采取计算系统1500的形式。计算系统1500被以简化形式示出,并且可以表示任何类型的计算设备或组件。应当理解,可使用基本上任何计算机架构而不背离本公开的范围。在不同的实施例中,计算设备1500可以并集成到显示设备14中,或采用例如智能电话、膝上型计算机、笔记本或平板计算机之类的移动计算设备、桌面计算设备、网络计算机、家庭娱乐计算机、交互式电视、游戏系统、便携式媒体播放器、游戏设备等形式。
如图15所示,计算系统1500包括逻辑子系统1504和存储子系统1508。计算系统1500可任选地包括显示子系统1512、传感器子系统1516、通信子系统1520、输入子系统1522和/或在图15中未示出的其他子系统和组件。计算系统1500还可包括计算机可读介质,其中该计算机可读介质包括计算机可读存储介质和计算机可读通信介质。此外,在某些实施例中,此处所述的方法和过程可被实现为计算机应用、计算机服务、计算机API、计算机库,和/或包括一个或多个计算机的计算系统中的其他计算机程序产品。
逻辑子系统1504可包括被配置为执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统1504可被配置为执行一个或多个指令,该一个或多个指令是一个或多个应用、服务、程序、例程、库、对象、组件、数据结构、或其他逻辑构造的一部分。可实现这样的指令以执行任务、实现数据类型、变换一个或多个设备的状态、或以其他方式得到所希望的结果。
逻辑子系统1504可包括被配置成执行软件指令的一个或多个处理器。附加地或可替代地,逻辑子系统可以包括被配置为执行硬件或固件指令的一个或多个硬件或固件逻辑机器。逻辑子系统的处理器可以是单核或多核,且在其上执行的程序可被配置为并行或分布式处理。逻辑子系统可以任选地包括遍布两个或更多设备分布的独立组件,所述设备可远程放置和/或被配置为进行协同处理。该逻辑子系统的一个或多个方面可被虚拟化并由以云计算配置进行配置的可远程访问的联网计算设备执行。
存储子系统1508可包括被配置为保持可由逻辑子系统1504执行以实现此处所述的方法和过程的数据和/或指令的一个或多个物理持久设备。在实现此类方法和过程时,存储子系统1508的状态可以被变换(例如,以保持不同的数据)。
存储子系统1508可以包括可移动介质和/或内置设备。存储子系统1504可包括光学存储设备(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储器设备(例如,RAM、EPROM、EEPROM等)和/或磁性存储设备(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)等等。存储子系统1508可包括具有以下特性中的一个或多个特性的设备:易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址,以及内容可寻址。
在一些实施例中,可以将逻辑子系统1504和存储子系统1508的各方面集成在一个或多个共同设备中,通过该一个或多个共同设备,可以至少部分地实施本文所述的功能。这样的硬件逻辑组件可包括:例如,现场可编程门阵列(FPGA)、程序和应用专用集成电路(PASIC/ASIC)、程序和应用专用标准产品(PSSP/ASSP)、片上系统(SOC)系统以及复杂可编程逻辑设备(CPLD)。
图15还示出以可移动计算机可读存储介质1524形式的存储子系统1508的一方面,该介质可以用于存储可执行以实现此处所述的方法和过程的数据和/或指令。可移动计算机可读存储介质1524尤其是可以采取CD、DVD、HD-DVD、蓝光盘、EEPROM和/或软盘的形式。
将明白,存储子系统1508包括一个或多个物理持久设备。相反,在一些实施例中,本文描述的指令的各方面可以按暂态方式通过不由物理设备在至少有限持续时间期间保持的纯信号(例如电磁信号、光信号等)传播。此外,与本公开有关的数据和/或其他形式的信息可以经由计算机可读通信介质通过纯信号来传播。
显示子系统1512可用于呈现由存储子系统1508所保持的数据的可视表示。由于以上所描述的方法和过程改变了由存储子系统1508保持的数据,并由此变换了存储子系统的状态,因此同样可以转变显示子系统1512的状态以在视觉上表示底层数据的改变。显示子系统1512可包括利用几乎任何类型的技术的一个或多个显示设备。可以将此类显示设备与逻辑子系统1504和/或存储子系统1508一起组合在共享封装(例如眼镜200)中,或者此类显示设备可以是外围显示设备。显示子系统1512可包括例如显示设备14的显示系统30。
传感器子系统1516可包括被配置成感测不同的物理现象(例如,触摸、压力、可见光、红外光、声音、加速度、取向、位置等)的一个或多个传感器。传感器子系统1516例如可以被配置为向逻辑子系统1504提供传感器数据。如上所述,在一些示例中,传感器子系统1516可以包括被配置为感测通过人类手指、指示笔或其他输入设备中的触摸和/或压力的一个或多个触敏传感器。这种触摸传感器数据可以被用于执行诸如导航和控制用户界面、激活屏上控件等的任务。在其他示例中,传感器子系统1516可包括被配置为获取朝向用户或背对用户的图像的图像传感器、诸如加速计之类的可用于跟踪设备的运动的运动传感器、和/或任何其他合适的可被用于执行如上所述的方法和过程的传感器。
通信子系统1520可以被配置成将计算设备1500与一个或多个网络和/或一个或多个其他计算设备可通信地耦合。通信子系统1520可以包括与一个或多个不同通信协议兼容的有线和/或无线通信设备。作为非限制性示例,通信子系统1520可被配置为经由无线电话网、无线局域网、有线局域网、无线广域网、有线广域网等进行通信。在一些实施例中,通信子系统可允许计算系统1500经由诸如因特网之类的网络发送消息至其他设备和/或从其他设备接收消息。
输入子系统1522可包括诸如游戏控制器、姿势输入检测设备、语音识别器、惯性测量单元、键盘、鼠标或触摸屏之类的一个或多个传感器或用户输入设备或者与这些传感器或用户输入设备对接。在一些实施例中,输入子系统1522可以包括所选择的自然用户输入(NUI)部件或与其对接。这样的部件可以是集成式的或者是外设,并且输入动作的转换和/或处理可以在板上或板下处理。示例NUI部件可包括用于话音和/或语音识别的话筒;用于机器视觉和/或姿势识别的红外、色彩、立体和/或深度相机;用于运动检测和/或意图识别的头部跟踪器、眼睛跟踪器、加速计和/或陀螺仪;以及用于评估脑部活动的电场感测部件。
术语“程序”可用于描述本公开的被实现来执行一个或多个特定功能的一个方面。在某些情况下,可以经由执行存储子系统1508所保持的指令的逻辑子系统1504来实例化这样的程序。将理解,可以从同一应用、服务、代码块、对象、库、例程、API、函数等实例化不同的程序。类似地,相同的模块可由不同的应用、服务、代码块、对象、例程、API、功能等来实例化。术语“程序”意在涵盖单个或成组的可执行文件、数据文件、库、驱动程序、脚本、数据库记录等。
应该理解,此处所述的配置和/或方法在本质上是示例性的,并且这些具体实施例或示例不应被认为是局限性的,因为多个变体是可能的。此处描述的具体例程或方法可以表示任何数量的处理策略中的一个或多个。由此,所示出的各个动作可以按所示次序执行、按其他次序执行、并行地执行,或者在某些情况下被省略。同样,上述过程的次序可以改变。
本公开的主题包括各种过程、系统和配置以及此处公开的其他特征、功能、动作和/或属性、以及它们的任一和全部等价物的所有新颖且非显而易见的组合和子组合。

Claims (10)

1.一种用于在操作上被连接到计算设备的可佩戴显示设备的输入系统,所述可佩戴显示设备包括从所述可佩戴显示设备的显示梁延伸的至少一个镜腿臂,所述输入系统包括:
在所述镜腿臂的顶侧上沿第一轴延伸的第一触敏条;
在所述镜腿臂的与所述顶侧相对的底侧上平行于所述第一触敏条延伸的第二触敏条,其中所述第一触敏条的至少一部分和所述第二触敏条的至少一部分从第二轴的角度来看重叠;以及
其中所述第一触敏条和所述第二触敏条两者都被配置为从一个或多个用户手指沿所述第一轴滑动中生成线性触点输入信号,所述线性触点输入信号被提供给由所述计算设备的处理器执行的用户界面程序。
2.如权利要求1所述的输入系统,其特征在于,所述第一触敏条还被配置为从所述一个或多个用户手指按压所述第一触敏条中生成压力输入信号,所述压力输入信号被提供给所述用户界面程序。
3.如权利要求1所述的输入系统,其特征在于,还包括在所述镜腿臂的所述顶侧上的一个或多个输入按键,所述一个或多个输入按键被配置为从用户手指按压所述一个或多个输入按键中生成按键输入信号,所述按键输入信号被提供给所述用户界面程序。
4.如权利要求1所述的输入系统,其特征在于,所述第一触敏条和所述第二触敏条中的至少一个是单触敏条。
5.如权利要求1所述的输入系统,其特征在于,所述第一触敏条和所述第二触敏条中的至少一个是多触敏条。
6.一种在操作上被连接到计算设备的可佩戴显示设备,所述可佩戴显示设备包括显示梁和从所述显示梁延伸的至少一个镜腿臂,所述可佩戴显示设备包括:
输入系统,包括:
在所述镜腿臂的顶侧上沿第一轴延伸并被配置为从一个或多个用户手指沿所述第一轴滑动中生成第一线性触点输入信号的第一触敏条,所述第一线性触点输入信号被提供给由所述计算设备的处理器执行的用户界面程序;
在所述镜腿臂的与所述顶侧相对的底侧上平行于所述第一触敏条延伸的第二触敏条,所述第二触敏条被配置为从用户拇指沿所述第一轴滑动中生成第二线性触点输入信号,所述第二线性触点输入信号被提供给所述用户界面程序,并且其中所述第一触敏条的至少一部分和所述第二触敏条的至少一部分从第二轴的角度来看重叠;以及
位于所述镜腿臂的所述顶侧上的至少一个输入按键,所述至少一个输入按键被配置为从用户手指按压所述至少一个输入按键中生成按键输入信号,所述按键输入信号被提供给所述用户界面程序。
7.如权利要求6所述的可佩戴显示设备,其特征在于,所述第一触敏条具有第一长度,所述第一长度比所述第二触敏条的第二长度大。
8.如权利要求6所述的可佩戴显示设备,其特征在于,所述第一触敏条具有在大约25mm和大约75mm之间的长度。
9.如权利要求8所述的可佩戴显示设备,其特征在于,所述第一触敏条具有在大约1mm和大约5mm之间的宽度。
10.如权利要求6所述的可佩戴显示设备,其特征在于,所述第一触敏条和所述第二触敏条具有相同的长度并且沿所述第一轴与所述可佩戴显示设备的所述显示梁间隔相同的距离。
CN201480069912.2A 2013-12-18 2014-11-24 可佩戴显示输入系统 Active CN105829948B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/132,851 2013-12-18
US14/132,851 US9298298B2 (en) 2013-12-18 2013-12-18 Wearable display input system
PCT/US2014/066995 WO2015094588A1 (en) 2013-12-18 2014-11-24 Wearable display input system

Publications (2)

Publication Number Publication Date
CN105829948A true CN105829948A (zh) 2016-08-03
CN105829948B CN105829948B (zh) 2019-02-05

Family

ID=52146693

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480069912.2A Active CN105829948B (zh) 2013-12-18 2014-11-24 可佩戴显示输入系统

Country Status (4)

Country Link
US (1) US9298298B2 (zh)
EP (1) EP3084510B1 (zh)
CN (1) CN105829948B (zh)
WO (1) WO2015094588A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108398794A (zh) * 2018-04-20 2018-08-14 歌尔科技有限公司 一种增强现实设备
CN108474951A (zh) * 2017-05-02 2018-08-31 深圳市柔宇科技有限公司 全息波导显示系统
CN112558836A (zh) * 2020-12-24 2021-03-26 维沃移动通信有限公司 显示控制方法、装置、电子设备及介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10376238B2 (en) 2015-12-08 2019-08-13 General Electric Company System and method for customizing a probe grip for an ultrasound probe
US10890964B2 (en) * 2016-01-07 2021-01-12 Harshit SHRIVASTAVA Intent based inputs and forced feedback system for a virtual reality system
US10817126B2 (en) * 2016-09-20 2020-10-27 Apple Inc. 3D document editing system
US10674305B2 (en) 2018-03-15 2020-06-02 Microsoft Technology Licensing, Llc Remote multi-dimensional audio
US20230098116A1 (en) * 2020-02-17 2023-03-30 TK&H Holding AS A Gesture Detection System

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6331909B1 (en) * 1999-08-05 2001-12-18 Microvision, Inc. Frequency tunable resonant scanner
CN1996092A (zh) * 2005-12-28 2007-07-11 大学光学科技股份有限公司 具虚拟键盘之焦距可调整的头戴式显示系统及用于该系统的装置
US20100149073A1 (en) * 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
US20130044042A1 (en) * 2011-08-18 2013-02-21 Google Inc. Wearable device with input and output structures

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998032117A1 (en) 1997-01-17 1998-07-23 Iv Phoenix Group Inc. Upper body mounted display system
US20080062338A1 (en) 2003-11-03 2008-03-13 Ophthocare Ltd. Liquid-Crystal Eyeglass System
WO2009126264A2 (en) 2008-04-06 2009-10-15 David Chaum Proximal image projection system
US8665177B2 (en) 2010-02-05 2014-03-04 Kopin Corporation Touch sensor for controlling eyewear
KR20130000401A (ko) 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
US20120206322A1 (en) 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event and sensor input triggered user action capture device control of ar eyepiece facility
TW201224573A (en) 2010-12-02 2012-06-16 Hon Hai Prec Ind Co Ltd 3D glass saving electricity structure
US8509483B2 (en) 2011-01-31 2013-08-13 Qualcomm Incorporated Context aware augmentation interactions
CN102736252A (zh) 2011-04-15 2012-10-17 中强光电股份有限公司 三维立体眼镜及三维立体眼镜的供电方法
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
JP5978592B2 (ja) 2011-10-26 2016-08-24 ソニー株式会社 ヘッド・マウント・ディスプレイ及び表示制御方法
US8976085B2 (en) * 2012-01-19 2015-03-10 Google Inc. Wearable device with input and output structures
WO2013136696A1 (ja) 2012-03-13 2013-09-19 ソニー株式会社 ヘッドマウントディスプレイ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6331909B1 (en) * 1999-08-05 2001-12-18 Microvision, Inc. Frequency tunable resonant scanner
CN1996092A (zh) * 2005-12-28 2007-07-11 大学光学科技股份有限公司 具虚拟键盘之焦距可调整的头戴式显示系统及用于该系统的装置
US20100149073A1 (en) * 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
US20130044042A1 (en) * 2011-08-18 2013-02-21 Google Inc. Wearable device with input and output structures

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108474951A (zh) * 2017-05-02 2018-08-31 深圳市柔宇科技有限公司 全息波导显示系统
CN108474951B (zh) * 2017-05-02 2020-12-25 深圳市柔宇科技股份有限公司 全息波导显示系统
CN108398794A (zh) * 2018-04-20 2018-08-14 歌尔科技有限公司 一种增强现实设备
CN112558836A (zh) * 2020-12-24 2021-03-26 维沃移动通信有限公司 显示控制方法、装置、电子设备及介质

Also Published As

Publication number Publication date
CN105829948B (zh) 2019-02-05
US20150169120A1 (en) 2015-06-18
WO2015094588A1 (en) 2015-06-25
EP3084510A1 (en) 2016-10-26
US9298298B2 (en) 2016-03-29
EP3084510B1 (en) 2018-07-25

Similar Documents

Publication Publication Date Title
US20210181536A1 (en) Eyewear device with finger activated touch sensor
US20210034161A1 (en) Object motion tracking with remote device
CN105829948A (zh) 可佩戴显示输入系统
CN105900041B (zh) 利用视线跟踪进行的目标定位
EP3311250B1 (en) System and method for spawning drawing surfaces
US10019074B2 (en) Touchless input
US9740005B2 (en) Selectively pairing an application presented in virtual space with a physical display
EP2919104B1 (en) Information processing device, information processing method, and computer-readable recording medium
CN105612478A (zh) 用户接口程序化的缩放
CN105359082B (zh) 用于用户接口导航的系统和方法
US20180046363A1 (en) Digital Content View Control
KR20160150565A (ko) 헤드 마운트 디스플레이를 위한 3차원 사용자 인터페이스
JP2015516624A (ja) 有効インターフェース要素の強調のための方式
US20130201095A1 (en) Presentation techniques
KR102353919B1 (ko) 터치의 압력에 응답하여 지정된 동작을 수행하는 전자 장치 및 방법
CN117940964A (zh) 手工制作的增强现实体验
CN117940877A (zh) 增强现实道具交互
Butz Human-Computer Interaction 2

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant