CN107077227A - 智能指环 - Google Patents

智能指环 Download PDF

Info

Publication number
CN107077227A
CN107077227A CN201580050250.9A CN201580050250A CN107077227A CN 107077227 A CN107077227 A CN 107077227A CN 201580050250 A CN201580050250 A CN 201580050250A CN 107077227 A CN107077227 A CN 107077227A
Authority
CN
China
Prior art keywords
finger
intelligent
flexing
signal
finger ring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580050250.9A
Other languages
English (en)
Other versions
CN107077227B (zh
Inventor
W·金茨勒
K·P·欣克利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN107077227A publication Critical patent/CN107077227A/zh
Application granted granted Critical
Publication of CN107077227B publication Critical patent/CN107077227B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本说明书涉及智能指环。在一个示例中,智能指环可被配置成佩戴在用户手指的第一段上。示例智能指环可包括至少一个屈曲传感器,该屈曲传感器以能够检测至少一个屈曲传感器与该手指的第二段之间的距离的方式被固定到智能指环。示例智能指环还可包括输入组件,该输入组件被配置成分析来自至少一个屈曲传感器的信号以便检测该手指的姿态。

Description

智能指环
背景
计算设备正被制造成越来越多的形状因子。这些形状因子中的许多不适用于传统的诸如键盘和鼠标之类的用户输入技术。例如,诸如眼镜、腕带以及手表之类的可穿戴设备往往具有有限的输入选项。例如,小型可穿戴智能设备可能具有缺乏触摸面积的小界面,或者设备本身的放置可能使交互变得困难。本发明概念可为许多不同类型的计算设备提供用户控制选项。
概述
本说明书涉及智能指环。在一个示例中,智能指环可被配置成佩戴在用户的手指的第一段上。示例智能指环可包括至少一个屈曲传感器,该屈曲传感器以能够检测至少一个屈曲传感器与该手指的第二段之间的距离的方式被固定到智能指环。示例智能指环还可包括输入组件,该输入组件被配置成分析来自至少一个屈曲传感器的信号以便检测该手指的姿态。
以上列出的示例旨在提供快速参考以帮助读者,并且不旨在限定本文所描述的概念的范围。
附图简述
附图例示了本文档中所传达的概念的实现。所例示的实现的特征可通过参考以下结合附图的描述来更容易地理解。在可行的情况下,各附图中相同的附图标记被用来指代相同的元素。此外,每个附图标记的最左边的数字传达其中首次引入该附图标记的附图及相关联的讨论。
图1示出了根据本发明概念的一些实现的第一智能指环使用情形场景。
图2-4示出根据本发明概念的一些实现的手指姿态示例。
图5-8示出了根据本发明概念的一些实现的附加智能指环使用情形场景。
图9示出了根据本发明概念的一些实现的智能指环系统示例。
图10示出了根据本发明概念的一些实现的示例流程图。
详细描述
概览
本发明概念涉及一种可允许用户使用他/她的手指来控制伴随设备的智能指环。各实现涉及佩戴在用户的手指上的智能指环(例如,智能指环设备、可穿戴的指环设备、手指佩戴设备)。智能指环可检测手指的姿态(例如,手指姿态、位置)。在一些情形下,智能指环还可相对于手指定义坐标系,并且相对于该坐标系的一个或多个轴来检测手指姿态。智能指环还可相对于该坐标系检测和/或解释手指和/或指尖的移动(例如,手指姿态的改变)。智能指环可以无线地传送与手指的姿态和/或移动相关的信息,以便控制伴随设备。
第一智能指环使用情形场景示例
图1例示出了根据本发明概念的一些实现的示例使用情形场景100。在场景100中,示例智能指环102被用户104佩戴。用户104可能正使用智能指环与示例伴随设备106进行交互。在此示例中,仅有单个智能指环102被使用。然而,用户104可佩戴多个智能指环102(例如,佩戴在包括拇指的多个手指上)。
如图1的实例1所示,用户104正将智能指环102佩戴在他的食指108上。智能指环102可佩戴在食指的底部附近(例如,手指底部),与指尖110相对。(如本文所使用的,术语‘手指’可包括‘拇指’)。
图1例示出了用户104使用智能指环102与伴随设备106的交互的实例1、实例2、以及实例3。在此情形下,伴随设备106是具有显示器112的平板型设备。如图1的实例1所示,用户104的食指108被伸展,使得指尖110指向x-y参考轴的左上区域。在一些实现中,智能指环102可检测手指的姿态;在此情形下,手指相对的伸展。
如图1的实例2所示,食指108相对屈曲(例如弯曲)。因此,在实例2中,指尖110相对于y参考轴而言与实例1相比相对较低。在此情形下,智能指环102可检测手指的相对屈曲。如图1的实例3所示,用户已经旋转了他的食指,使得指尖大致沿着x参考轴向右移动。在此情形下,智能指环可检测与实例1和2相比的食指的相对伸展(类似于实例1)和/或该手指的旋转(例如,在取向上的改变)。
在一些情形下,通过智能指环102对伴随设备106的控制可包括对应于伴随设备106的显示器112上的位置的手指姿态,诸如用于控制光标位置。例如在实例1中,伴随设备106的显示器112上的点114可对应于在x-y参考平面中的指尖110的相对位置。注意到,点114的位置大致朝向显示器的左上区域,对应于食指108的姿态。
在其他情形下,通过智能指环102对伴随设备106的控制可包括对应于工作采取的手姿态的手指姿态。例如,对手指的相对屈曲的检测(实例2)可被解释为指示该手处于类似于持有计算机鼠标的手的位置。在一些实现中,一个或多个智能指环可被用于粗略估计虚拟计算机鼠标(例如,以模仿计算机鼠标动作)。例如,实例2中所示的手指姿态可被智能指环检测到并被用于提醒伴随设备接收虚拟计算机鼠标控制输入。智能指环可然后被用于检测模仿计算机鼠标使用的后续控制输入,例如诸如移动光标或点击右或左鼠标按钮。
在一些实现中,智能指环102可检测食指108从实例1到实例2的表示屈曲的姿态的改变。智能指环102还可检测食指108从实例2到实例3的表示伸展和旋转的姿态的改变。屈曲/伸展型手指移动将结合图2被更详细地讨论。旋转型手指移动将结合图3-4被更详细地讨论。
此外,在一些实现中,智能指环102可将手指姿态的改变解释为指尖的移动。例如,手指姿态改变可被解释为在图1的x-y参考平面中的指尖的移动。
在一些情形下,取决于伴随设备的计算环境(例如,上下文),食指108的移动可被智能指环102检测到并被解释来用于对伴随设备106的控制。例如,在用户104正在使用智能指环与伴随设备上的绘图程序进行交互的情形下,食指从实例1到实例2的移动可被解释为显示器112上(例如,在绘图程序的GUI上)的笔画116。同样在此情形下,食指从实例2到实例3的移动可被解释为显示器112上的笔画118。在另一示例中,用户可能正使用智能指环与web浏览器进行交互。在此情形下,食指从实例1到实例2的移动可被解释为在显示器上滚动搜索结果。在又一示例中,手指移动可被解释为用于在显示器上拖动某一项的控制输入。这些示例不意味着限制,而是可将检测到的手指移动和/或姿态映射到各种控制输入(例如,用户输入)中的任何一个。
总之,智能指环可感测手指姿态和/或来自手指底部的细微级别的、不明显的指尖运动,这可使用看起来像并感觉起来像普通指环的设备来允许随时可用的手指控制输入。智能指环可感测手指姿态和/或跟踪来自手指底部的不明显的指尖移动,而无需指尖的仪器(例如,无需用户在他/她的指尖上佩戴某物)。这保持了用户的正常手功能完好并允许社会可接受的外观。
手指姿态示例
图2-4例示出了根据本发明概念的一些实现的示例手指姿态。
图2-3示出了示例场景200。在场景200中,示例智能指环102被用户204佩戴在他的食指206上。图2示出了沿x-y-z参考轴的x轴的视图,而图3示出了沿z轴的视图。图2-3将被用于描述不同的手指姿态。图2-3还例示出了可被用于描述在x-y平面中的指尖208的移动的坐标系。
如可根据图2被理解的,食指206的指尖208、拇指210、和/或用户204的手掌212可正搁置在诸如台面或桌面之类的表面214上。在一些情形下,指尖208可以指的是当用户204将他的手掌212搁置在表面214上时自然地或舒适地触摸该表面214的食指206的端部。
如图2所示,食指206可具有第一段216(例如,近节指骨)、第二段218(例如,中节指骨)、以及第三段220(例如,远节指骨)。在此示例中,智能指环102可佩戴在食指206的第一段216上。食指还可具有第一关节222(例如,掌骨指骨关节)、第二关节224(例如,近节指间关节)、以及第三关节226(例如,远节指间关节)。
图2包括实例1,其中食指206相对伸展,指尖208沿着y轴进一步远离拇指210和/或手掌212。图2包括实例2,其中食指206相对屈曲,指尖208沿着y轴相对更接近拇指210和/或手掌212。
在一些情形下,手指移动可包括屈曲(例如,弯曲)和/或伸展(例如,伸直)。从实例1中的食指的相对伸展到实例2中的相对屈曲的进展可被认为是食指的屈曲。在一些情形下,屈曲或伸展可通过第一关节222、第二关节224、和/或第三关节226来实现。
在一些情形下,第二关节224的屈曲(例如,弯曲)可导致从食指的第一段216到第二段218的距离的改变。在图2的实例1中,智能指环102到第二段218的距离可以是距离d1。在实例2中,智能指环102到第二段218的距离可以是距离d2。在此情形下,距离d2小于距离d1,对应于此情形下的第二段218更接近实例2中的智能指环。在一些实现中,智能指环可确定距离d1、距离d2、和/或从距离d1到距离d2的改变。结合图9提供了用于确定诸如距离d1和距离d2之类的距离的示例组件的讨论。
替换地或附加地,智能指环102可确定其他手指、手指段、智能指环等之间的距离,以便检测手指姿态。例如,在一些实现中,智能指环可检测或粗略估计从第三段220到拇指210或从第三段到手掌212的距离。
此外,在一些情形下,手掌212可正搁置在表面214上相对固定的位置处。在此情形下,在手掌搁置在表面上相对固定的位置处的情况下,食指的屈曲或伸展可导致相对于表面的在y方向上的指尖的移动。在一些实现中,智能指环102可将手指姿态的屈曲/伸展型改变解释为在y方向上的指尖的移动。
如结合图1的实例2和3所描述的,智能指环102可检测因食指108的旋转以及屈曲/伸展而不同的手指姿态。现在参考图3,手指的旋转移动可与x-y-z坐标系相关。
图3例示出了沿着z轴的视图,其中智能指环102被用户204佩戴在他的食指206上。类似于图1的实例3中的示例,在图3中食指相对伸展。在一些情形下,用户204可通过相对于x-y-z参考轴的z轴旋转他的手300来移动他的食指206和/或指尖208。例如,如图3所示,用户可在手腕302(例如,腕节)处旋转(例如,枢转)他的手,并且手腕可被认为是锚点304。在此示例中,指尖208可跟随弧306。在图3中,弧306位于距离锚点304的半径r处。注意到,如果手指的屈曲/伸展改变,则半径r也将改变。
在图3所示的示例中,角度Φ可被认为是指尖的旋转移动量。换句话说,食指的旋转可以是旋转速率dΦ(例如,ΔΦ)。在一些实现中,用户的舒适运动范围可具有可定义单位方形308的物理大小(例如,面积)。在一些情形下,单位方形的中心可被认为是坐标系的原点310。原点可位于距锚点304的固定距离w处。
相对于手腕的坐标系的元素(例如,w、r、Φ)可被认为是手腕坐标系的各部分。图3中所示的坐标系并不意味着限制,例如,单位方形、原点、锚点等的其他大小和/或位置被考虑。用于将半径r和角度Φ映射到相对于坐标系的x和y轴的位置和/或移动的技术将结合图9被详细地描述。
在一些实现中,图3中所示的坐标系可相对于表面(诸如图2中所示的表面214)固定。例如,在用户204将他的手掌212搁置在表面214上相对固定的位置处的情形下,图3中的锚点304可与图2的表面214上的手掌212的相对固定的位置相对应。在此情形下,由智能指环102检测到的食指206的旋转移动(例如,角度Φ)可与在该表面的x方向上的指尖208的移动相关。此外,由智能指环检测到的食指的屈曲/伸展型移动(例如,半径r)可与在该表面上的y方向上的指尖的移动相关。
在一些实现中,尽管旋转轴的位置可不同于图3中所示的位置,但是旋转可仍然围绕z轴。一个示例在图4中被例示出。图4示出了示例场景400,其中示例智能指环102由用户404佩戴在他的食指406上。在场景400中,用户404可通过相对于x-y-z参考轴的z轴旋转食指406来移动他的食指406和/或指尖408。在此示例中,用户可在410的第一关节处旋转(例如,枢转)他的食指(例如,内收,外展),并且该第一关节可被认为是锚点412。在此示例中,指尖408可沿着位于距离锚点412的半径r’处的弧414移动。在此情形下,角度Φ’可被认为是指尖的旋转移动量。在一些实现中,相对于第一关节的坐标(例如,r’、Φ’)可被认为是第一关节坐标系的一部分。在其他示例中,旋转轴可穿过x-y平面中的另一个点(例如,相对于用户的肘部的点)。
总而言之,在一些实现中,智能指环可被用于检测其上佩戴有智能指环的手指的姿态。在一些情形下,智能指环可检测手指姿态方面的改变。此外,用于用户的指尖的移动的坐标系可被定义。智能指环然后可被用于跟踪相对于坐标系的指尖的移动。例如,智能指环可跟踪任何表面的x-y平面中的不明显的指尖移动。
附加智能指环使用情形场景示例
图5-8例示出了附加的示例使用情形场景。
图5示出了示例使用情形场景500。在场景500中,示例智能指环502被用户504佩戴在他的食指506上。此场景还涉及示例伴随设备508。伴随设备508被放置在用户504的右后口袋510中。图5示出了用户504用他的食指506触摸他的裤腿512的侧面。
在此示例中,食指506的姿态可被智能指环502检测到。在此情形下,姿态和/或姿态方面的改变可被解释为诸如用于控制伴随设备508的输入之类的控制输入(例如,用户输入)。此外,解释可诸如通过涉及伴随设备508的动作来被应用。例如,伴随设备508可以是智能电话型设备。用户504可在智能电话上接收电话呼叫,并且可希望无需将伴随设备508从他的后口袋中取出来拒绝该电话呼叫。在此情形下,用户504可用他的食指执行姿势。姿势可被智能指环检测到。智能指环可将姿势传递给伴随设备508。伴随设备508可在伴随设备508的计算环境的上下文内解释姿势。在此示例中,伴随设备508可解释该姿势以便拒绝电话呼叫。以下结合图9描述用于完成此功能的机制。
在一些实现中,被智能指环502检测到的姿势可无需视线(例如,光学传输)而被传递到伴随设备508。例如,在图5中,伴随设备508在用户504的后口袋510中。作为对在口袋中的伴随设备508的替换或附加,用户504可以在他的手在口袋(例如,前裤口袋)中的情况下使用智能指环。
在一些实现中,手指姿态和/或移动可被智能指环502检测到,而不管手指506和/或手可能正在触摸的表面材料。在一些情形下,表面或材料不必是刚性的。例如,图5所示的裤腿512不是刚性的表面或材料。
在图5所示的示例中,食指506的指尖可在裤腿512上以y方向垂直地上下移动,或在该裤腿上以x方向水平地前后移动(进出绘制页面)。此x-y坐标系可被用于描述利用智能指环502对伴随设备508的控制输入。在一些实现中,伴随设备508的取向可独立于与智能指环相关联的坐标系。例如,伴随设备508可位于用户504的右后口袋510中、左后口袋514中、前口袋(未示出)中、被用户504握持在他的手中(例如,握持在他的左手中)、或位于其他地方(诸如搁置在椅子516上或位于远程位置处)。如此,伴随设备508可处于各种位置、放置或取向中的任何一个,并接收来自智能指环的控制输入。在此情形下,伴随设备508可将相对于智能指环的坐标系所收集的手指姿态和/或移动映射到伴随设备508的适当取向。
图6示出了涉及被用户604佩戴在他的食指606上的示例智能指环602的使用情形场景600。在此情形下,用户604正在与数字显示设备608(例如,伴随设备)交互。在此示例中,数字显示设备包括深度传感器610。在一些实现中,深度传感器可被表现为红、绿、蓝,正深度(RGBD)相机。各种类型的可见光、不可见光、和/或声波深度传感器等等可被采用。
深度传感器610可被用于检测在数字显示设备608前面的用户604的存在并检测由在数字显示设备前面的用户执行的大规模姿势(例如,手臂移动)。然而,深度传感器可能不能够精确地检测靠近数字显示设备的用户控制输入。例如,深度传感器可能不能够区分细微级别的、不明显的指尖运动(例如,笔画输入)。智能指环602可感测不明显的指尖运动,诸如如箭头612所指示的向下方向上的笔画输入。来自深度传感器610和智能指环602的数据可检测在数字显示设备前面的大规模用户姿势以及在数字显示设备处的较小规模、不明显的指尖运动。因此,智能指环602和深度传感器610可共同地提供信息,该信息可允许数字显示设备以类似于触敏显示设备的方式工作而无需确实是“触敏”的。
图7示出了与图6的使用情形场景类似的另一使用情形场景700。在此情形下,智能指环602可与智能眼镜702协作操作以用于提供关于用户604的信息。例如,智能眼镜可捕捉关于用户前面有什么东西的信息。在此示例中,智能眼镜可“看到”数字显示设备608上的内容。智能眼镜可能在区分作为对数字显示设备608的控制输入的细微级别的、不明显的指尖运动方面是不太有效的。然而,如上面结合图6所解释的,智能指环602可精确地确定诸如笔画输入704之类的小范围控制输入。智能指环602和智能眼镜702可与数字显示设备608通信以便检测触摸和/或非触摸用户姿势,以用于向用户提供增强的交互式体验。
图8示出了涉及被用户804佩戴的示例智能指环802(1)和802(2)的使用情形场景800。智能指环802(1)被放置在用户的食指806上,并且智能指环802(2)被放置在用户的中指808上。在此情形下,用户804在实例1、实例2、以及实例3处正在与智能手表810(例如,伴随设备)交互。在一些实现中,无论手指和/或手是否正在触摸表面,智能指环都可检测手指姿态。在图8所示的示例中,用户804没有用他的食指、中指、和/或右手触摸表面。
实例1示出了用户804,其中他的食指806相对伸展。食指的相对伸展可被智能指环802(1)检测到。相对伸展可被解释为第一用户控制输入,诸如用于选择将要在智能手表810上运行的应用。
实例2示出了用户804通过屈曲食指806来执行控制输入。此控制输入可被智能指环802(1)检测到,并由智能指环通过在手指姿态方面食指的相对屈曲的改变来将此控制输入与实例1的控制输入进行区分。例如,此控制输入可被解释为对智能手表810的向下滚动控制输入。
实例3示出了类似于实例2的用户804进行的控制输入,除了它由食指806和中指808两者执行(例如,多手指姿势)并被智能指环802(1)和智能指环802(2)检测。例如,此控制输入可被解释为对智能手表810的“选择”控制输入。以下结合图9描述用于完成此功能的机制。
示例智能指环系统
图9示出了示例智能指环系统900。出于解释的目的,系统900包括智能指环902(类似于智能指环102、502、602、和/或802)和多个示例伴随设备106(例如,平板型设备)、伴随设备508(例如,智能电话型设备)、伴随设备608(例如,数字显示设备)、伴随设备610(例如,深度传感器)、伴随设备702(例如,智能眼镜)、以及伴随设备810(例如,智能手表)等等。这些设备中的任何一个可通过一个或多个网络904进行通信。
针对智能指环902例示出了两个配置906(1)和906(2)。简而言之,配置906(1)表示操作系统中心配置,而配置906(2)表示片上系统配置。配置906(1)被组织成一个或多个应用908、操作系统910和硬件912。配置906(2)被组织成共享资源914、专用资源916以及其间的接口918。
在任一配置中,智能指环902可包括存储920、处理器922、电池924(或其他电源)、电池充电器926、传感器928、通信组件930、输入组件932、和/或姿势组件934。这些元件可被放置在物理手指带936中/被放置在物理手指带936上或以其他方式与物理手指带936相关联。例如,元件可被放置在手指带936内,使得智能指环902具有传统“珠宝”戒指的通用外观。手指带936可由各种材料形成,诸如塑料、聚合物和/或诸如玉或其他矿物质等其他材料之类的天然材料。智能指环902还可包括诸如宝石之类的装饰方面以便模仿传统珠宝戒指。
在一些实现中,输入组件932(3)和/或姿势组件934(3)的实例可被定位在诸如图9所示的智能手表810之类的伴随设备上。替换地或附加地,输入组件932(3)和/或姿势组件934(3)可被定位在包括多个设备的任何伴随设备(例如,设备106、508、608、610、和/或702)上和/或基于远程云的资源(未示出)上。
从一个角度来看,智能指环902和伴随设备106、508、608、610、702、和/或810中的任何一个可被认为是计算机。
如本文所使用的术语“设备”、"计算机"或"计算设备"可意味着具有一定量的处理能力和/或存储能力的任何类型的设备。处理能力可由一个或多个处理器提供,处理器可执行计算机可读指令形式的数据以提供功能。数据(诸如计算机可读指令和/或用户相关数据)可被储存在存储上,诸如对计算机而言可以是内部或外部的存储。存储可包括易失性或非易失性存储器、硬盘驱动器、闪存设备、和/或光存储设备(例如,CD、DVD等)、远程存储(例如,基于云的存储)等等中的任何一个或多个。如本文所使用的,术语"计算机可读介质"可包括信号。相反,术语"计算机可读存储介质"排除信号。计算机可读存储介质包括"计算机可读存储设备"。计算机可读存储设备的示例包括诸如RAM之类的易失性存储介质、诸如硬盘驱动器、光盘和/或闪存存储器之类的非易失性存储介质,以及其他。
如上所述,配置906(2)可被认为是片上系统(SOC)型设计。在这一情形下,设备所提供的功能可被集成在单个SOC或多个经耦合的SOC上。一个或多个处理器可被配置成与共享资源(诸如存储器、存储等),和/或与一个或多个专用资源(诸如被配置成执行某些特定功能的硬件块)进行协调。这样,本文所使用的术语“处理器”还可指中央处理单元(CPU)、图形处理单元(GPU)、控制器、微控制器、处理器核或其他类型的处理设备。
一般而言,本文描述的任何功能可使用软件、固件、硬件(例如,固定逻辑电路)、或这些实现的组合来实现。本文所使用的术语“组件”一般表示软件、固件、硬件、整个设备或网络,或其组合。例如在软件实现的情况下,其可以表示当在处理器(例如,一个或多个CPU)上执行时执行指定任务的程序代码。程序代码可被储存在一个或多个计算机可读存储器设备中,诸如计算机可读存储介质。组件的各特征和技术是平台无关的,从而意味着它们可在具有各种处理配置的各种商用计算平台上实现。
多种类型的传感器928可被包括在智能指环902中。例如,智能指环902可包括屈曲传感器938和旋转传感器940。在一些实现中,屈曲传感器可通过测量距离d(例如,图2的实例1中的d1和实例2中的d2)来感测食指206的中间部分218距智能指环902的邻近度。屈曲传感器可产生与距离d相关的邻近度信号。屈曲传感器还可产生诸如连续被检测到的信号之类的不断改变的邻近度信号。
在一个示例中,屈曲传感器938可以是用于测量手指屈曲和/或伸展的红外邻近度传感器。在此示例中,屈曲传感器可由具有LED和检测器的红外发射器组成。红外发射器和检测器一起可用作红外邻近度传感器。例如,被检测器检测到的IR光的量可与智能指环902和用户的食指的中间部分之间的距离有关。在一些情形下,皮肤的朗伯(Lambertian)反射可被假设,并且光强可随着距离二次方地下降(例如,逆平方定律)。当食指屈曲或伸展时,距离d可改变。在一些实现中,红外发射器和检测器可具有窄视角(例如,分别为例如6°和12°),以便防止来自其他手指或输入表面(例如,图2的表面214)的杂散反射。为了抑制环境光照改变,可通过以下来测量距离d:首先记录在LED“关闭”情况下的来自检测器的输出,然后记录在LED“打开”情况下的来自检测器的输出。可从在LED“打开”情况下的值中减去在LED“关闭”情况下的值来确定距离d。
在一些实现中,旋转传感器940可产生能够给出手指旋转的指示的旋转信号。旋转传感器还可产生不断改变的旋转信号。例如,旋转传感器可以是用于测量手指旋转(诸如如3所示的角度Φ)的1轴陀螺仪。
在图9中,虽然屈曲传感器938和旋转传感器940被示为从手指带936突出,但是可更集成地被安装到手指带。替换地或附加地,屈曲传感器和旋转传感器不必被彼此相邻地安装。例如,旋转传感器可被安装在屈曲传感器(未示出)的相对侧上。例如,旋转传感器可被假扮成手指带上的“珠宝”或其他装饰物。附加地或替换地,装饰物可包括和/或遮挡电池924和/或其他组件。
输入组件932可从传感器928接收控制输入(例如,信号)。在一些实现中,输入组件932可根据传感器信号来标识手指姿态和/或移动。例如,输入组件可使用来自传感器的信号来标识图2的实例1中的食指206的相对伸展。在此示例中,输入组件可用来自屈曲传感器938的信号来标识该手指的相对伸展。例如,来自屈曲传感器938的信号可与指示相对伸展的距离d1相关。
在一些实现中,输入组件932可使用来自传感器928的信号来标识手指姿态方面的改变。例如,参考图1,输入组件可使用来自传感器的信号来检测实例2和实例3之间的食指108的姿态方面的改变。在此情形下,输入组件可使用来自屈曲传感器938的信号来标识手指的伸展,并且可使用来自旋转传感器940的信号来标识手指的旋转。
此外,在一些实现中,输入组件932可定义用于指尖208的移动的坐标系,诸如结合图3所描述的。输入组件可将手指姿态、姿态改变、和/或坐标系信息传递到姿势组件934。姿势组件934可将手指姿态和/或改变解释为相对于所定义的坐标系的用户的指尖的移动。例如,姿势组件可将手指姿态改变解释为图3所示的x-y平面内的指尖的移动。
在一些实现中,姿势组件934可标识与手指姿态和/或移动相关联的控制输入姿势。在这些情形中的一些情形下,姿势组件可考虑伴随设备(例如,伴随设备106)的计算环境以便更精确地标识用户所打算的控制输入姿势。例如,姿势组件可确定用户正在与之交互的伴随设备的计算环境对应于绘图程序、互联网浏览器、文字处理应用等。因此,姿势组件可取决于用户正在参与的交互的类型来提供手指姿态或移动的不同解释。结合图1提供了不同解释的示例。
总而言之,输入组件932可接收来自诸如屈曲传感器938或旋转传感器940之类的传感器928的信号。输入组件可根据信号来确定手指姿态和/或移动。手指姿态可被传递到姿势组件934,该姿势组件可将手指姿态/移动解释为用于伴随设备的各种复杂的、细微级别的、不明显的用户控制输入中的任何一个。例如,用户可使用智能指环将文本输入到伴随设备。在一些情形下,控制输入可被姿势组件解释为二维(2D)输入。在其他情形下,控制输入可被解释为三维(3D)输入或其他类型的输入,诸如触摸感测或触摸近似。以下提供了智能指环控制输入的进一步描述。
再次参考图9,通信组件930可允许智能指环902与各种设备(诸如所例示的伴随设备)进行通信。通信组件可包括用于使用诸如蜂窝、Wi-Fi(IEEE802.xx)、蓝牙(例如蓝牙发射器)等各种技术来进行通信的接收机和发射机和/或其他射频电路。
注意到,在一些情形下,智能指环902上的输入组件932可以是相对稳健的,并对从传感器928接收的信号执行分析,以便确定手指姿态和/或手指移动。输入组件可然后向智能指环正与其协作操作的智能指环上的姿势组件934和/或伴随设备(例如,设备106、508、608、610、702、和/或810中的任何一个)发送所确定的手指姿态和/或移动的指示。在其他场景下,智能指环上的输入组件可向远程资源(诸如基于云的资源)发送信号和/或其他信息以便进行处理。
类似地,在一些情形下,智能指环902上的姿势组件934可以是相对稳健的,并对从输入组件932接收的信息执行分析以便标识用户控制输入。例如,智能指环上的姿势组件可基于所标识的控制输入来引导伴随设备(例如,设备106、508、608、610、702、和/或810中的任何一个)上的动作。在其他情形下,诸如姿势组件934(3)的姿势组件被定位在智能指环正与其协作操作的伴随设备上。在这些情形下,输入组件可向伴随设备上的姿势组件934(3)发送信号、手指姿态、和/或手指移动信息以用于分析。伴随设备上的姿势组件然后可分析传感器信号、手指姿态、和/或手指移动信息以便解释和/或标识用户控制输入。附加地,在一些情形下,姿势组件还可分析来自一个或多个附加智能指环、伴随设备、和/或另一设备上的传感器的附加信号,以便共同解释用户控制输入。在其他情形下,姿势组件可向诸如基于云的资源之类的远程资源发送信息以便进行处理。
一些实现可利用校准过程来增强对各个用户的准确性。对手腕坐标系(诸如结合图3所描述的)的示例校准过程可开始于用户将他/她的手腕和仪器化的手指(例如,佩戴智能指环的手指)的指尖搁置在表面(诸如图2中的表面214)上。注意到,将手腕搁置在表面上可包括以允许用户在手腕处舒适地枢转(例如,旋转)的方式将手掌、手、手腕、或手臂的任何部分搁置在表面上。在一些情形下,将手腕和指尖搁置在表面上可防止在交互期间用户的手臂和/或手的疲劳。附加地,在一些情形下,将手腕和指尖搁置在表面上可限制各种手部移动并促进可用智能指环上的传感器测量的那些移动。
如上文结合图3所述,手腕锚点304可被认为是空间中的固定点。在手腕302处于相对固定的位置的情况下,可使用两个基本移动来移动仪器化的食指206的指尖208。第一移动是手300在手腕302处的旋转(与左/右移动、或如图3所示的在x方向上的移动相关)。手300的旋转可在半径r处沿着弧306移动指尖208。旋转可改变角度Φ。第二移动是仪器化的食指206的屈曲/伸展(与上/下移动、或如图3所示的在y方向上的移动相关)。屈曲和/或伸展食指206可使指尖208进一步离开和/或接近手腕锚点304移动,这可改变半径r。注意到,当指尖208沿着y方向与手腕锚点304成一直线时,x值和角度Φ两者都可被认为是零。
在一些实现中,输入组件932可通过随着时间上对旋转传感器940的输出dΦ(例如,旋转速率,ΔΦ)进行积分来确定角度Φ。例如,dΦ可从交互的开始处被积分,其中角度Φ=0。在旋转传感器940包括作为传感器928之一的陀螺仪的情况下,陀螺仪漂移可能不被修正,或者陀螺仪漂移可用磁力计来修正,诸如用于较长的交互。
在一些实现中,输入组件932可通过在所测量的距离d(参见图2)和半径r之间的映射来确定半径r。在智能指环902上的屈曲传感器938包括红外邻近度传感器的情况下,映射可包括对若干非线性效应进行考虑。例如,非线性效应可包括手指屈曲/伸展移动的运动学、红外邻近度传感器的IR亮度衰减、以及红外邻近度传感器的IR检测器中的非线性。在一些情形下,校准过程可包括让用户沿着一组已知半径r移动他们的手指,并记录相应的距离d值。
在一些实现中,输入组件932可使用线性模型来粗略估计距离d和半径r之间的映射。附加地或替换地,在实践中角度Φ可以是相对小的,使得输入组件可使用角度Φ来直接粗略估计在x方向上的线性移动。因此,在一些情形下,用于将传感器读数映射到手腕坐标系的模型可是线性的:x=a*Φ并且y=b*d–w。变量“a”和“b”的示例校准将在下文被描述。
在一些实现中,由用户执行的初始化序列可被输入组件932用于寻找与距离d和角度Φ对应的传感器值。示例初始化序列可包括用指尖208三次在表面(诸如图2中的表面214)上的x-y平面中跟踪圆(或一些其他独特动作)。在一些情形下,在假设手腕被保持在固定位置的情况下,跟踪圆可在用户的舒适的移动范围内移动指尖。在这些情形下,初始化序列可包括在图3所示的手腕坐标系的单位方形308内的移动。输入组件可用圆的大小来定义单位方形308的物理大小,并还提供了原点310(例如,圆的中心)。
在一些实现中,当用户正在执行初始化序列时,输入组件932可记录可被用于计算以下校准参数的传感器数据:a=0.35/SD(Φ)、b=0.35/SD(d)、并且w=mean(d),其中SD是标准偏差。此处,0.35是的比例因子(≈1/2√2),该比例因子是峰到峰幅值为1的正弦波信号的逆SD。在此示例中,由于用户跟踪一个圆,所以角度Φ和“b”将是正弦波,因此比例因子可将用户的所跟踪的圆映射到手腕坐标系的单位方形308(物理大小)。
总而言之,输入组件932可使用线性模型来将传感器读数映射到手腕坐标系,以便在坐标x和y中确定指尖位置。输入组件可使用传感器信号来确定角度Φ和半径r。输入组件可然后使用角度Φ和半径r来恢复指尖位置的x和y坐标。以此方式,输入组件可向姿势组件934发送用于解释x-y平面中的各种细微级别的、不明显的用户控制输入的信息。例如,姿势组件可解释被用户用他/她的指向伴随设备的屏幕的光标的指尖所跟踪的文本输入,或被用户执行的各种姿势(诸如滑动、滚动等)。换句话说,智能指环902可允许对使用任何可用表面的启用触摸的表面上的控制输入进行粗略估计。表面可具有任何取向,并且不必是平坦的。
注意到,用户可相对于不同的旋转轴来移动他/她的指尖,如图4所示。然而,尽管旋转轴的位置的偏移可能改变从原点到坐标系的锚点的距离w(参见图3),但是位置偏移可能不改变被输入组件932用于校准坐标系或在坐标x和y中恢复指尖位置的其他建模假设。例如,线性映射模型可被使用。
再次参考图9,在一些实现中,输入组件932可将智能指环902置于非活动的睡眠状态,以便防止将日常用户活动意外解释为控制输入和/或姿势。替换地或附加地,智能指环可被置于非活动状态以便节省能量。例如,当不使用时,旋转传感器940可处于低功率的、自主的运动检测状态。
当用户准备好在可用表面上输入控制输入时,智能指环902可被输入组件932带入活动状态。换句话说,与智能指环的交互可被发起(例如,触发),和/或智能指环可被输入组件“解锁”。在一些实现中,当用户用智能指环执行独特移动时,智能指环可被带入活动状态。在一些情形下,该独特移动可以是初始化序列,该初始化序列还可被用于校准该智能指环。例如,在x-y平面中三次跟踪圆的初始化序列(或一些其他的独特动作)可被输入组件解释为“解锁”智能指环并校准用于用该智能指环进行的控制输入的坐标系两者。以此方式,坐标系的单位方形的大小范围可适应于不同的应用或各身体姿态(其在舒适运动范围方面可能不同)。换句话说,单位方形的大小范围可取决于用户的位置而在各使用之间改变,并且将智能指环的坐标系重新校准到更合适的单位方形大小可能是有利的。
一些智能指环系统可包括在具有屏幕的伴随设备上的视觉反馈(例如,光标),或用于视觉反馈使用情形的选项。在这些系统或使用情形下,在使用视觉反馈期间与智能指环902的交互可被“始终开启”。在这些情形下,用户可通过在相应方向上移动仪器化有智能指环的手指来将光标移向屏幕的边缘。在一些情形下,诸如在光标已经到达伴随设备的屏幕的边缘之后,用户可能在相应方向上继续移动他们的手指。在一些实现中,光标位置可被钳制(例如,锁定)在屏幕的边缘,使得当用户使用智能指环将光标移向屏幕边缘时,在此方向上任何进一步的移动将沿空间拖动手腕坐标从一个角度来看,一单位方形(诸如图3所示的单位方形308)可被映射到屏幕的一区域。当光标到达屏幕的边缘时,智能指环系统可调整单位方形和/或屏幕的对准,使得单位方形保持与屏幕对准和/或被映射到屏幕。以此方式,可防止光标离开屏幕或变为“丢失”。考虑将光标保持在屏幕视图内的其他方法,或容纳具有视觉反馈的智能指环的“始终开启”的使用。
此外,为各传感器供电和分析传感器数据消耗了功率。输入组件932可管理传感器928、电池924、处理器922、和/或其他组件以节省资源。在其他配置中,功率管理控制器(未示出)可管理各组件。
总之,本实现中的至少一些可提供可穿戴的智能指环,其可使用户能够输入控制输入。智能指环可使用手指姿态检测来捕捉用户交互实例。
示例方法
图10例示出了与本发明概念的至少一些实现一致的技术或方法1000的流程图。
在框1002,方法1000可从佩戴在手的手指上的智能指环获得旋转信号,该旋转信号反映手指相对于手的旋转。
在框1004,方法1000可获得反映手指的屈曲的屈曲信号。
在框1006,方法1000可分析旋转信号和屈曲信号以便标识由手指执行的控制输入。在一些情形下,分析可包括标识手指的姿态。
在一些情形下,方法1000可被处理器或微控制器在智能指环上执行。在其他情形下,信号可从智能指环被发送到诸如邻近智能指环并与智能指环协作工作的伴随设备之类的另一设备。伴随设备然后可执行解释。一些实现可涉及单个用户佩戴多个智能指环。在这一情形下,每个智能环可将其信号传递到伴随设备(例如,具有针对各信号的不同的指环标识符)。伴随设备可然后解释与单个手指或多个手指相关的控制输入(例如,多手指控制输入)。
在一些情形下,智能指环可包含感测其他参数的其他传感器。来自其他传感器的信号可与来自屈曲传感器和/或旋转传感器的信号相组合地被解释以便标识用户控制输入。在又一些情形下,其他设备上的传感器可提供信号,该信号可与感测到的信号相结合地被用于标识用户控制输入。结合图6-7例示出了此类场景的示例,其中数字显示设备608、深度传感器610、和/或智能眼镜702可感测用户并提供可与屈曲和/或旋转数据相组合地使用的数据。此外,在诸如数字白板场景之类的一些情形下,多个用户可能正在执行控制输入,并且每个用户可能正佩戴着一个或多个智能指环。
结语
总之,本实现可从佩戴在用户手指上的智能指环上的屈曲传感器和/或旋转传感器导出关于手指姿态的有用信息。
所描述的方法或过程可由上述系统和/或设备来执行,和/或由其他设备和/或系统来执行。描述方法的次序并不旨在被解释为限制,并且任何数量的所描述的动作都可以按任何次序进行组合以实现该方法或实现替换方法。此外,方法还可以用任何合适的硬件、软件、固件或其组合来实现,以使得设备可实现该方法。在一种情形下,该方法作为指令集被储存在计算机可读存储介质上,以便计算设备的处理器的执行使得该计算设备执行该方法。
尽管已用对结构特征和/或方法动作专用的语言描述了涉及检测用户控制输入的技术、方法、设备、系统等,但可以理解,所附权利要求书中定义的主题不必限于所述具体特征或动作。相反,上述具体特征和动作是作为实现所要求保护的方法、设备、系统等的示例性形式而公开的。

Claims (15)

1.一种系统,包括:
智能指环,所述智能指环被配置成佩戴在用户的手指的第一段上;
至少一个屈曲传感器,所述屈曲传感器以能够检测所述至少一个屈曲传感器与所述手指的第二段之间的距离的方式被固定到所述智能指环;以及,
输入组件,所述输入组件被配置成分析来自所述至少一个屈曲传感器的信号以便检测所述手指的姿态。
2.如权利要求1所述的系统,其特征在于,所述输入组件进一步被配置成分析来自其他传感器的附加信号以便标识关于所述用户的所述手指的附加信息。
3.如权利要求2所述的系统,其特征在于,其中所述输入组件被定位在所述智能指环的伴随设备上,或其中所述输入组件被定位在所述智能指环上。
4.如权利要求1所述的系统,其特征在于,所述系统进一步包括姿势组件,所述姿势组件被配置成分析所述姿态和来自至少一个其他传感器的附加信号以便标识与所述姿态和所述附加信号相关联的姿势。
5.如权利要求1所述的系统,其特征在于,所述输入组件进一步被配置成定义手腕坐标系。
6.如权利要求5所述的系统,其特征在于,所述手腕坐标系包括相对于所述手指的旋转移动的第一轴和相对于所述手指的屈曲和/或伸展的第二轴。
7.如权利要求1所述的系统,其特征在于,进一步包括被固定到所述智能指环的旋转传感器,所述旋转传感器被配置成检测所述手指的旋转,并且其中所述输入组件进一步被配置成分析来自所述旋转传感器的信号以便检测所述手指的所述姿态。
8.一种计算机实现的方法,包括:
从佩戴在手的手指上的智能指环获得旋转信号,所述旋转信号反映所述手指相对于所述手的旋转;
获得屈曲信号,所述屈曲信号反映所述手指的屈曲;以及,
分析所述旋转信号和所述屈曲信号以便标识由所述手指执行的控制输入。
9.如权利要求8所述的计算机实现的方法,其特征在于,所述分析包括将所述旋转信号和所述屈曲信号解释为所述手指的姿态方面的改变以便标识所述控制输入。
10.如权利要求8所述的计算机实现的方法,其特征在于,进一步包括在伴随设备上实现所述控制输入。
11.如权利要求10所述的计算机实现的方法,其特征在于,所述实现包括相对于所述伴随设备的计算环境来解释所述控制输入。
12.如权利要求8所述的计算机实现的方法,其特征在于,获得所述屈曲信号包括用所述智能指环上的屈曲传感器感测所述屈曲信号或从所述智能指环获得所述屈曲信号。
13.如权利要求12所述的计算机实现的方法,其特征在于,所述屈曲信号包括从所述手指的第一段上佩戴的所述智能指环到所述手指的第二段的距离。
14.如权利要求8所述的计算机实现的方法,其中获得所述旋转信号和获得所述屈曲信号包括在伴随设备处接收所述旋转信号和所述屈曲信号,并且其中所述伴随设备执行所述分析。
15.如权利要求14所述的计算机实现的方法,其特征在于,所述伴随设备包括智能电话、智能手表、智能眼镜、平板型计算机、或显示设备。
CN201580050250.9A 2014-09-17 2015-09-10 智能指环 Active CN107077227B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/489,385 2014-09-17
US14/489,385 US9582076B2 (en) 2014-09-17 2014-09-17 Smart ring
PCT/US2015/049272 WO2016044035A1 (en) 2014-09-17 2015-09-10 Smart ring

Publications (2)

Publication Number Publication Date
CN107077227A true CN107077227A (zh) 2017-08-18
CN107077227B CN107077227B (zh) 2020-07-21

Family

ID=54150718

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580050250.9A Active CN107077227B (zh) 2014-09-17 2015-09-10 智能指环

Country Status (6)

Country Link
US (2) US9582076B2 (zh)
EP (1) EP3195093A1 (zh)
JP (1) JP6545258B2 (zh)
KR (1) KR20170055523A (zh)
CN (1) CN107077227B (zh)
WO (1) WO2016044035A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110187782A (zh) * 2019-05-30 2019-08-30 河南大学 一种体感指环鼠标
CN111696187A (zh) * 2020-04-26 2020-09-22 杭州群核信息技术有限公司 一种基于效果图的光照设计系统
CN114761905A (zh) * 2019-12-06 2022-07-15 美国斯耐普公司 可穿戴电子设备配件接口

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9538915B2 (en) 2014-01-21 2017-01-10 Osterhout Group, Inc. Eye imaging in head worn computing
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9651788B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20150241963A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9594427B2 (en) 2014-05-23 2017-03-14 Microsoft Technology Licensing, Llc Finger tracking
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
KR101524575B1 (ko) * 2014-08-20 2015-06-03 박준호 웨어러블 디바이스
US9582076B2 (en) * 2014-09-17 2017-02-28 Microsoft Technology Licensing, Llc Smart ring
US10474191B2 (en) 2014-10-15 2019-11-12 Motionvirtual, Inc. Wearable device
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
JP6524661B2 (ja) * 2014-12-19 2019-06-05 富士通株式会社 入力支援方法、入力支援プログラムおよび入力支援装置
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US10166123B2 (en) * 2015-06-29 2019-01-01 International Business Machines Corporation Controlling prosthetic devices with smart wearable technology
US10042438B2 (en) * 2015-06-30 2018-08-07 Sharp Laboratories Of America, Inc. Systems and methods for text entry
WO2017010305A1 (ja) * 2015-07-15 2017-01-19 日本電気株式会社 認証装置、認証システム、認証方法、プログラム
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US11003246B2 (en) 2015-07-22 2021-05-11 Mentor Acquisition One, Llc External user interface for head worn computing
KR20170028130A (ko) 2015-09-03 2017-03-13 박준호 웨어러블 디바이스
US20170115737A1 (en) * 2015-10-26 2017-04-27 Lenovo (Singapore) Pte. Ltd. Gesture control using depth data
US10182325B2 (en) * 2015-11-23 2019-01-15 Anthony Peter Dobaj Movement control system
US10824253B2 (en) 2016-05-09 2020-11-03 Mentor Acquisition One, Llc User interface systems for head-worn computers
US9910284B1 (en) 2016-09-08 2018-03-06 Osterhout Group, Inc. Optical systems for head-worn computers
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
US10684478B2 (en) 2016-05-09 2020-06-16 Mentor Acquisition One, Llc User interface systems for head-worn computers
CN106200953A (zh) * 2016-07-05 2016-12-07 乐视控股(北京)有限公司 无线戒指、戒指组合及其虚拟现实设备操控方法
WO2018030887A1 (en) * 2016-08-08 2018-02-15 Motorola Solutions, Inc. Smart ring providing multi-mode control in a personal area network
CN107995965A (zh) * 2016-09-29 2018-05-04 深圳市柔宇科技有限公司 控制方法、控制装置及智能穿戴设备
KR102638309B1 (ko) 2016-10-26 2024-02-19 삼성전자주식회사 웨어러블 장치 및 헬스 모니터링 방법
KR102654621B1 (ko) 2016-12-08 2024-04-04 삼성전자주식회사 객체를 디스플레이하기 위한 방법 및 그 전자 장치
US10528780B2 (en) 2016-12-12 2020-01-07 Symbol Technologies, Llc Wearable mobile electronic devices
US10684693B2 (en) 2017-03-02 2020-06-16 Samsung Electronics Co., Ltd. Method for recognizing a gesture and an electronic device thereof
CN108693958B (zh) * 2017-04-12 2020-05-22 南方科技大学 一种手势识别方法、装置及系统
EP4145254A1 (en) 2017-06-09 2023-03-08 Microsoft Technology Licensing, LLC Wearable device enabling multi-finger gestures
IT201700037702A1 (it) 2017-06-12 2018-12-12 Nicholas Caporusso Dispositivo e metodo utile per l’interazione mediante gesti e movimenti degli arti e delle dita.
WO2019032094A1 (en) * 2017-08-08 2019-02-14 Ford Global Technologies, Llc ENHANCED OPERATION OF A CLOTHING APPARATUS
US10152141B1 (en) 2017-08-18 2018-12-11 Osterhout Group, Inc. Controller movement tracking with light emitters
IL254764A0 (en) * 2017-09-28 2017-12-31 Ohayon Amit A mouse for a smartphone worn on a finger
WO2019094313A1 (en) * 2017-11-07 2019-05-16 Dotbliss Llc Electronic garment with haptic feedback
US11614793B2 (en) * 2018-02-28 2023-03-28 Logitech Europe S.A. Precision tracking of user interaction with a virtual input device
EP3543829A1 (en) * 2018-03-19 2019-09-25 Padrone AG Method and finger-worn device for controlling an external computer
US11073898B2 (en) 2018-09-28 2021-07-27 Apple Inc. IMU for touch detection
JP2020174787A (ja) * 2019-04-16 2020-10-29 国立大学法人東京農工大学 手指運動推定システム
US11909238B1 (en) 2019-07-23 2024-02-20 BlueOwl, LLC Environment-integrated smart ring charger
US11537203B2 (en) 2019-07-23 2022-12-27 BlueOwl, LLC Projection system for smart ring visual output
US11637511B2 (en) 2019-07-23 2023-04-25 BlueOwl, LLC Harvesting energy for a smart ring via piezoelectric charging
US11537917B1 (en) 2019-07-23 2022-12-27 BlueOwl, LLC Smart ring system for measuring driver impairment levels and using machine learning techniques to predict high risk driving behavior
US11984742B2 (en) * 2019-07-23 2024-05-14 BlueOwl, LLC Smart ring power and charging
US11949673B1 (en) 2019-07-23 2024-04-02 BlueOwl, LLC Gesture authentication using a smart ring
US11551644B1 (en) 2019-07-23 2023-01-10 BlueOwl, LLC Electronic ink display for smart ring
US11853030B2 (en) 2019-07-23 2023-12-26 BlueOwl, LLC Soft smart ring and method of manufacture
US11594128B2 (en) 2019-07-23 2023-02-28 BlueOwl, LLC Non-visual outputs for a smart ring
KR20220100862A (ko) * 2019-09-24 2022-07-18 에이알케이에이치, 인크. 스마트 링
US11580300B1 (en) 2019-09-29 2023-02-14 Snap Inc. Ring motion capture and message composition system
US11755111B2 (en) 2020-03-16 2023-09-12 Arkh, Inc. Spatially aware computing hub and environment
US11397466B2 (en) 2020-03-31 2022-07-26 Apple Inc. Skin-to-skin contact detection
US11397468B2 (en) 2020-03-31 2022-07-26 Apple Inc. Skin-to-skin contact detection
DE102020205404A1 (de) 2020-04-29 2021-11-04 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Identifikation eines Nutzers einer tragbaren Vorrichtung
KR102207510B1 (ko) 2020-04-30 2021-01-27 (주)콕스스페이스 모션 신호와 마우스 신호를 사용하여 호스트 장치를 제어하기 위한 전자 장치
DE102020205707A1 (de) 2020-05-06 2021-11-11 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Erkennung von Nutzereingaben einer an einem ersten Finger eines Nutzers tragbaren Vorrichtung
US11502713B2 (en) 2020-09-16 2022-11-15 Genki Instruments ehf. Smart ring
KR102484134B1 (ko) * 2020-10-23 2023-01-04 (주) 로완 스마트링을 이용한 라이프 패턴 모니터링 및 관리 방법 및 장치
KR102575979B1 (ko) * 2021-05-17 2023-09-08 (주) 로완 스마트링을 이용한 음주 상태 모니터링 방법 및 장치
WO2024042502A1 (en) 2022-08-26 2024-02-29 Genki Instrument Ehf. Improved smart ring

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040012559A1 (en) * 2002-07-17 2004-01-22 Kanazawa University Input device
US20040032346A1 (en) * 2002-08-19 2004-02-19 Samsung Electro-Mechanics Co., Ltd. Information input device, information processing device and information input method
CN102478959A (zh) * 2010-11-28 2012-05-30 蒋霞 一种电子设备的控制系统和方法
US20140101755A1 (en) * 2012-10-10 2014-04-10 Research In Motion Limited Mobile wireless communications device providing security features based upon wearable near field communication (nfc) device and related methods
US20140181370A1 (en) * 2012-12-21 2014-06-26 Lsi Corporation Method to apply fine grain wear leveling and garbage collection
US20140176809A1 (en) * 2012-12-25 2014-06-26 Askey Computer Corp Ring-type remote control device, scaling control method and tap control method thereof

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5832296A (en) 1995-04-26 1998-11-03 Interval Research Corp. Wearable context sensitive user interface for interacting with plurality of electronic devices of interest to the user
US6882128B1 (en) 2000-09-27 2005-04-19 Science Applications International Corporation Method and system for energy reclamation and reuse
US20030142065A1 (en) * 2002-01-28 2003-07-31 Kourosh Pahlavan Ring pointer device with inertial sensors
US20030214481A1 (en) 2002-05-14 2003-11-20 Yongming Xiong Finger worn and operated input device and method of use
US7042438B2 (en) 2003-09-06 2006-05-09 Mcrae Michael William Hand manipulated data apparatus for computers and video games
US20060001646A1 (en) 2004-07-02 2006-01-05 Wei Hai Finger worn and operated input device
EP1785808B1 (en) 2005-11-10 2014-10-01 BlackBerry Limited System and method for activating an electronic device
US8879986B2 (en) 2005-12-31 2014-11-04 Michelle Fisher Wireless bidirectional communications between a mobile device and associated secure element using inaudible sound waves
US8559987B1 (en) 2005-12-31 2013-10-15 Blaze Mobile, Inc. Wireless bidirectional communications between a mobile device and associated secure element
US8615374B1 (en) 2006-06-09 2013-12-24 Rockwell Automation Technologies, Inc. Modular, configurable, intelligent sensor system
US7702282B2 (en) 2006-07-13 2010-04-20 Sony Ericsoon Mobile Communications Ab Conveying commands to a mobile terminal through body actions
US20090278798A1 (en) 2006-07-26 2009-11-12 The Research Foundation Of The State University Of New York Active Fingertip-Mounted Object Digitizer
KR101299682B1 (ko) 2006-10-16 2013-08-22 삼성전자주식회사 범용 입력장치
US8665225B2 (en) 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
US8033916B2 (en) 2007-05-04 2011-10-11 Theodore Caldwell Grip pressure sensor
EP2191458A4 (en) * 2007-08-19 2012-02-15 Ringbow Ltd FINGER-FITTED DEVICES AND METHODS OF USE THEREOF
US8031172B2 (en) 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
US9135620B2 (en) 2008-02-08 2015-09-15 Microsoft Technology Licensing, Llc Mobile device security using wearable security tokens
TWI374391B (en) 2008-05-27 2012-10-11 Ind Tech Res Inst Method for recognizing writing motion and trajectory and apparatus for writing and recognizing system
US8447704B2 (en) 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
US8106749B2 (en) 2008-07-14 2012-01-31 Sony Ericsson Mobile Communications Ab Touchless control of a control device
KR100920252B1 (ko) 2008-11-07 2009-10-05 서창수 공중에서의 손가락 움직임을 통해 제어되는 마우스
US8581856B2 (en) 2009-05-27 2013-11-12 Microsoft Corporation Touch sensitive display apparatus using sensor input
US8112066B2 (en) 2009-06-22 2012-02-07 Mourad Ben Ayed System for NFC authentication based on BLUETOOTH proximity
JP4988016B2 (ja) 2009-08-27 2012-08-01 韓國電子通信研究院 指の動き検出装置およびその方法
EP2302882A1 (en) 2009-09-24 2011-03-30 Research In Motion Limited Communication device and method for initiating NFC communication
WO2011055326A1 (en) 2009-11-04 2011-05-12 Igal Firsov Universal input/output human user interface
WO2011070554A2 (en) 2009-12-13 2011-06-16 Ringbow Ltd. Finger-worn input devices and methods of use
US8526880B2 (en) 2010-02-26 2013-09-03 Blackberry Limited Communications device responsive to near field communications (NFC) to enter locked or unlocked operating modes
US20120206485A1 (en) 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event and sensor triggered user movement control of ar eyepiece facilities
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20140063055A1 (en) 2010-02-28 2014-03-06 Osterhout Group, Inc. Ar glasses specific user interface and control interface based on a connected external device type
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
WO2011130752A1 (en) 2010-04-16 2011-10-20 Mastandrea Nicholas J Wearable motion sensing computing interface
US8797146B2 (en) 2010-04-27 2014-08-05 Apple Inc. Autonomous battery-free microwave frequency communication system
US8500031B2 (en) 2010-07-29 2013-08-06 Bank Of America Corporation Wearable article having point of sale payment functionality
US20120038652A1 (en) 2010-08-12 2012-02-16 Palm, Inc. Accepting motion-based character input on mobile computing devices
US20120075173A1 (en) * 2010-09-23 2012-03-29 Nokia Corporation Apparatus and method for user input
US20120075196A1 (en) * 2010-09-23 2012-03-29 Nokia Corporation Apparatus and method for user input
US20120083205A1 (en) 2010-10-04 2012-04-05 Qualcomm Incorporated Nfc device having a differential input envelope detector
US20120139708A1 (en) 2010-12-06 2012-06-07 Massachusetts Institute Of Technology Wireless Hand Gesture Capture
US8572764B2 (en) 2010-12-09 2013-11-05 Dieter Thellmann Exercising glove
US8811896B2 (en) 2011-01-07 2014-08-19 Texas Instruments Incorporated Non-volatile memory for contactless systems
US10061387B2 (en) 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
US20120256860A1 (en) 2011-04-05 2012-10-11 James Robert Justice Directional Finger Recognition Authoring
US20120309354A1 (en) 2011-06-06 2012-12-06 Syracuse University Situation aware security system and method for mobile devices
US8548380B2 (en) 2011-06-10 2013-10-01 Broadcom Corporation Communications device for intelligently routing information among multiple user interfaces
US8879985B2 (en) 2011-06-28 2014-11-04 Broadcom Corporation Memory arbitrator for electronics communications devices
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US9042571B2 (en) 2011-07-19 2015-05-26 Dolby Laboratories Licensing Corporation Method and system for touch gesture detection in response to microphone output
CN102955580B (zh) 2011-08-31 2017-05-10 赛恩倍吉科技顾问(深圳)有限公司 鼠标及其模拟触控操作的方法
WO2013048469A1 (en) 2011-09-30 2013-04-04 Intel Corporation Detection of gesture data segmentation in mobile devices
US20130100044A1 (en) 2011-10-24 2013-04-25 Motorola Mobility, Inc. Method for Detecting Wake Conditions of a Portable Electronic Device
US9385786B2 (en) 2011-12-14 2016-07-05 Marvell World Trade Ltd. Method and apparatus for charging a battery in a mobile device through a near field communication (NFC) antenna
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US8478195B1 (en) 2012-02-17 2013-07-02 Google Inc. Two-factor user authentication using near field communication
USD705228S1 (en) 2012-02-23 2014-05-20 Marni Peters Actuating ring
US9389690B2 (en) 2012-03-01 2016-07-12 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
US20130260689A1 (en) 2012-03-30 2013-10-03 Qualcomm Incorporated Wirelessly Powered Input Device
US20130290522A1 (en) 2012-04-11 2013-10-31 Edward F. Behm, Jr. Engine, System and Method of Locating a Mobile Device and Reporting on Other Devices Proximately Located Thereto
US20140028547A1 (en) 2012-07-26 2014-01-30 Stmicroelectronics, Inc. Simple user interface device and chipset implementation combination for consumer interaction with any screen based interface
US20140085177A1 (en) 2012-09-21 2014-03-27 Nokia Corporation Method and apparatus for responding to input based upon relative finger position
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US8820649B2 (en) 2012-11-20 2014-09-02 Omne Mobile Payments, Inc. Electronic card with a programmable magnetic stripe
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US9030446B2 (en) 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
US8743052B1 (en) 2012-11-24 2014-06-03 Eric Jeffrey Keller Computing interface system
US9112543B2 (en) 2012-12-27 2015-08-18 Cambridge Silicon Radio Limited Near field communication devices and methods
US20140267024A1 (en) 2013-03-15 2014-09-18 Eric Jeffrey Keller Computing interface system
WO2014145942A2 (en) 2013-03-15 2014-09-18 Smart Patents L.L.C. Wearable devices and associated systems
US9696802B2 (en) 2013-03-20 2017-07-04 Microsoft Technology Licensing, Llc Short range wireless powered ring for user interaction and sensing
US20140308930A1 (en) 2013-04-12 2014-10-16 Bao Tran Timely, glanceable information on a wearable device
US8742623B1 (en) 2013-09-16 2014-06-03 Google Inc. Device with dual power sources
US20150078586A1 (en) 2013-09-16 2015-03-19 Amazon Technologies, Inc. User input with fingerprint sensor
US20150220158A1 (en) * 2014-01-07 2015-08-06 Nod Inc. Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
US9965761B2 (en) 2014-01-07 2018-05-08 Nod, Inc. Methods and apparatus for providing secure identification, payment processing and/or signing using a gesture-based input device
US9232331B2 (en) 2014-05-08 2016-01-05 Microsoft Technology Licensing, Llc Hand-worn device for surface gesture input
US9594427B2 (en) 2014-05-23 2017-03-14 Microsoft Technology Licensing, Llc Finger tracking
KR20160015050A (ko) 2014-07-30 2016-02-12 엘지전자 주식회사 반지형 이동 단말기
US9582076B2 (en) * 2014-09-17 2017-02-28 Microsoft Technology Licensing, Llc Smart ring

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040012559A1 (en) * 2002-07-17 2004-01-22 Kanazawa University Input device
US20040032346A1 (en) * 2002-08-19 2004-02-19 Samsung Electro-Mechanics Co., Ltd. Information input device, information processing device and information input method
CN102478959A (zh) * 2010-11-28 2012-05-30 蒋霞 一种电子设备的控制系统和方法
US20140101755A1 (en) * 2012-10-10 2014-04-10 Research In Motion Limited Mobile wireless communications device providing security features based upon wearable near field communication (nfc) device and related methods
US20140181370A1 (en) * 2012-12-21 2014-06-26 Lsi Corporation Method to apply fine grain wear leveling and garbage collection
US20140176809A1 (en) * 2012-12-25 2014-06-26 Askey Computer Corp Ring-type remote control device, scaling control method and tap control method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110187782A (zh) * 2019-05-30 2019-08-30 河南大学 一种体感指环鼠标
CN114761905A (zh) * 2019-12-06 2022-07-15 美国斯耐普公司 可穿戴电子设备配件接口
CN111696187A (zh) * 2020-04-26 2020-09-22 杭州群核信息技术有限公司 一种基于效果图的光照设计系统
CN111696187B (zh) * 2020-04-26 2023-10-03 杭州群核信息技术有限公司 一种基于效果图的光照设计系统

Also Published As

Publication number Publication date
JP6545258B2 (ja) 2019-07-17
US9880620B2 (en) 2018-01-30
US20170024008A1 (en) 2017-01-26
US9582076B2 (en) 2017-02-28
JP2017527922A (ja) 2017-09-21
KR20170055523A (ko) 2017-05-19
CN107077227B (zh) 2020-07-21
EP3195093A1 (en) 2017-07-26
WO2016044035A1 (en) 2016-03-24
US20160077587A1 (en) 2016-03-17

Similar Documents

Publication Publication Date Title
CN107077227A (zh) 智能指环
US20190346940A1 (en) Computing interface system
CN109074217B (zh) 用于多点触摸输入检测的应用
US20210181857A1 (en) Systems and Methods of Creating a Realistic Displacement of a Virtual Object in Virtual Reality/Augmented Reality Environments
Kienzle et al. LightRing: always-available 2D input on any surface
US9477312B2 (en) Distance based modelling and manipulation methods for augmented reality systems using ultrasonic gloves
CN103713737B (zh) 用于智能眼镜的虚拟键盘系统
US9367651B2 (en) 3D wearable glove scanner
KR101302138B1 (ko) 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
Hrabia et al. Whole hand modeling using 8 wearable sensors: Biomechanics for hand pose prediction
Burstyn et al. DisplaySkin: Exploring pose-aware displays on a flexible electrophoretic wristband
Nguyen et al. 3DTouch: A wearable 3D input device for 3D applications
Zhong et al. Foot menu: Using heel rotation information for menu selection
Bai et al. Asymmetric Bimanual Interaction for Mobile Virtual Reality.
Zhang et al. Near-field touch interface using time-of-flight camera
CN104714628A (zh) 一种信息处理方法及电子设备
Huo Exploration, Study and Application of Spatially Aware Interactions Supporting Pervasive Augmented Reality
Aty et al. Prokiwii: A Projected Portable Interface for Enriching Object Scenarios with Kinect and Wii Remote
Paluka Spatial peripheral interaction techniques for viewing and manipulating off-screen digital content

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant